近一段時間,中國人工智能領域迎來里程碑式突破。國產推理大模型DeepSeek-R1的誕生標志著我國AI技術從“追趕者”向“領跑者”實現歷史性跨越。
全國兩會召開期間,多位全國政協(xié)委員也相繼談到對DeepSeek的看法。

視頻截圖(圖源:金融時報)
據金融時報報道,全國政協(xié)委員、北京人民藝術劇院院長馮遠征表示,在DeepSeek剛出來時就已經在用了,“我覺得感受很好。當我有一部小說,我問(DeepSeek)能不能提煉成一個話劇本的提綱,(它)不到一分鐘就出來了。出來以后,我覺得真棒,提煉得非常好。之后我說,那能不能形成一個劇本,然后(DeepSeek)又形成了一個劇本,形成劇本以后,我看了以后也覺得很好。”
馮遠征說道:“但是(這個劇本)不是我所需要的。我覺得劇本語言都很嚴謹、提煉得也很棒,但是從另一個角度來說,可能它缺少了一個真正人的溫度。所以,我也覺得科技是無限的,但是科技的有限在于如何讓人真正去利用它,而不是被它左右。”

周鴻祎(圖源:封面新聞)
據封面新聞報道,全國政協(xié)委員、360集團創(chuàng)始人周鴻祎再度聚焦大模型安全。他認為,DeepSeek-R1等先進模型帶來了前所未有的機遇,也同樣面臨無法通過傳統(tǒng)網絡安全手段解決的安全挑戰(zhàn)。對此,周鴻祎呼吁各界共同努力,構建更加完善的大模型應用安全治理體系,在保障安全的前提下最大化地釋放大模型技術的潛力。
周鴻祎表示,“開源帶來大模型的廣泛應用,未來將會有各類專業(yè)大模型、垂直大模型、場景大模型,連接內部知識庫,以智能體的形式在大批政府機構和企業(yè)中廣泛部署,推進“數轉智改”,實現降本增效。然而大模型存在幻覺、內容安全等諸多問題無法通過傳統(tǒng)安全方案有效化解,一旦部署在政府、企業(yè)內部的基座模型、知識庫或智能體中任一環(huán)節(jié)出現安全隱患,都極有可能誘發(fā)整個生產環(huán)境爆發(fā)系統(tǒng)性風險。”
周鴻祎認為,大模型應用安全主要集中在基座模型、知識庫和智能體三個方面。基座模型安全方面,由于大模型普遍存在的幻覺現象,特別是在生成文本時可能輸出與現實不符的信息,這在政策制定、法律條文解讀或商業(yè)決策等場景下可能導致誤導性后果。

甄子丹(圖源:紅星新聞)
據中新網報道,全國政協(xié)委員、香港演員甄子丹接受采訪時表示,諸如DeepSeek的新興人工智能技術的應用,對電影行業(yè)既是一種鼓勵,也是一種沖擊。他認為,有沖擊才有進步。藝術的發(fā)展需要有一個學習的過程,同時歷史也告訴人們,任何技術革命也會造成相應的轉變。電影人必須要向人工智能學習,不能對人工智能感到害怕。
綜合金融時報、封面新聞、中新網
()





京公網安備 11011402013531號