DeepSeek橫空出世,彰顯了我國在科技創(chuàng)新上的巨大潛力。針對AI和科技創(chuàng)新等話題,證券時報記者日前對話奇安信董事長齊向東。
他認為,在傳統(tǒng)產(chǎn)業(yè)轉型升級的過程中,人工智能發(fā)揮著“領頭雁”效應;建議繼續(xù)守護并延續(xù)AI創(chuàng)新的“草根化”趨勢,保持“自下而上”的創(chuàng)新張力。同時,對于人工智能發(fā)展面臨的安全問題,他認為要從技術保障、制度保障、成果應用三方面入手,系統(tǒng)提升安全能力,確保人工智能安全發(fā)展。
記者:人工智能是新一輪科技革命的核心技術,也是大國博弈的重要陣地。您認為,發(fā)展人工智能將對我國在國際競爭中增加哪些優(yōu)勢和話語權?人工智能將為傳統(tǒng)產(chǎn)業(yè)轉型升級帶來哪些影響?
齊向東:人工智能是引領未來發(fā)展的顛覆性技術和前沿技術,也是注定要走進千家萬戶的關鍵共性技術。大力發(fā)展人工智能,能切實增強我國在數(shù)字經(jīng)濟、高水平人才引育和產(chǎn)業(yè)鏈供應鏈完整性等方面的優(yōu)勢,提升我國在國際技術標準與安全治理等領域的話語權。
在傳統(tǒng)產(chǎn)業(yè)轉型升級的過程中,人工智能發(fā)揮著“領頭雁”效應。作為傳統(tǒng)產(chǎn)業(yè)數(shù)字化轉型中最重要的變革驅動力量,人工智能已在研發(fā)、生產(chǎn)、管理全環(huán)節(jié)廣泛應用,涌現(xiàn)出上百種場景和模式。但是,人工智能也大幅提升了網(wǎng)絡攻擊的烈度和廣度,網(wǎng)絡攻擊窗口不斷擴大、網(wǎng)絡攻擊手段不斷革新、網(wǎng)絡犯罪門檻持續(xù)降低,給傳統(tǒng)產(chǎn)業(yè)發(fā)展帶來了新風險、新挑戰(zhàn),引發(fā)了社會高度關注。
記者:DeepSeek的開源策略打破“巨頭壟斷”模式,同時,包括DeepSeek在內(nèi)的“杭州六小龍”也都是“野生”的民營企業(yè)。在您看來,中國AI創(chuàng)新是否有“草根化”的趨勢?
齊向東:我國AI創(chuàng)新的“草根化”趨勢確實很明顯,這跟國家的前瞻性布局、政策扶持以及全方位的資源投入密不可分。AI屬于通用型創(chuàng)新,它的獨特之處在于并非由權威主導,而是由廣大創(chuàng)業(yè)者主導的。這次DeepSeek的爆火,以及”杭州六小龍”等科創(chuàng)企業(yè)的成功,都很好地印證了這一點。但我們也必須清楚,沒有國家作為堅實后盾,這些“草根”力量也是難以茁壯成長的。今年年初,國家AI產(chǎn)業(yè)投資基金成立,為技術創(chuàng)新和應用拓展釋放了更多增長空間。
繼續(xù)守護并延續(xù)AI創(chuàng)新的“草根化”趨勢,保持“自下而上”的創(chuàng)新張力,對我國AI產(chǎn)業(yè)發(fā)展乃至整個科技創(chuàng)新生態(tài)意義重大。建議國家從政策引導、優(yōu)化營商環(huán)境、生態(tài)協(xié)同等維度入手,進一步激發(fā)民間創(chuàng)新創(chuàng)業(yè)熱情。比如,出臺專門針對科創(chuàng)民營企業(yè)的創(chuàng)新政策,酌情給予創(chuàng)新保護期、稅收減免、財政補貼等;用好金融工具,設立專項風險補償基金,以資金支持激發(fā)創(chuàng)新活力;同時優(yōu)化算力調(diào)度、牽頭建設公共技術服務平臺等等。
記者:不久前DeepSeek線上服務受到大規(guī)模惡意攻擊,這也讓大模型的安全問題受到關注。據(jù)奇安信XLab實驗室監(jiān)測到的最新情況,近期對DeepSeek的網(wǎng)絡攻擊是否仍在繼續(xù)?
齊向東:近期針對DeepSeek的網(wǎng)絡攻擊行為仍未完全停止。2月10日,我們檢測到一個新的僵尸網(wǎng)絡moobot曾短暫參與過攻擊,但并未造成實質影響。2月初,我們通過持續(xù)跟蹤監(jiān)測發(fā)現(xiàn),針對DeepSeek的仿冒網(wǎng)站、釣魚網(wǎng)站數(shù)量已經(jīng)超過2千個,并且在快速增加,于是再次發(fā)布預警,提醒用戶保持警惕,DeepSeek官方也對此事作出回應。
日前,我們發(fā)現(xiàn)目前活躍地運行DeepSeek等大模型的服務器有九成沒有采取安全措施。這種“裸奔”狀態(tài)會導致任何人不需要任何認證即可隨意調(diào)用、在未經(jīng)授權的情況下訪問這些服務,極有可能造成數(shù)據(jù)泄露和服務中斷,甚至可以發(fā)送指令刪除所部署的DeepSeek、Qwen等大模型文件,存在嚴重的安全隱患。
記者:積極構建高可靠人工智能安全體系,著力為用戶提供有效的安全防護,既要用人工智能去驅動安全,又要做好人工智能自身安全。您認為,目前人工智能的發(fā)展面臨哪些安全問題?
齊向東:人工智能發(fā)展面臨的安全問題大致可以分為三類。第一類是人工智能大模型自身的安全問題。開發(fā)風險、數(shù)據(jù)風險、應用風險和基礎環(huán)境風險這四大安全風險比較突出。
第二類是利用人工智能開展網(wǎng)絡攻擊的問題。人工智能促進了網(wǎng)絡攻擊手段的更新迭代,“飽和式”攻擊成為可能,攻擊者可以瞬時發(fā)動海量攻擊打垮已有的網(wǎng)絡安全體系。人工智能還提升了“以假亂真”的能力,深度偽造、認知戰(zhàn)、釣魚等威脅加劇。攻擊者可利用人工智能“換臉變聲”輸出虛假信息,開展網(wǎng)絡詐騙,或輸出背離主流價值觀的內(nèi)容危害認知安全。
第三類是通過攻擊人工智能引發(fā)的“網(wǎng)絡攻擊大爆炸”。未來人工智能會成為社會的基礎設施,當大模型嵌入智慧城市、工控系統(tǒng)、智慧政務等關鍵領域時,會放大漏洞等傳統(tǒng)安全威脅,一旦人工智能大模型遭到攻擊可能會牽一發(fā)而動全身,引發(fā)社會服務中斷、生產(chǎn)停滯、隱私數(shù)據(jù)泄露等安全事件。
針對這些安全問題,要從技術保障、制度保障、成果應用三方面入手,系統(tǒng)提升安全能力,確保人工智能安全發(fā)展。第一,建立適配大模型的縱深防御體系,筑牢人工智能的安全根基。第二,制定大模型安全強制合規(guī)要求,夯實人工智能安全發(fā)展的制度保障。第三,推廣“AI+安全”創(chuàng)新成果落地,走好提升安全能力的必經(jīng)之路。