新技術應用往往先于規範,建立健全保障人工智能(néng)健康發(fā)展的法律法規、制度體系、倫理道(dào)德,才能(néng)營造良好(hǎo)的創新生态。著(zhe)眼未來,在重視防範人工智能(néng)風險的同時(shí),也應同步建立容錯、糾錯機制,努力實現規範與發(fā)展的動态平衡。
近期,人工智能(néng)領域大模型聲勢高漲,短短數月間,數十家國(guó)内公司先後(hòu)宣布進(jìn)軍大模型賽道(dào)。7月6日在上海舉辦的2023世界人工智能(néng)大會(huì)成(chéng)爲大模型集中秀場,30餘款來自不同企業的大模型産品和技術相繼亮相。
科技部新一代人工智能(néng)發(fā)展研究中心近期發(fā)布的《中國(guó)人工智能(néng)大模型地圖研究報告》顯示,以“大數據+大算力+強算法”相結合的人工智能(néng)大模型,在中國(guó)正迅猛發(fā)展,中國(guó)研發(fā)的大模型數量已居全球第二,僅次于美國(guó),目前中國(guó)發(fā)布的10億參數規模以上的大模型已達79個。
以大模型爲代表的人工智能(néng)技術,其巨大潛力正在加速釋放,想要抓住它所帶來的巨大機遇,就(jiù)需要警惕它的潛在安全風險和隐患,這(zhè)是當前人工智能(néng)産業界所面(miàn)臨的雙向(xiàng)任務。
人工智能(néng)風險具“自有”特點
據中國(guó)信息通信研究院測算,2022年中國(guó)人工智能(néng)核心産業規模已達5080億元人民币。
人工智能(néng)已成(chéng)爲全球數字技術創新最活躍的領域之一,爲人們的生産生活帶來了巨大的變革和便利,但也帶來了諸多風險與挑戰,如何構建安全可信的人工智能(néng)是當前各界關注的焦點。
阿拉伯信息通信技術組織秘書長(cháng)穆罕默德·本·阿莫在日前舉辦的世界互聯網大會(huì)數字文明“尼山對(duì)話”主論壇上表示,建立一個安全可信的人工智能(néng)系統,要首先考慮數據隐私與安全、透明度、責任與問責、穩健性與彈性等因素;此外,還(hái)需要建立一個道(dào)德框架,通過(guò)以人爲本的設計,優先考慮人類福祉。
全球移動通信系統協會(huì)首席執行官洪曜莊表示,隻有在道(dào)德準則的約束下,人工智能(néng)才能(néng)真正改善世界。我們必須共同努力構建一個可信賴的環境,建立以人爲本的方法體系,确保人工智能(néng)對(duì)于每個人都(dōu)可靠、負責和公平,最重要的是,能(néng)夠普惠所有人。
加強人工智能(néng)發(fā)展中潛在風險的研判和防範,維護人民利益和國(guó)家安全,确保人工智能(néng)安全、可靠、可控,是中國(guó)推進(jìn)人工智能(néng)治理的重要方向(xiàng)。
早在2017年,國(guó)務院印發(fā)《新一代人工智能(néng)發(fā)展規劃》,明确提出到2025年,初步建立人工智能(néng)法律法規、倫理規範和政策體系,形成(chéng)人工智能(néng)安全評估和管控能(néng)力;2030年,建成(chéng)更加完善的人工智能(néng)法律法規、倫理規範和政策體系。
盡管相關科研機構和科技企業在人工智能(néng)系統設計之初就(jiù)考慮到要保障人工智能(néng)安全、可控,但技術應用的趨利避害卻往往難以一蹴而就(jiù)。
中國(guó)科技大學(xué)公共事(shì)務學(xué)院網絡空間安全學(xué)院教授左曉棟表示,人工智能(néng)的風險和傳統技術的風險相比,有一些“自有”的特點。比如,人工智能(néng)是高度自主智能(néng)的,極大依賴數據基礎,而且還(hái)存在“算法黑箱”、算法不可解釋等問題,使得人工智能(néng)系統存在大量未知因素,風險預測難度較大。
爲應對(duì)可見的挑戰和不可知的風險,我國(guó)應加快建立人工智能(néng)領域相關法律法規、倫理規範和政策體系,形成(chéng)人工智能(néng)安全評估和管控能(néng)力,這(zhè)是我國(guó)各界對(duì)人工智能(néng)發(fā)展的共識。
大模型“放大”AI安全問題
百度創始人、董事(shì)長(cháng)兼首席執行官李彥宏說(shuō):“過(guò)去一年,人工智能(néng)在技術、産品、應用等各個層面(miàn),以‘周’爲叠代速度向(xiàng)前突進(jìn)。大模型成(chéng)功壓縮了人類對(duì)于世界的認知,讓我們看到了實現通用人工智能(néng)的路徑。”
以今年3月百度率先發(fā)布的大語言模型文心一言爲标志,我國(guó)大模型創業潮奔湧,伴随而來的,是社會(huì)各界越來越多對(duì)于大模型安全的疑惑。但在百度看來,安全問題并不是大模型出現才帶來的新問題。
“大模型之前的人工智能(néng)時(shí)代,我們已經(jīng)發(fā)現人工智能(néng)本身具有所謂的内在安全問題。人工智能(néng)算法可能(néng)會(huì)被(bèi)對(duì)象樣(yàng)本攻擊,正常樣(yàng)本加入少量對(duì)抗就(jiù)會(huì)誤導識别結果。不管是數字世界還(hái)是物理世界,很多場景都(dōu)存在這(zhè)種(zhǒng)情況。”清華大學(xué)計算機系長(cháng)聘教授、清華大學(xué)人工智能(néng)研究院副院長(cháng)朱軍指出。
在朱軍看來,特别是ChatGPT出現以後(hòu),生成(chéng)式人工智能(néng)的安全問題越來越嚴重,而算法本身是否存在政治偏見和數字鴻溝,數據采集過(guò)程中會(huì)不會(huì)侵犯知識産權等問題,也是大模型時(shí)代需要重點關注的問題,可從以下幾個層面(miàn)嘗試解決。
首先,從人工智能(néng)基礎層面(miàn),針對(duì)深度學(xué)習、深度神經(jīng)網絡,學(xué)術界一直在探索第三代人工智能(néng)新範式,希望能(néng)夠發(fā)展更加安全可靠的人工智能(néng)框架。第三代人工智能(néng)新範式的優勢就(jiù)是在于安全、可信、可靠和可拓展。
其次,提升安全評測能(néng)力,主要關注對(duì)抗攻擊評測、角色扮演與誘導欺騙評測、混淆指令欺騙評測、标識性能(néng)評測、數據安全評測、倫理安全評測等。
還(hái)有,構建人工智能(néng)安全治理有效工具,如可以構建人工智能(néng)安全平台,通過(guò)平台化的方式對(duì)人工智能(néng)的算法和服務進(jìn)行評測。
業界不斷嘗試新的“解題思路”
正如北京智源人工智能(néng)研究院院長(cháng)、北京大學(xué)多媒體信息處理全國(guó)重點實驗室主任黃鐵軍所言,人工智能(néng)越來越強大,風險與日俱增,但對(duì)于如何構建一個安全可信的人工智能(néng),我們仍知之甚少。
面(miàn)對(duì)這(zhè)樣(yàng)的現實,業界一直在不斷嘗試新的“解題思路”。
6月28日,火山引擎發(fā)布大模型服務平台“火山方舟”,面(miàn)向(xiàng)企業提供模型精調、評測、推理等全方位的平台服務。
“企業使用大模型,首先要解決安全與信任問題。”火山引擎總裁譚待表示,“火山方舟”實現了大模型安全互信計算,爲企業客戶護佑數據資産安全。基于“火山方舟”獨特的多模型架構,企業可同步試用多個大模型,選用更适合自身業務需要的模型組合。
與小模型的“自産自用”不同,大模型的生産門檻很高,數據安全成(chéng)爲大模型時(shí)代的新命題。譚待認爲,企業使用大模型,最擔心的是數據洩露,但如果將(jiāng)大模型私有化部署,企業將(jiāng)承擔更高的成(chéng)本,模型生産方也會(huì)擔心知識資産安全。“火山方舟”的首要任務就(jiù)是做好(hǎo)安全保障,使大模型使用者、提供者和雲平台各方可以互相信任。
據火山引擎智能(néng)算法負責人吳迪介紹,“火山方舟”已上線了基于安全沙箱的大模型安全互信計算方案,利用計算隔離、存儲隔離、網絡隔離、流量審計等方式,實現了模型的機密性、完整性和可用性保證,适用于對(duì)訓練和推理延時(shí)要求較低的客戶。
黃鐵軍表示,所有的探索才剛剛開(kāi)始,我們面(miàn)臨著(zhe)全新的挑戰,原有的經(jīng)驗和方法可能(néng)都(dōu)無法解決新問題。
“新技術應用往往先于規範,建立健全保障人工智能(néng)健康發(fā)展的法律法規、制度體系、倫理道(dào)德,才能(néng)營造良好(hǎo)的創新生态。著(zhe)眼未來,在重視防範人工智能(néng)風險的同時(shí),也應同步建立容錯、糾錯機制,努力實現規範與發(fā)展的動态平衡。”李彥宏說(shuō)。
但是,無論從技術趨勢,還(hái)是産業應用來看,大模型都(dōu)絕不是昙花一現的風口,而是影響人類發(fā)展的重大技術變革,是拉動全球經(jīng)濟增長(cháng)的重要引擎,是絕對(duì)不能(néng)錯過(guò)的重大戰略機遇。李彥宏說(shuō):“堅持技術發(fā)展和安全可控的雙輪驅動,才能(néng)行穩緻遠。如果我們安全、負責任地駕馭人工智能(néng)發(fā)展之路,大模型就(jiù)會(huì)重塑數字世界,人工智能(néng)就(jiù)可以爲中國(guó)經(jīng)濟乃至全球經(jīng)濟創造無與倫比的繁榮,提高全人類福祉。”
采編:上海速亞信息科技有限公司
來源:科技日報