科技日報記者?張夢然
當以后的人們?yōu)槿斯ぶ悄埽ˋI)撰寫一部編年史時,這可能是一個里程碑。
圖片來源:視覺中國
因為這是人類第一次由一個龐大的國際頂尖專家組,就先進AI的風險推進全球政策制定。
人們已清晰認識到:我們離不開AI,亦需要大力推動AI技術發(fā)展,但我們必須有能力防范其中的風險。
文章截圖:《科學》網(wǎng)站
自6個月前在英國布萊奇利公園舉行第一屆AI安全峰會以來,世界各國領導人承諾以負責任的方式管理AI,但是AI專家認為這依然不夠。隨著第二屆AI安全峰會(5月21日至22日)在韓國首爾舉行,25位世界頂尖AI科學家呼吁,全世界應對AI風險采取更強有力的行動。
發(fā)表于《科學》雜志的一份專家共識文章中,專家組概述了全球應采取的緊急政策優(yōu)先事項。文章作者之一、英國牛津大學工程科學系教授菲利普·托爾表示:“在上屆AI峰會上,世界一致認為我們需要采取行動,而現(xiàn)在是時候?qū)⒛:慕ㄗh轉(zhuǎn)變?yōu)榫唧w的承諾了?!?/p>
安全性研究嚴重匱乏
這25位全球頂尖的AI及其治理專家來自美國、中國、歐盟、英國和其他AI技術強國,其中包括圖靈獎獲得者以及諾貝爾獎獲得者。這也是首次由國際專家組就AI風險的全球政策制定達成一致。
文章指出,全球領導人需認真考慮,在未來十年內(nèi)可能開發(fā)出超越人類能力的通用AI系統(tǒng)。他們表示,盡管世界各國政府一直在討論先進AI,并嘗試引入初步指導方針,但這與許多專家期望的快速、變革性進展仍有距離。
目前關于AI安全的研究嚴重缺乏,只有1%—3%的AI出版物涉及相關安全問題。此外,全球沒有適當?shù)臋C制或機構來防止濫用和魯莽行為,包括如何使用能獨立采取行動和自行實現(xiàn)目標的自治系統(tǒng)。
在快速發(fā)展中防范極端風險
文章建議,各國政府需建立可快速行動的AI監(jiān)管機構,并為這些機構提供資金。美國AI安全研究所目前的年度預算為1000萬美元,聽起來并不少,但相比之下,美國食品和藥物管理局(FDA)的預算達67億美元。
AI領域需要更嚴格的風險評估并制定可執(zhí)行的措施,而不是依賴一些不甚明確的模型評估。應要求AI研發(fā)企業(yè)優(yōu)先考慮安全性,并證明其系統(tǒng)不會造成傷害,AI開發(fā)人員要承擔起證明安全性的責任。
人們還要有一個與AI系統(tǒng)帶來的風險水平相稱的緩解辦法,解決之道是制定一個“自動”政策,當AI達到某些能力里程碑時“自動觸發(fā)”——如果AI發(fā)展迅速,這一嚴格的要求就會自動生效;如果進展緩慢,要求將相應放緩。
對于能力超凡的未來AI系統(tǒng),政府必須作好帶頭監(jiān)管的準備。這包括許可開發(fā),限制其在關鍵社會角色中的自主權,停止部署部分能力,強制執(zhí)行訪問控制,以及要求對國家級黑客采取強有力的信息安全手段,直到人們準備好足夠的保護措施。
謹記AI不是玩具
不列顛哥倫比亞大學AI教授、強化學習領域?qū)<医芊颉た藗惣{表示,太空飛行、核武器和互聯(lián)網(wǎng)等技術在數(shù)年內(nèi)就從科幻變成了現(xiàn)實,AI也不例外?!拔覀儸F(xiàn)在必須為那些看似科幻小說的風險做好準備”。
現(xiàn)在,AI已經(jīng)在黑客攻擊、社交操縱和戰(zhàn)略規(guī)劃等關鍵領域取得了快速進展,并可能很快帶來前所未有的關于“控制”的挑戰(zhàn)。AI系統(tǒng)可能會為了實現(xiàn)某個“不良目的”而騙取人類信任、獲取資源并影響關鍵決策者。為了避免人為干預,它們還可以在全球服務器網(wǎng)絡上復制自身算法。
在這種情況下,大規(guī)模網(wǎng)絡犯罪、社會操縱和其他危害會因此迅速升級。而在公開沖突中,AI系統(tǒng)能自主部署各種武器,甚至包括生物武器。因此,當AI的進步不受控制,很可能最終導致大規(guī)模生命損失、生物圈破壞、人類邊緣化甚至滅絕。
美國加州大學伯克利分校計算機科學教授斯圖爾特·盧塞爾表示:“此次是權威專家的共識文章,其呼吁政府嚴格監(jiān)管,而不是自愿制定一些規(guī)范行業(yè)的行為?!?/p>
“企業(yè)可能抱怨說滿足這些法規(guī)太難,但所謂‘法規(guī)扼殺創(chuàng)新’的說法是荒謬的?!北R塞爾這樣說,“是時候認真對待先進AI系統(tǒng)了,它們不是玩具。在我們了解如何確保它們的安全性之前,輕易增強它們的能力是完全魯莽的行為?!?/p>