電子前沿基金會(Electronic Frontier Foundation)發(fā)布了一份白皮書,為軍事人工智能項目的實施提供指導。
人工智能被用于軍事目的是可怕的,但它最終不可避免。人們所能期待的最好結(jié)果是,它以一種合理的方式來解決人們的擔憂。
在谷歌員工因該公司的國防合同而辭職后,白皮書發(fā)布就出現(xiàn)了。該公司為美國軍方的無人機項目提供人工智能知識。自那以后,谷歌決定不再續(xù)簽合同。
一些軍事策劃人員和國防承包商難以理解來自谷歌等硅谷巨頭的員工的擔憂,而電子前沿基金會希望能“彌合差距”以幫助他們。
EFF想要考慮三個核心問題:
在武器系統(tǒng)或軍事指揮和控制中應(yīng)用當前機器學習方法的主要技術(shù)和戰(zhàn)略風險是什么?
國家和軍隊可以采取哪些適當?shù)膽?yīng)對措施?
什么樣的人工智能可以安全地用于軍事用途,哪些種類不是?
有很多支持的概念是,任何殺死的決定最終都必須由人類操作員來做,即使人工智能推薦它。這確保了人類的同情在錯誤發(fā)生的時候起到了一定的作用,并保證了責任,而不是錯誤的編程。
在一篇博客文章中,EFF寫道:
“機器學習技術(shù)已經(jīng)得到了令人難以置信的宣傳,事實上,它們在某些方面已經(jīng)取得了令人興奮的進展,但它們?nèi)匀缓艽嗳?,受到新的失敗模式的影響,并且容易受到各種形式的敵對攻擊和操縱。
他們也缺乏人類通常賴以生存的常識和判斷的基本形式。”
在這個時候,EFF強調(diào)這些觀點是為了讓人工智能遠離目標選擇、火控、大多數(shù)命令、控制和智能(C2I)角色,至少在可預見的未來是這樣。
第一部分,我確定了人工智能的軍事用途如何導致意想不到的危險和風險:
機器學習系統(tǒng)很容易被愚弄或被顛覆:神經(jīng)網(wǎng)絡(luò)很容易受到一系列新奇攻擊的影響,包括敵對的例子、模型竊取和數(shù)據(jù)中毒。
目前網(wǎng)絡(luò)安全的力量平衡大大有利于攻擊者而不是防御者。
最近被稱贊的人工智能的許多成就都來自于強化學習(RL),但是目前最先進的RL系統(tǒng)是不可預測的,難以控制,不適合復雜的現(xiàn)實部署。
部署的系統(tǒng)之間的交互將非常復雜,不可能建模,并且會受到難以減輕的災(zāi)難性故障的影響。因此,沖突有可能發(fā)生意外或升級的嚴重風險。
第二部分提出并詳細闡述了減輕這些風險的議程:
支持和建立國際機構(gòu)和協(xié)議,在軍事環(huán)境中管理人工智能和與AI相關(guān)的風險。
專注于“殺死鏈”之外的機器學習應(yīng)用程序,包括物流、系統(tǒng)診斷和修復,以及防御網(wǎng)絡(luò)安全。
將研發(fā)工作集中在提高ML系統(tǒng)的可預測性、健壯性和安全性上。
與更廣泛的學術(shù)和民間研究團體分享可預見性和安全研究。
專注于防御網(wǎng)絡(luò)安全(包括在廣泛的平臺和民用基礎(chǔ)設(shè)施中修復漏洞)作為一個主要的戰(zhàn)略目標。
參與軍事對話,尋求諒解備忘錄和其他文書、協(xié)議或條約,以防止意外沖突的風險和意外升級。
最后,第三部分提出了未來考慮的戰(zhàn)略問題,目的是幫助國防社區(qū)為構(gòu)建安全可控的人工智能系統(tǒng)做出貢獻,而不是讓脆弱的系統(tǒng)和過程在未來幾十年里導致后悔。