當前位置:
首頁 > 最新 > 新美國安全中心文章分析 人工智慧時代對軍事以及戰略穩定性的影響

新美國安全中心文章分析 人工智慧時代對軍事以及戰略穩定性的影響

人工智慧(AI)的快速發展在提升軍事能力的同時,也在擾亂、破壞現有軍事平衡。「殺人機器人」以及AI「軍備競賽」中展示的先進技術開始引起人們對AI可能產生風險的恐懼。「通用人工智慧」(General AI)雖然在短期內還不太可能實現,但自主武器產生的破壞性影響卻真實存在。

AI技術當前進展

AI目前已廣泛應用於機器學習以及深度學習技術領域,如深度神經網路的使用、跨學科計算機視覺、模式識別和自然語言處理等學科。2016年,DARPA舉行「網路大挑戰」,驗證了「自動攻擊系統」在自動檢測和修補軟體漏洞方面的潛能。計算機圍棋程序AlphaGo在人-機比賽中取得歷史性勝利,表明其已掌握圍棋競技精髓,這一成就比人類預期至少早十年。

自主武器系統的應用風險

致命性自主武器系統產生的風險。自主武器產生的作戰風險主要包括:複雜系統的操作失敗,對手對自主系統的攻擊和破壞(如欺騙和黑客行為),或系統之間的偶發互作用等。當前,對於AI在作戰應用中產生風險的分析,均集中在使用致命性武器系統所涉及的倫理道德問題以及操作風險上。國際社會已開始討論用法律規範自主武器系統的應用(核心原則是自主武器使用的必要性、區別性、均衡性以及倫理道德),但仍不清楚各國軍方將如何解釋並遵守這種法律框架。

分析錯誤導致決策錯誤。在軍事行動中,如果作戰環境、條件的演變不符合智能演算法的預期分析,那麼系統越複雜,產生的風險就會越大;使用機器學習支持軍事情報、監視與偵察或指揮系統時,也會產生錯誤:處理衛星圖像的計算機視覺演算法在識別威脅或潛在目標時出現錯誤,就會導致分析情報出現錯誤,進而影響對戰場環境的分析;用於機器翻譯或自然語言處理的演算法對關鍵情報信息分析出錯,那麼被引入到分析和決策過程中的信息也會是錯誤的。此外,對手還可能採取措施故意損害或干擾AI系統。

相關建議

美國、中國和俄羅斯已經認識到AI對國家防禦的破壞性甚至革命性影響,正在積極尋求提升在軍事領域應用AI的能力。2012年,美國防部發布有關自主武器系統政策指令,指出必須將自主武器系統設計為「在發揮效力時,允許指揮人員或者操作人員行使適當判斷權利」。2017年初,美國防部建立「演算法戰跨職能小組」,加快國防部整合大數據和機器學習的能力。2017年夏天,中國發布「新一代人工智慧發展規劃」,尋求發展AI在國防領域的應用,如制定指揮決策、解決軍事冗餘以及研發防禦裝備。俄羅斯軍方也在積極推進智能機器人研發相關方面的工作。

各國軍方應努力尋求採取措施評估進而減輕AI在軍事應用中產生的潛在風險。強化對軍事AI系統的安全性和完整性的測試,重點關注在開放性、不受控制的環境中可能發生的潛在錯誤或故障。建立軍事AI系統中的冗餘系統,利用多種方法來檢測錯誤和評估輸出信息,確保獲取情報的真實性。研發自動防故障裝置或「斷路器」,以在意外發生或風險升級的情況下允許系統自動解除故障。確保人工智慧系統的「可解釋性」,以減少決策爭議。

覺得不錯,請點贊

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 國防科技要聞 的精彩文章:

美俄聯合建造月球軌道空間站 將促成國際載人探月登月聯盟
第69期:AI/城市戰/激光武器/空軍試驗與鑒定/自主無人艇等
美國防部長表示將打造一支更具殺傷力的軍隊
歐洲電子戰大會討論軟殺傷能力在反艦導彈防禦中的作用
DARPA啟動「飛行導彈列車」無人機計劃

TAG:國防科技要聞 |