當前位置:
首頁 > 最新 > 美陸軍首次研發應用人工智慧決定攻擊目標的無人機

美陸軍首次研發應用人工智慧決定攻擊目標的無人機

近日,美陸軍宣布研發應用人工智慧決定攻擊目標的無人機,可發現並瞄準人員和裝備,這標誌著重大的技術進步。當前的軍用無人機仍由人操控,而這項新技術將使無人機決定攻擊目標,幾乎無需人類干預。

一、重要影響

新型自主性無人機代表人工智慧軍事化應用的終極趨勢,將對社會產生廣泛的法律與倫理影響。戰爭可能由此失去人性的外表,從戰鬥走向滅絕。它還會拓寬打擊的範圍,使研製人工智慧技術的工程師、科學家和公司成為目標。

二、技術現狀

MQ-9「死神」無人機等現有的軍用無人機都通過衛星進行嚴格地控制和駕駛。如果飛行員扔下炸彈或發射導彈,人類操作員就會使用激光器主動地將其引導到目標上。因此,機組成員最終對殺害目標承擔道德、法律和行動上的責任。寧可放過一個重要的叛亂分子,也不讓百姓冒生死的危險。

三、新的軍事主張

背景

遠程殺傷會對無人機操作員造成了心理創傷和創傷後應激障礙(PTSD)。通常情況下,情報專家以及其他軍事人員會定期分析無人機攻擊的視頻畫面,而研究表明經常觀看極端暴力的圖像也可能遭受心理傷害。羅納德·阿金提出一項軍事主張:使用自主性殺人無人機。也許依靠無人機投擲炸彈,機組人員就可以避免心理問題,也不必對無人機造成的傷害和殺戮負責。

後果

完全自主性無人機,將從根本上改變軍事殺戮背後的複雜決策過程。在調查中,100名「死神」無人機機組成員認為,在進行致命性無人機襲擊時,最終扣動扳機的應該是人類。人類如果不參與其中,就意味著決策會喪失人性。但是,在無人監督的情況下,法律和道德責任並不一定會消失,相反,人工智慧專家等其他人員會承擔越來越大的責任。例如,美國自主性軍事無人機配置了谷歌Maven項目的圖像識別人工智慧軟體,無人機展開殺戮,谷歌就會受到牽連。

法律規定

根據現行國際人道主義法,在恰當的情況下可以攻擊那些為軍事應用和民用開發產品的"兩用"設施。例如,在1999年科索沃戰爭中,Pancevo煉油廠因向南斯拉夫的坦克和民用汽車提供燃料而遭到襲擊。

道德層面

自我學習演算法的核心在於,獨立地收集各種數據並從中獲得學習,最終增強應對各類任務的能力。如果致命性自主無人機可以通過自主學習提高工作能力,那麼有必要判斷學習和發展到何種程度才能滿足部署的要求。隨著軍事機器學習技術的飛速發展,政治、軍隊和工業領導人應當規定民眾死亡的合理數量。

四、啟示

如今,社會中湧現自主性人工智慧應用的案例,人們應當引以為戒。如果由機器決定殺傷對象,尤其是大規模的目標,那麼隨之而來的將是滅絕。任何投放這種力量的政府或軍隊都將違背人們的價值觀。相比之下,把生殺大權留給無人機飛行員,會成為殘酷戰場上最後的人道主義。

來源:《無人機視野》/圖片來自互聯網

軍事科學院軍事科學信息研究中心 高吉

如需轉載請註明出處:「國防科技要聞」(ID:CDSTIC)

覺得不錯,請點贊


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 國防科技要聞 的精彩文章:

為抗衡中國日益增強的超級計算能力 美國布局研發下一代百億億次級超級計算機
為爭奪人工智慧技術領域優勢 美國防部將制定人工智慧發展戰略

TAG:國防科技要聞 |