當前位置:
首頁 > 最新 > Killer機器人——ban or not?

Killer機器人——ban or not?

選文 張晨翻譯 胡琪 尤達 張一

審核 周藝 編輯 周藝 胡琪

素材來源:WIRED

泡泡機器人推廣內容組編譯作品

2017年5月在準備區的俄羅斯Platforma-M機器人系統

8月20日晚,包括Elon Musk在內的116位企業家,聯名致信聯合國,警告自主武器就是個「潘多拉盒子」。衛報和華盛頓郵報頭條報道——Musk和聯署人共同呼籲「殺人機器人禁令」。但事實上這些標題是誤導性的。儘管其中一個聯署人建議這樣做,但信中並沒有明確要求禁令。相反,他們為十二月組建的聯合國自主武器委員會提供技術諮詢。企業家們警告說,自主機器有可能成為恐怖武器,但沒有必要完全禁止。

禁止武器技術並非不可能。例如,截止2015年底,有192個締約國簽署了《禁止化學武器公約》。除此之外,還有禁止使用可能導致永久失明的激光武器的國際公約等。

當然,武器系統的自主化是一個非常廣泛的概念。受人類控制和自主開火之間界限其實是模糊的,而包括美國在內的許多國家也已經開始了跨越它的進程。此外,自主化技術在軍事上也得到了廣泛的應用,如無人機和無人車,武裝部隊希望得到更大的權力從而最終研發「殺人武器」。

美國國家情報總監辦公室最近的一份關於人工智慧和戰爭的報告得出結論,這項技術將極大地擴大軍事力量。該報告的合著者格雷格·艾倫(Greg Allen)是新一屆美國安全中心的無黨派智囊團的兼職研究員,他並不希望美國和其他國家禁止建造能夠自主決定何時開槍的武器庫。他指出:「不太可能完全禁止自主武器,人們很難克制使用它們的誘惑。」

美國國防部有一項政策,在部署致命武力的時候,要保持「human in the loop」。五角大樓發言人Roger Cabiness表示,美國拒絕批准對自主武器的禁令,並指出美國國防部的《戰爭手冊》規定,自主可以幫助軍隊履行其法律和道德義務。「例如,指揮官可以使用精確制導武器系統,以減少平民傷亡的風險。」2015年,英國政府回應了要求禁止自主武器的呼籲,稱沒有必要這樣做,而且現有的國際法已經足夠。

自主武器的例子就在身邊。根據CNAS的報告,一種美國海軍使用的AEGIS艦載導彈和飛機防禦系統,其能夠在沒有人為干預的情況下接近飛機或導彈。除此之外,以色列開發的名為Harpy的無人機,能夠在一個區域巡邏搜索雷達信號。 如果它探測到目標,它會自動地對其進行俯衝轟炸。製造商以色列航空航天工業公司將Harpy作為「火和野獸」的自主武器。

Musk在2015年與來自學術界和工業界的數以千計的AI專家簽署了一項呼籲禁止進攻自主武器的信件。它得到了未來生命研究所的支持和出版,該研究所是一個思考AI和其他技術的長期影響的組織,而Musk已經獲得了1000萬美元的資助。新南威爾斯大學的AI教授Tonyby Walsh周一晚些時候宣稱,根據「聯合國某些常規武器公約」列舉的自主武器將「有效地」成為禁令。公約的全稱將其作為禁止和限制使用武器的規定。耶魯法學院的研究員Rebecca Crootof說,關心自主武器系統的人們應該考慮採取更有建設性方案來替代全面禁止。她說:「制定法規的時間和精力會更好。」例如,限制人類士兵活動的「日內瓦公約」等國際法可適用於管理機器人士兵在戰場上可以做的事情。那些沒有宣布禁令的規定需要清除一個灰色地帶,即當軟體做出不好的決定時,例如殺死平民,誰將被追究法律責任。

小編嘮叨:AI是一個可以影響人類命運的技術,我們做技術的不僅應該關注技術本身,還應該關注技術背後所應用的環境和背景,讓技術更好的服務人類。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 泡泡機器人SLAM 的精彩文章:

TAG:泡泡機器人SLAM |