當前位置:
首頁 > 科技 > 讓人工智慧變身戰士 這樣的 AI 殺手太可怕

讓人工智慧變身戰士 這樣的 AI 殺手太可怕

本文由騰訊數碼獨家發布

隨著人工智慧的越來越強大,關於 AI 引發的倫理和安全問題也逐漸引起了全球各界人士的主意,其中一個非常重要的議題就關於「殺手機器人」,許多人都擔心當機器人和 AI 技術被應用於戰爭,會引發無可挽回的災難性後果,在國際上,不少國家也在積極促進形成國際法,禁止那些不禁人工干預的自動化軍事武器系統,不過那些人工智慧武器的研發大國,卻以捍衛自身利益為由,對此不以為然。

最近在日內瓦舉行的 70 多個國家聯合國會議上,關於該問題的鴻溝在國際上越發擴大,在會議上,包括美國、澳大利亞和韓國這類的技術大國,強力發聲稱支持人工智慧武器的研發,尤其是美國,他們在會中發言辯論道,這種武器可以使軍事行動更加精確,從而更容易遵守國際人道主義法。

且不說這類「殺手機器人」讓世界軍事單位更加遵循人道主義法律這種推測是否合理,從現實角度考慮,無論政客們如何對此進行爭論,AI 自動化軍事機器人現在已經在軍事技術中大範圍擴散,如果真正將其帶進軍事化戰場,其殺傷力和破壞性程度是不言而喻的,對此,世界著名 AI 研究人員和科學家們也已經通過一系列公開信來公開反對將人工智慧武器化,推動關於此類自動化軍事系統的辯論來引起公眾注意。

看上去這些關於自動化軍事武器的辯論內容是基於未來考慮的,但事實上,這些是現在就已經在世界各地存在而亟待解決的嚴峻現實問題,比如,許多先進國家的防空系統都已經在瞄準過程中擁有了非常高強度的自主權,軍用飛機也是同樣具有高度自動化特徵,也就是說這類「機器人武器」已經參與了軍事目標定位和自動打擊的能力。

而且,目前人們討論的關於這些軍事化機器人的問題還存在很大一部分缺失,比如有些國家軍方使用遠程遙控無人機向目標投擲炸彈,但是有時候無人機的圖像不足以清楚地區分平民和作戰人員,因此會造成相當大程度的誤傷,影響軍事決策,產生不可挽回的破壞性後果,未來的軍事飛行器,戰鬥機很可能也會和這類無人機一樣存在這類問題。

從更加深遠的層次來說,當這些軍事化機器越來越更多的依賴於自己的演算法來處理情報數據,操作人員就與之越來越難以摸清機器人的軍事打擊決策依據,更難以實現對機器人的操控,如果這些「殺手機器人」失去了操作者的控制,那麼其後果是難以想像的,在聯合國的辯論議題中,這些安全問題一再被反覆拋出,而大多數贊成禁止自動化武器的國家是發展中國家,它們通常不太可能參加國際裁軍談判,而那些真正具備此類研發武器研發資格的軍事強國,似乎卻並不將這些問題放在心上。

發展中國家更加願意支持禁止對這類 AI 武器的研發,他們不僅沒有能力研發這種軍事武器,而且在歷史上也曾經遭受過此類的高科技軍事化打擊,因此非常清楚科技作用於戰爭的可怕之處,至於某些強國為維護自己的軍事力量所辯解的,「殺手機器人」可以幫助軍事單位遵守國際人道主義法」這類說辭實際上並不可信,這類破壞力極大的 AI 自動化武器必須要通過談判和完善的國際法制約才能保障其不至於受到濫用。

來源:thenextweb


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技酷玩探索家 的精彩文章:

亞馬遜 Echo VS HomePod 和谷歌 Home 智能揚聲器還得這麼選
三秒啟動速度提升60邁 馬斯克暗示我們特斯拉 Model 3 性能這樣優化

TAG:科技酷玩探索家 |