當前位置:
首頁 > 新聞 > 潛在威脅超核彈!假如人工智慧可以自主開槍,人類如何自保?

潛在威脅超核彈!假如人工智慧可以自主開槍,人類如何自保?

是時候約束人工智慧軍事化了!


斯蒂芬·霍金、馬斯克等人曾在國際人工智慧聯席會議上,支持通過禁止不受人類有意識控制的進攻性自主武器,來阻止人工智慧軍備競賽的提議。筆者認同他們的觀點,也認為在必要時應簽署一個公約來約束人工智慧軍事化。

潛在威脅超核彈!假如人工智慧可以自主開槍,人類如何自保?


霍金、馬斯克警告:全球機器人軍備競賽「不可避免」


人類今天要保衛自己,可利用的武器已經太多了,對於核武器的管控早已是大問題,我們並不需要在常規武器之外,還把人工智慧用於武器。


人工智慧最大的價值在於低成本、高效率、密集性,通過大數據、智能學習迅速提升其能力。人類對人工智慧的把握和控制力又是薄弱和未知的。今天已經有大量的無人機、智能機器人被用于軍事行動,而未來所謂「不需要人類干預就能選擇目標和交戰的武器」,對於人類社會產生的威脅變得不可預知。表面上,這些智能機器人或是無人機作戰,會減少士兵的傷亡,但是這些智能機器人和無人機的攻擊對象是誰?主要還是人類。

潛在威脅超核彈!假如人工智慧可以自主開槍,人類如何自保?



人工智慧武器最複雜的問題,在於它的廉價與不可控。不像核武器製造需要極高的技術,很難獲得的原料以及高昂成本。人工智慧武器便於大規模生產,並通過多種渠道流通。最近我們已經看到在敘利亞戰場出現了由民用無人飛機改造而成,攜帶了榴彈攻擊型的無人機,一架無人機和一支步槍的價格相近,可以大批量生產,很容易獲得。


人工智慧武器的不可控性還在於,即使由技術大國生產出不需要人類干預就能選擇目標和交戰的武器,但這類武器受人類控制的可能性是未知的,在大量人工智慧介入,擁有了強大的學習能力之後,它會怎麼選擇攻擊目標,我們一無所知,無人能保證它會被有效控制,不會人為複製。

潛在威脅超核彈!假如人工智慧可以自主開槍,人類如何自保?


因此,在人工智慧武器還沒成為下一個「原子彈」之時,大國首先需要擔起責任,在國際上形成一個類似於禁止化學和生物武器國際協定一樣的公約,禁止把人工智慧用于軍事,而不能單靠科學界的「良心」。如果有一天,大量小型、低成本、不可控的殺人機器泛濫成災,甚至出現人工智慧武器逃避人類監管的情況,再談管理和控制已經太晚了。


(本文刊載於《環球時報》今日15版,作者項立剛系信息消費聯盟理事長,原標題:有必要約束人工智慧軍事化)

您的贊是小編持續努力的最大動力,動動手指贊一下吧!


本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 環球網 的精彩文章:

邀達賴出席畢業典禮的美大學約談中國學生:不可能撤回邀請!
去年歐洲杯上揍了英國人後,俄羅斯人又給他們準備一個難忘的2018……
台灣真乃「神邏輯製造基地」:交通事故多是因陸客少……
美國在台灣的這個計劃,再次揭露了霸權主義嘴臉!
金正男命案,大馬警方再抓一名女嫌犯!

TAG:環球網 |

您可能感興趣

別開槍!自己人!戰場上如何識別敵友?
他們破門就開槍——這壓抑的世界,要如何保護自己?
搞笑逗逼的運動健身者們:隊長,別開槍,是我,自己人
向天開槍究竟會不會打死人?槍口為什麼垂直?真是用生命在實驗!
講真的!如果你是指揮官 你敢違背軍令擅自開槍走火嗎?
假如宋朝「警察」有槍,他可以隨便開槍嗎?
如果後面有人朝你開槍,你怎樣奔跑才能不被擊中?
隊長別開槍,自己人!
「只會向黑人開槍」或是美國警察不言自明的潛規則
若是後面有人朝你開槍,你怎樣奔跑才能不被擊中?
妻子突然「失蹤」 「絕望」丈夫開槍自殺
男子突發奇想水下朝自己開槍,實驗結果令人震驚!
如果戰爭中飛行員跳傘,敵方會不會開槍呢?你們都想錯了!
這個戰術很奇詭:敵人中「連環套」後沒辦法,只好對自己人開槍!
用手對主子開槍,他超爆笑的舉動,完全讓所有人笑炸
管好你的無人機,否則有人就要開槍了
看美國警察如何對待「犯罪嫌疑人」,一言不合就開槍
「不要開槍!」灰鸚鵡重複飼主遺言,家人盼作證詞!
水裡開槍能不能打中人?槍迷用生命告訴你,電影里都是假的