當前位置:
首頁 > 最新 > 霍金老爺子警告沒人聽,各國大力發展人工智慧會毀滅人類嗎?

霍金老爺子警告沒人聽,各國大力發展人工智慧會毀滅人類嗎?

斯蒂芬·霍金老爺子逝世的消息成為最近的大新聞。作為一個大半生都依靠人工智慧(高智能輪椅)生活的思想家,霍金老爺子卻在逝世前提醒人類——「小心人工智慧」!

或許是一直與人工智慧相伴,霍金老爺子才會說出肺腑之言,提醒人類。但是,各國卻沒有人聽這個老者的話!為了在戰爭中取得優勢,大力發展無人機、無人地面車輛、戰鬥機器人等在內的含有人工智慧因素的致命性自主武器系統。

圖片:霍金反對人工智慧。

人類這是在給自己挖掘墳墓嗎?

霍金的這句警告其實是一封公開信的簽名。2015年7月一封要求停止研製具有殺人功能自主武器系統的公開信得到了2萬人的簽名,簽名者主要是人工智慧領域的專家以及其他對此話題頗為關切的人,其中就包括著名物理學家斯蒂芬·霍金以及蘋果公司聯合創始人史蒂夫·沃茲尼亞克。

圖片:霍金在進行討論。

所謂的致命性自主武器系統(LAWS),是指能夠自主運作的軍用機器人,也被稱為自主性武器系統、自主性致命機器人(LAR)、戰鬥機器人或殺手機器人等。目前各國發展的無人飛行器、無人地面車輛、無人水面艇等能夠自主運作的武器系統在某種程度上都屬於LAWS的範疇。

而還有一些國家和研究機構在研製類似於科幻小說中「殺人蜂」那種微小型無人機,可以殺人於無形。這種武器一旦脫離人類控制,將對人類造成巨大的威脅。

圖片:殺人蜂飛行機器人。

這或許要說一個問題——機器人倫理學!機器人能不能傷害人類。1942年,著名的美籍俄羅斯裔科幻作家艾薩克·阿西莫夫首次提出了機器人三定律。

第一定律:機器人不得傷害人類,或坐視人類受到傷害;

第二定律:除非違背第一法則,否則機器人必須服從人類的命令;

第三定律:在不違背第一及第二法則下,機器人必須保護自己。

此後,阿西莫夫又添加了一條定律:第零定律:機器人不得傷害人類族群,或因不作為使人類族群受到傷害。

圖片:1936年蘇聯科學家研製的第一種機器人B2M,他的名稱就叫「智能機器人」。

但是,現在的機器人發展已經完全捨棄了阿西莫夫制定的三大定律。除了產業機器人外,很大一部分機器人本身就是戰鬥機械,人類將其設計出來就是為了殺人!

而在戰鬥機器人的設計領域,美國和俄羅斯走在了前列。美國的無人機,俄羅斯的無人戰鬥車輛,都是廣義上的殺人機器人,只是沒有人的模樣而已。日本在機器人產業方面也有獨到之處。或許是日本人本性使然,特別熱衷於研製人的外貌的機器人,還是美女機器人。這已經突破了機器人倫理學的範疇,未來可能直接威脅人類生存。

現在,戰鬥機器人已經廣泛應用到實戰中,在減少我軍傷亡的情況下,殺傷了大量敵人。從這個意義上來說,戰鬥機器人是有很大作戰價值的,但由於無法錄入機器人三大定律,當這些機器人核心被侵入,或者是像「阿爾法狗」一樣具有學習能力,自己開創智慧,那麼不知道是人類之福還是人類的災害!

霍金已經不能再給我們答案了!未來的道路需要人類自己去抉擇!人類和人工智慧的未來會是怎麼樣的呢?


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 齊魯壹點 的精彩文章:

一朝穿越回春秋,「東南」重走孔子周遊路
新泰發布十項新政吸引人才 最高給300萬資金支持

TAG:齊魯壹點 |