人工智慧:不要開發致命性自主式武器
人工智慧(AI)可以幫助我們預測自然災害、甄別犯罪行為和尋找拐賣人口、診斷致命疾病來拯救生命。不幸的是,它也有可能變成殺人的武器。
致命性自主武器——人工智慧自行決定是否殺死鎖定對象的武器——的研發已經在進行中了。
7月中的一個周三,未來生命研究所(FLI)——一家專註於利用科技改善人類的組織——發布了一項聲明,即譴責致命的自主武器的發展,並呼籲各國政府禁止這樣的研究。
「人工智慧擁有使世界更加美好的巨大的潛力——如果我們人類有起碼的廉恥心,拒絕濫用它們的話。」FLI總裁Max Tegmark在新聞稿中說。
「能夠自主決定殺人的人工智慧武器與生物武器一樣令人厭惡和不安全,應該對它們一視同仁。」
一百七十個組織和2464人簽署了倡議書,承諾「既不參與也不支持致命自主武器的開發、製造、貿易或應用」。
該承諾的簽署者包括OpenAI創始人Elon Musk,Skype創始人Jaan Tallinn和AI領域的領導者Stuart Russell。
Google DeepMind的三位聯合創始人(Demis Hassabis,Shane Legg和Mustafa Suleyman)也簽署了這一承諾。 DeepMind是谷歌最重要的人工智慧研究團隊,該公司最近因與美國國防部合作而陷入到輿論的風口浪尖,公司內部對其未來的發展方向產生了巨大的分歧。
今年6月,谷歌發誓不會續簽國防部的合同,後來又發布了人工智慧開發的全新指導方向,其中包括禁止自主式武器。
簽署FLI承諾書可以進一步確立該公司自身對致命自主武器的公開立場。
目前尚不清楚該承諾是否會引發其他具體的實際行動。
聯合國二十六名成員國已經同意在全球範圍內禁止使用致命的自主武器,但包括俄羅斯,英國和美國在內的一些世界領導人尚未表態。
這已不是AI專家們第一次聚集在一起發出反對開發自主武器的倡議。然而,這次的承諾書確實引來了更多的簽名者,其中包括幾位在業內鼎鼎大名的人物。
不幸的是,即使世界上所有國家都同意禁止研發致命的自主武器,它也無法阻止個人和某些政府繼續秘密研製AI武器。
我們即將推開新時代的大門,AI將成為人類事務和生活中的重要組成部分,看起來我們別無選擇,只能希望聰明的好人總能戰勝壞人。
本文譯自 sciencealert,由譯者 majer 基於創作共用協議(BY-NC)發布。
![](https://pic.pimg.tw/zzuyanan/1488615166-1259157397.png)
![](https://pic.pimg.tw/zzuyanan/1482887990-2595557020.jpg)
※Reddit:你從未透露過的心底最陰暗的秘密
※臭氧空洞之謎
TAG:煎蛋 |