馬斯克、DeepMind高管等科技領袖簽署承諾:不開發致命自動化武器,人類生命絕不受機器威脅
【獵雲網(微信號:ilieyun)】7月18日報道(編譯:福爾摩望)
包括埃隆·馬斯克和谷歌AI子公司DeepMind三名聯合創始人在內的技術領袖,簽署承諾了不開發「致命自動化武器」。
這是反對傳播這種技術的非官方和全球性研究人員及管理人員聯盟的最新舉措。這一承諾警告稱,使用人工智慧的武器系統「在沒有人為干預的情況下攻擊目標」,構成了道義和實際威脅。簽署者認為,從道德上講,有關人類性命的決定「絕不應委託給機器」。在實際方面,他們說,這種武器的擴散將「對每個國家和個人造成危險的不穩定性」。
這項承諾於今天在斯德哥爾摩舉行的2018年國際人工智慧聯席會議(IJCAI)上公布,它是由未來生命研究所所組織的,該研究機構旨在「減少人類生存風險」。該研究所以前曾幫助同一批人發布聯名信,呼籲聯合國考慮對所謂致命自動化武器的新規定或者法律。不過,這是有關人士首次個別承諾不開發這種技術。
簽署方包括SpaceX和特斯拉首席執行官埃隆·馬斯克;谷歌子公司DeepMind的三名聯合創始人——Shane Legg、Mustafa Suleyman和Demis Hassabis;Skype創始人Jaan Tallinn;還有一些世界上最受尊敬和最傑出的人工智慧研究人員,包括Stuart Russell、Yoshua Bengio和Jürgen Schmidhuber。
麻省理工學院物理學教授Max Tegmark也是這項承諾的簽署人,他在一份聲明中表示,這項承諾顯示AI領袖開始「從談話轉向行動」。Tegmark說,這項承諾做了政客們沒有做的事情:嚴格限制軍用人工智慧的發展。「自主決定殺人的武器和生物武器一樣令人作嘔,破壞穩定,應該以同樣的方式處理,」Tegmark說。
迄今為止,爭取國際上對自動化武器管制的支持的努力沒有取得成效。活動人士建議,應該頒布新的法律對此進行限制,類似於化學武器和地雷。但請注意,目前我們很難區分什麼是自動化系統,什麼不是自動化系統。例如,炮塔可以瞄準個人而不是向他們開火,人類「在這一循環中」只是做了最終的決定而已。
他們還指出,執行這樣的法律將是一個巨大的挑戰,因為開發人工智慧武器的技術已經很普遍了。此外,參與這項技術開發最多的國家(如美國和中國)沒有真正的動力去停止開發。
曾撰寫了一本關於戰爭和人工智慧未來書的軍事分析家Paul Scharre表示,目前沒有足夠的「動力」來推動國際範圍的限制。「沒有一個西方民主國家的核心集團參與,而在過去禁止武器的呼籲中,加拿大和挪威等國起了重要的帶頭作用,」Scharre說。
不過,雖然國際法規可能不會很快出台,但最近的事件表明,像今天承諾這樣的集體行動可以產生一定影響。例如,谷歌在被披露公司正在幫助五角大樓開發非致命的AI無人機工具後,受到了員工的抗議。數周后,它發布了新的研究指南,承諾不開發人工智慧武器系統。威脅抵制韓國KAIST大學也有類似的結果,KAIST總裁承諾不開發軍事人工智慧等違背人類尊嚴的自動化武器。
不過,我們需要指出,在這兩個例子中,有關組織並沒有阻止自己與他人一起開發非致命用途的軍事人工智慧工具。但承諾不要讓計算機全權負責殺人,總比沒有承諾好。


※獲年度傑出區塊鏈項目稱號,BitUN聚焦數字資產管理,打造全球最佳區塊鏈私人銀行
※靈獸宣布完成近千萬元A輪融資 專註發力零售消費內容與服務
TAG:獵雲網 |