馬斯克與DeepMind創始人簽協議,數千名學者承諾不研製致命AI武器
近日,SpaceX 和特斯拉首席執行官Elon Musk,Google DeepMind 三位聯合創始人與約 2400 名研究人員,簽署了不發展「致命自主武器」的承諾,宣稱他們不會參與開發或製造能夠自動識別和攻擊人的機器人。
這一行動是有關科學家和組織的最新舉措,旨在強調將人的生死決定權移交給 AI 機器的危險,阻止軍事公司和國家建立致命的自主武器系統。這份公約的簽署響應了之前的一次科學家對於禁止開發 AI 武器的呼籲,彼時軍方正打算加速開發新一代的大規模殺傷性武器。
該承諾由總部位於波士頓的組織「未來生命研究所」發起,呼籲各國政府和政府領導人建立一個強大的國際規範和法律法規,以有效地反對和禁止致命自主武器的發展。
在各國尚未出台相關政策和措施的情況下,今天在斯德哥爾摩舉行的國際人工智慧聯合會上,簽署方宣布並承諾「既不參與也不支持致命自主武器的開發、製造、貿易和使用。」150 多家與 AI 相關的公司和組織在這份承諾書上籤署了他們的名字。
圖丨Yoshua Bengio
蒙特利爾學習演算法研究所的人工智慧先驅 Yoshua Bengio 表示,如果這份承諾能夠讓那些製造自主武器的公司和軍事組織蒙羞,公眾輿論也會跟著一起反對他們。「就像儘管美國這樣的大國沒有簽署禁止地雷的條約,但由於國際條約和公眾壓力,也起了類似禁止的效果,美國的相關公司已經停止建造地雷,」Bengio 說。Bengio 也在這份承諾書上籤了字,表達他對「致命自主武器的強烈關注」。
軍方是人工智慧技術的最大資助者和利用者之一。藉助先進的計算機系統,機器人可以在敵對地形上執行任務,在地面上航行,也可以在海上巡邏。更複雜的武器系統正在研發中。本周一,英國國防大臣 Gavin Williamson 宣布準備投資 20 億英鎊,用於英國皇家空軍第 6 代戰鬥機——「暴風」戰鬥機的研發。該戰鬥機可以在沒有飛行員的情況下自動駕駛。
英國政府表示,英國不會開發致命自主武器系統,而且軍方將始終對其部署的武器進行監督和控制。但是活動人士警告說,AI 和其他領域的快速發展意味著現在有能力製造出能在未經人類控制者同意的情況下識別、跟蹤和射擊人類目標的尖端武器。對於許多研究人員而言,讓機器決定人的生死會跨越道德路線。
「我們需要使禁止自主武器成為國際規範。整個人類都必須加入到這一運動中來,」悉尼新南威爾士大學的人工智慧教授 Toby Walsh 說。
「我們不能阻止一個下定決心的人建造自主武器,就像我們無法阻止一個下定決心的人製造化學武器一樣,」他補充說,「但如果我們不希望流氓國家或恐怖分子輕易獲得自主武器,我們就必須確保武器公司不會出售武器給他們。」
研究人員可以選擇不參與研發 AI 自主武器工作,但其他人對整個業界的突破進展實際上已經超出了他們的控制範圍。另一位公約簽署人,也是蘭卡斯特大學人類科學與技術系教授 Lucy Suchman 表示,即使研究人員無法完全控制他們工作被如何利用,但他們也可以在有顧慮時進行參與和干預。
圖丨Lucy Suchman
「如果我是一名簽署了承諾的機器視覺研究員,我會首先承諾跟蹤我的技術的後續使用,並反對他們在武器上實現目標自動識別的應用;其次,我會拒絕參與建議或直接幫助將該技術融入自主武器系統,」她說。
以下為承諾書的全文如下:
人工智慧(AI)有望在軍事系統中發揮越來越大的作用。公民,政策制定者和領導者有必要區分人工智慧可接受和不可接受的用途。
從這個角度來看,我們簽名者同意,永遠不應該將人類生命的決定權委託給機器。這個立場涉及道德倫理,我們不應該讓機器決定人的生死,而其他人,或者沒有人,將受到懲罰。
還有一個強有力的實用論點:致命的自主武器,在沒有人為干預的情況下識別、選擇和攻擊目標,將危及每個國家和個人的穩定和安全。成千上萬的人工智慧研究人員一致認為,致命的自主武器降低了索取人類生命風險,消除了索取人類生命的因果和難度,可能成為暴力和壓迫的有力工具,尤其是在與監視和數據系統相關聯時。
此外,致命的自主武器具有與核武器,化學武器和生物武器截然不同的特點。國際社會缺乏管理的技術工具和全球治理體系,單一集團的單方面行動很容易引發軍備競賽,防止這種軍備競賽應成為國家和全球安全的首要事項。
我們,簽名人,呼籲各國政府和政府領導人建立一個擁有強大的國際規範和法規,反對致命自主武器的發展。這些法規目前還有些欠缺,但我們要保持更高的標準:我們既不參與也不支持致命自主武器的開發、製造、貿易和使用。我們要求技術公司和組織以及領導者,政策制定者和其他個人加入我們的承諾。


※由酒類公司資助、耗資1億美元的爭議研究被美官方叫停
※機器人助推了特朗普登總統寶座,但美國的工業根基如何維繼?
TAG:DeepTech深科技 |