美軍、科技巨頭聯手AI軍事化
記者|趙福帥 編輯|王畢強
在AI軍事化的道路上,各大國都註定處在博弈困境中,由於每個國家都擔心他國開發AI武器,戰略層面註定的不信任和不安全感,促使各大國都瘋狂地競爭性開發AI武器。
近日,谷歌終於宣布,與美國國防部的Maven項目合同在明年到期後不再續約。
谷歌CEO桑達爾·皮查伊為此發表了題為《AI at Google:ourprinciples》(谷歌AI的原則)的文章,闡述谷歌在研發和使用AI(人工智慧)時將遵循的7大指導原則,並明確列出谷歌「不會追求的AI應用」類別,包括:可能造成危害的技術、武器或其他以人身傷害為主要目的的技術、違反國際公約收集或使用信息的技術,以及違反人權和國際法的技術等。
去年9月,谷歌獲得了五角大樓的Maven項目合同,並選擇對外秘而不宣。
直到今年初,有員工在谷歌內部交流平台將此事曝光。一時各界嘩然,「醜聞」隨即迅猛發酵。大批員工認為,谷歌參與五角大樓Maven項目,違背了谷歌成立之初立下的「不作惡」原則和理想。
谷歌高層試圖挽留該項目。結果,四千餘名谷歌員工簽署請願書,要求公司取消該項目合同,數十名員工辭職以示抗議。同時,全球學術界有三百多名人工智慧專家也聯名上書谷歌高管。
迫於壓力,谷歌最終放棄了Maven項目。
不過,業界解讀,各國軍方、科技巨頭、高校院所等不會停止將人工智慧應用于軍事的腳步,從機械化戰爭到信息化戰爭,再到智能化戰爭,AI軍事化註定勢不可擋。
2017年4月26日,美國加利福尼亞,海軍研究辦公室的項目官員向海軍陸戰隊成員介紹了基於「低成本無人機蜂群技術」的無人機,也就是被媒體認為是代號「郊狼」的無人機。
秘密參與
2017年4月,美國五角大樓提出了Maven項目。美國軍方在全球各地投放了大量無人機,這些無人機每日每時都傳回海量的視頻資料,軍方分析師早已不堪重負。Maven的首要任務就是,利用人工智慧技術,來識別無人機鏡頭中的車輛和其他物體,從而減輕分析人員的負擔。
去年8月,美國國防部長馬蒂斯到訪矽谷,與谷歌高層會面。9月,谷歌拿到有史以來第一份與五角大樓的AI合同。
當時,谷歌高管李飛飛一度建議避開這份合約。李飛飛是全球人工智慧領域最耀眼的科學家之一,同時擔任斯坦福大學人工智慧實驗室主任和谷歌雲人工智慧首席科學家。
後來她在給《紐約時報》的一封電子郵件中回憶道,「武器化人工智慧可能是人工智慧最敏感的話題之一」。如果谷歌與軍方合作,對媒體來說是「red meat」(報道標靶)。李飛飛說,「我相信以人為中心的AI能以積極、善意的方式造福人類。任何AI武器化的項目,都是違背我的原則的。」
不過,在與IBM、亞馬遜和微軟等激烈爭奪數月後,谷歌在去年9月底還是獲得了Maven項目的合同。
谷歌高層曾非常支持Maven項目,因為這可以讓谷歌雲贏得更多更大的五角大樓合同。據報道,谷歌正在競標五角大樓價值上百億美元的雲計算——JEDI項目(聯合企業國防基建項目)。IBM和微軟等也將參與競標。
但他們也對外界如何評判谷歌參與軍事項目十分擔憂。於是,谷歌與國防部的合同條款之一是,未經該公司許可,谷歌的參與不得被提及。
直到今年初,有員工在谷歌內部交流平台曝光此事,隨後引爆了谷歌員工們的激烈反對。
矽谷所在的舊金山灣區有較強的自由派傾向,歷來「不作惡」的谷歌又居旗手地位,這份協議在公司內部員工間非常不受歡迎。
按照美國軍方的說法:Maven項目在軍事打擊過程中,不僅可以提升打擊精準度,還可以避免誤傷友軍。面對質疑,美國軍方強調,只會將人工智慧作為人類收集情報的合作夥伴。
谷歌員工們顯然無法接受軍方的解釋,因為谷歌參與軍事項目本已違背原則,而且人工智慧技術還不完善,一旦出錯或失控,可能造成災難性後果。
《殺人機器人》短片就描述了迷你無人機群刺殺政治活動家和律師的故事,只有巴掌大的無人機,可以在無人指導的情況下,通過實時數據分析和人工智慧,定位並射殺人類。
更讓人驚悚的是,影片中描寫的科技都是現實可行的技術,如人臉識別、自動定位、無人機等。
谷歌參與的Maven項目,就會運用到這些技術。
「不作惡」原則還能守多久?
面對大批員工的反對,谷歌高層一度虛與委蛇,不願放棄Maven項目。
今年4月,四千餘名谷歌員工聯名上書,要求CEO皮查伊立即取消參與Maven項目,並發布聲明承諾谷歌不會開發用於戰爭的技術。
這份請願書援引了谷歌避免涉足軍事領域的歷史,及其著名的「不作惡」口號。
「谷歌參與Maven項目將不可挽回地毀滅谷歌的品牌和它吸納人才的能力。在越來越多的對於人工智慧可能會武器化的恐懼中,谷歌在獲取公眾信任方面已經顯得力不從心。這一協議將會使谷歌的聲譽面臨威脅,並將會使谷歌站在其核心價值觀的對立面。」谷歌的員工在信中寫到。
不過,這封信還是沒能立即奏效。
谷歌雲CEO黛安·格林曾向員工解釋,Maven項目不是為了攻擊目的,該合同「僅900萬美元」,主要是為國防部提供了開源軟體TensorFlow。
但科技媒體Gizmodo獲得的內部電子郵件顯示,最初的合同價值至少1500萬美元,預計該項目的預算將增長到高達2.5億美元。谷歌也並不只是提供開源的TensorFlow軟體,而是打算建立一個類似「谷歌地球」的監測系統,讓五角大樓的分析師能「點擊建築,查看與之相關的一切」,並為「整個城市」建立車輛、人員、土地特性等的圖像。
到去年12月,谷歌就已經構建了一個系統,並且取得不錯的成果,模型對專業標籤錯過的車輛檢測的準確率能達到90%。
歷史上,谷歌推崇一種鼓勵員工挑戰和討論產品決策的開放文化。
但是一些員工認為,谷歌高層不再關心他們的擔憂。「在過去幾個月里,我對這種回應,以及對人們所關心問題的處理和傾聽方式越來越失望。」一位辭職的員工說。
除了數十名員工辭職,學界也加入對谷歌的質疑中。5月,國際機器人武器控制委員會(ICRAC)向谷歌母公司Alphabet的CEO拉里·佩奇,谷歌CEO桑達爾·皮查伊,谷歌雲CEO黛安·格林,谷歌雲首席科學家、副總裁李飛飛發出一封公開信。
他們要求谷歌及其母公司Alphabet:終止與國防部的Maven項目合同;承諾不開發軍事技術,也不允許其收集的個人數據用于軍事行動;承諾不參與或支持發展、製造、貿易或使用自主武器;並支持禁止自主武器。
「根據谷歌、微軟和亞馬遜等的類似合同,這樣的做法標誌著擁有大量全球敏感私人數據的科技公司與一個國家軍隊的危險聯盟。」信中稱,「我們距離授權自動無人機自動殺人,而不需要人工控制,只需要一小步。科技公司的行為需要考慮誰可能受益於技術,而誰又可能受到傷害。」
卡達的烏代德空軍基地是美國在中東地區規模最大的航空基地,美軍使用烏代德基地向伊拉克、敘利亞和阿富汗境內的極端和恐怖組織據點發動空襲。圖為烏代德空軍基地的「聯合空中作戰中心」,這裡需要處理來自中東熱點地區的衛星、無人機、雷達和戰機的海量數據情報。
谷歌及其母公司Alphabet僱傭了許多世界頂級的人工智慧科學家,他們很多都來自學術界,因為認同谷歌的偉大理想和信條而加入其中。
比如,深度學習三巨頭之一的Geoff Hinton一直公開表示他不願為美國政府工作,1980年代後期,Hinton離開美國去加拿大的部分原因是他不願從國防部獲得資金。谷歌人工智慧統帥Jeff Dean也參與簽署了一封反對使用自主武器的聯名信。
位於倫敦的DeepMind(開發了著名的阿爾法狗,谷歌於2014年收購)高層也表示,他們完全反對軍事和監視項目,而且員工們已經表示了強烈抗議。DeepMind與谷歌的收購合同即表明,DeepMind的技術永遠不允許被用于軍事或監視用途。
谷歌高層明白,繼續堅持Maven項目,將面對無法承受的內外輿論壓力和AI人才的流失;如果放棄合同,谷歌也可能因此失去更多的五角大樓合同。
到6月,谷歌終於宣布,與美國軍方簽訂的Maven合同在2019年到期後,將不再尋求續約。
隨後,谷歌CEO皮查伊發布署名文章《谷歌AI的原則》。文中,皮查伊概述了谷歌應用AI的7個核心原則,並列出不會追求的AI應用。
皮查伊還表示,谷歌雖然不會開發用於武器的AI,但將繼續在其他許多領域與政府和軍方合作,包括:網路安全、培訓、軍人招募、退伍軍人醫療、搜索和救援。
對於谷歌的退縮,美國國防部似乎無所謂。他們認為其他承包商仍然會競相參與。美國國防部高級研究計劃局(DARPA,美軍最重要的高科技研發組織者)副局長Peter Highnam表示,DARPA的AI等技術項目「有數百家積極出價的院校和公司」。
AI軍事變革
「誰能掌控AI,誰就能掌控世界……」去年9月,俄羅斯總統普京在對一群小學生就人工智慧發表講話時宣稱。
美國五角大樓則將機器人武器視為自二戰以來的第三次技術浪潮。第一次技術浪潮是1950年代戰地核武器的發展,其目的是阻擋蘇聯對西歐的潛在入侵;第二次是始於1970年代的精確打擊武器的發展,並應用於1991年的海灣戰爭中。目前,AI在軍事領域的應用似乎正推動信息化戰爭向「演算法戰爭」轉變。
美國國防部副部長、前波音公司高管Patrick Shanahan(帕特里克·沙納汗)日前表示,五角大樓準備在近期建成一個「卓越中心」,將多個現有的與AI應用相關的軍事計劃整合在一起。
據《華爾街日報》報道,美國國防部在2017年人工智慧相關領域的花費為74億美元。
應美國情報高級研究計劃局(IARPA)要求,哈佛大學肯尼迪政治學院2017年7月發布《人工智慧與國家安全》報告。
報告指出,AI的每一種技術都為美國國家安全機構的戰略、組織、優先事項和資源分配帶來重大變革,其未來影響力至少可與核武器比肩。
該報告提出的三點建議就包括支持AI技術用於和平目的:DARPA、IARPA、海軍研究辦公室和國家科學基金會應增加與AI相關的基礎研究經費;國防部應發布關於AI軍民兩用能力的信息徵詢書;向美國In-Q-Tel公司(專門服務於中央情報局)提供更多資源,促進國家安全機構和AI商業公司的合作。
目前,美國軍方已經啟動眾多AI軍事項目,各類無人車、無人機、無人船等層出不窮,這些項目多涉及大學院所、軍工企業以及科技公司。
2016年6月,美國辛辛那提大學通過一場模擬空戰,測試了該校開發的名為「ALPHA」的飛行程序。模擬空戰中,「ALPHA」駕駛F-15戰機凌厲地碾壓了駕駛F-22戰機的基恩·李上校。李上校表示:「這是我見過的最具侵略性、敏捷性、變化性和可靠性的AI」。
X-47B是美國海軍空中無人戰鬥平台的驗證機,2011年首飛成功,2013年實現航母起降,2015年實現自主空中加油,成為人類歷史上第一架由電腦獨立操縱,具備監視、情報收集和戰場打擊多功能的無人飛行器。
2013年5月14日,X-47B於「喬治·布希」號航空母艦(CVN-77)成功進行起飛測試,並於一小時後降落馬里蘭州帕杜克森河海軍航空站。
在中小型無人機方面,2016年7月,美國海軍利用雷神公司的「郊狼」無人機開展了海上無人機蜂群編隊試驗,驗證了蜂群作戰、巡飛、陸地回收等關鍵技術。
美國某研究團隊進行數百次模擬的結果表明,8架無人機進行集群攻擊時,有大約3架能夠避開世界最先進的「宙斯盾」防禦系統的攔截。可見,智能無人飛行器一旦具備了集群作戰能力,將可能徹底改變戰爭中的攻防平衡。
唐吉訶德式的戰鬥
「有些國家會從國家層面為佔領人工智慧領域的制高點而展開競爭,這可能引發第三次世界大戰。」矽谷創業家埃隆·馬斯克在推特上充滿憂慮地說。
去年8月,馬斯克與來自26個國家的116名機器人和人工智慧公司的創始人簽署了一份公開信,在墨爾本召開的國際人工智慧聯合會議(IJCAI)上公布,他們呼呼禁止機器人武器,希望聯合國將其納入特定常規武器公約(CCW)的禁用名單。
圍繞機器人武器,聯合國正式專家會議已經於去年11月開始討論進行管制的可能性。
1981年簽署的聯合國《特定常規武器公約》,對禁用武器做了兩種特徵規定:一是過度不人道,如激光致盲武器;二是具有濫殺濫傷作用,如戰時大量布置地雷。
人工智慧武器的危險在於濫殺濫傷的可能,操作不當或被惡意攻擊,甚至會引發人道危機。
比如,2015年曾曝出特斯拉電動車被黑客操控,在高速路上狂奔。同年舉行的著名的黑客集會「黑帽子大會」上,就有現場展示通過無線控制器,黑進了智能狙擊步槍。麻省理工學院的一項研究顯示,AI識別系統可以被輕易欺騙,如系統會將塑料海龜識別成步槍。這些都表明目前的AI技術還有很多漏洞。
試想假如三兩個極端分子,就可以遙控數十台自動射擊的槍械機器人、上百台無人駕駛車輛,並且能把任何角落作為基地,最終可能釀成完全失控的災難性大規模殺傷。
反對AI軍事化的業內專家們,所能做的似乎只有不斷聯合署名。比如,近日約60位各國AI專家聯合向韓國科學技術學院去信抗議,該大學如果不承諾停止研發,將與之斷絕關係。聲明中稱,機器人武器「可能使戰爭惡化並為恐怖分子所利用,一旦開發出來將無法挽回」。最終,該學院院長發表聲明,做出了承諾。
或許,部分谷歌員工和AI專家們對人工智慧武器的反對,更像是唐吉訶德式的戰鬥。正如馬斯克等人聯名簽署的公開信所言:「如果有任何一個主要軍事力量推動人工智慧武器發展,全球軍備競賽將無法避免。」
在AI軍事化的道路上,各大國都註定處在博弈困境中,由於每個國家都擔心他國開發AI武器,戰略層面註定的不信任和不安全感,促使各大國都瘋狂地競爭性開發AI武器。
AI軍事化勢不可擋。全球科技界註定要繼續在「不作惡」與商業利益間做出選擇。
*本文刊登於《鳳凰周刊》第658期,完整版請購買雜誌閱讀。


TAG:鳳凰周刊智庫 |