當前位置:
首頁 > 新聞 > 堅持不作惡,谷歌數十名員工集體辭職抗議AI軍事合作

堅持不作惡,谷歌數十名員工集體辭職抗議AI軍事合作

堅持不作惡,谷歌數十名員工集體辭職抗議AI軍事合作

矽谷Live / 實地探訪 / 熱點探秘/ 深度探討

堅持不作惡,谷歌數十名員工集體辭職抗議AI軍事合作

文章來源:AI前線

策劃編輯 | Natalie

撰文 | Vincent

差不多一個月之前,谷歌宣布與五角大樓合作,進行人工智慧軍事項目的研究,該項目將利用人工智慧解讀視頻圖像。

據報道稱:谷歌的 AI 技術有可能被用於提高無人機打擊的準確度。此事直接導致近 4000 名谷歌員工聯名抗議,強烈反對將 AI 技術用于軍事研究。

遺憾的是,谷歌員工的抗議似乎並沒有起到什麼效果,一個月之後,谷歌高層仍然不放棄與五角大樓的合作,Maven 項目仍在繼續。於是,十幾名谷歌員工集體宣布辭職,以此來反抗谷歌的作為。

前美國國防部官員保羅·斯查瑞表示,由於谷歌的企業文化歷史和軍隊對於人工智慧技術日益增長的需求之間的矛盾,谷歌公司內部的分歧是不可避免的。

以「不作惡」為信條的谷歌變了嗎?

從歷史上看,谷歌推廣了一種鼓勵員工挑戰和討論產品決策的開放文化。但是一些員工認為他們的領導不再關心他們的擔憂,而讓他們直接面對後果。「在過去的幾個月里,我對這種回應,以及對人們所關心問題的處理和傾聽方式越來越失望。」一位辭職的員工說。

堅持不作惡,谷歌數十名員工集體辭職抗議AI軍事合作

三年前,也就是 2015 年,谷歌曾經也爆發過一次大規模的員工集體抗議事件,那時候,員工強烈反對在其博客平台中傳播色情內容。當時的員工同樣是以「不作惡」這句座右銘來向谷歌施壓,那一次他們成功了。

或許在色情內容面前,谷歌實在是找不到什麼站得住腳的解釋來支撐自己做下去。一直以來谷歌都被認為是一家廣告公司,但即便如此,有些廣告也是做不得的——雖然利益可能真的很高。

三年後,「不作惡」的谷歌給自己找到了合適的理由,他們與五角大樓合作的名為 Maven 的項目,利用人工智慧解讀視頻圖像,按照美國軍方的說法:這樣做的目的是在進行軍事打擊的過程中避免誤傷友軍,不僅可以提升打擊精準度,還可以減少自家軍隊的傷亡。

雖然不知道谷歌堅持與五角大樓合作的背後,到底谷歌自願的,還是因為某些「不可抗力」,但是,對於谷歌的員工們而言,他們無法接受軍方的解釋。在相當一部分員工眼裡,這次的谷歌就是在「作惡」,違背了原則,身為谷歌的一員,他們認為必須站出來,捍衛這家公司一直以來的信條。

一位辭職抗議的員工這樣說:「這完全不應該是谷歌的作為,反倒是像一個滿世界尋找合作的機器學習初創公司乾的事。看來谷歌的原則與聲譽都已經不重要了。」

軍方將如何使用 AI 技術?

說到軍用 AI 技術,想必很多人腦海里的第一個產品就是無人機了。

這部名為《殺人機器人》的短片,是由 Autonomousweapons.org 和加利福尼亞大學計算機科學教授 Stuart Russell 合作製作的,目的是為了警醒世人,未來隨處可見的殺人機器人,可能將置人類於危險的境地,因為自動化武器可以在無人指導的情況下,定位並射殺人類。

堅持不作惡,谷歌數十名員工集體辭職抗議AI軍事合作

影片描述了迷你無人機群刺殺政治活動家和美國律師的故事,只有巴掌大的無人機 通過實時數據挖掘和人工智慧,血腥獵殺目標。除了短片本身的驚悚以外,更讓人不寒而慄的是,影片中描寫的科技都是現存可行的技術,如面部識別、自動定位、無人機等

很湊巧的是,谷歌參與的 Maven 項目中,就會運用到這些技術。此外,谷歌還將提供用於機器學習應用的 TensorFlow API,以幫助軍事分析人員檢測圖像中的物體。

除了無人機,各國在機器人領域的研究也讓人倍感擔憂,一旦戰爭機器人量產,發動戰爭將更加輕而易舉,同時帶來的破壞也將是呈指數增長的。

沒錯,對於這些研究,我們不能光看到不好的那一面,也要想想他們帶來的益處,比如增加國防實力、減少人類士兵傷亡等等,但是,當這些技術手段落入恐怖分子的手中,還會有人這麼想嗎?戰爭已經足夠殘忍了,為何還要用科技讓它變得更加恐怖。

給佩奇、Pichai、Diane Greene 和李飛飛的公開信

就在上周,國際機器人武器控制委員會(ICRAC)發布了一封公開信,短短數小時內,已有超過 300 名人工智慧、倫理學和計算機科學領域的學者聯名,公開呼籲谷歌結束其對 Maven 項目的支持,轉而支持禁止自主武器系統的國際條約。

這封信的兩位作者彼得·阿薩羅(Peter Asaro)和露西·蘇希曼(Lucy Suchman)曾在聯合國就自動武器問題作證,第三位作者 Lilly Irani 是一位科學教授、前谷歌員工。

堅持不作惡,谷歌數十名員工集體辭職抗議AI軍事合作

蘇希曼表示,谷歌對 Maven 項目的貢獻完全可能加速全自動武器的開發。雖然谷歌總部位於美國,但它有義務保護全球用戶群,而不是與任何一個國家的軍隊結盟。谷歌的高管們正在為參與 Maven 項目辯護,包括 Google Cloud 業務主管黛安·格林 (Diane Greene),她曾多次力挺這個項目。

在這封支持谷歌員工的公開信中,他們是這樣說的:


儘管 Maven 項目的報告目前強調了人類分析師的作用,但這些技術有望成為自動目標識別和自主武器系統的基礎。隨著軍事指揮官們將目標識別演算法視為可靠,它將會吸引人們對這些系統進行減弱甚至消除人為審查和監督。據國防部稱,國防部已經計劃在無人機上安裝圖像分析技術,包括武裝無人機。然後,我們距離授權自動無人機自動殺人,而不需要人工監控或有意義的人員控制,只需要一小步。科技公司的道德行為需要考慮誰可能受益於技術而誰又可能受到傷害

我們也非常擔心 Google 可能將人們日常生活的數據與軍事監控數據整合在一起,並將其與有針對性的殺戮結合起來應用。谷歌已經進入軍事工作,無需在國內或國際上進行公開辯論或審議。雖然谷歌在沒有民主公眾參與的情況下經常決定技術的未來,但其加入軍事技術會將信息基礎設施的私人控制問題變得突出。

如果谷歌決定將全球互聯網用戶的個人數據用于軍事目的,那麼它將侵犯公眾的信任,因為它將用戶的生命和人權置於危險之中,這對其業務至關重要。

像谷歌這樣的跨國公司,其責任必須與他們的用戶的跨國化相匹配。根據谷歌所考慮的國防部合同,以及已經在微軟和亞馬遜上籤訂的類似合同,都標誌著私人科技行業之間的危險聯盟,這個聯盟目前擁有大量來自全球各地的敏感的個人數據,以及一個國家的軍隊。它們還表明,未能與全球公民社會和外交機構進行接觸,這些機構已經強調了這些技術的道德風險。

我們正處於關鍵時刻。劍橋分析公司 (Cambridge Analytica) 的醜聞表明,公眾越來越擔心科技行業將擁有如此大的權力。這使得信息技術基礎設施的風險越來越高,以及當前國家和國際治理框架的不足以維護公眾的信任。這種情況比從事裁決生命和死亡的系統更為真實。

就像歐盟一直沒有同意 Facebook 等公司在歐洲建立數據中心,沒有人願意自己國家公民的個人數據掌握在其他國家手中,更不要說被其他國家用來進行軍事研究。科技公司掌握了全球用戶的個人信息,其目的在於為用戶們提供定製化服務。當這些信息被軍方所擁有,難道目的也是給全球的用戶們進行「定製化制裁」嗎?

還有一些 AI 專家主要關注的是現有技術仍然不可靠,並且可能被黑客控制而作出非預期的戰場決策。紐約大學 AI 研究員加里馬庫斯說:「我不會相信任何軟體來做關鍵任務的決定。」 馬庫斯說,Maven 項目屬於道德「灰色地帶」,因為公眾並不知道該軟體將如何使用。「如果谷歌希望從事為軍隊做分類的事情,那麼公眾有權關心 Google 正在成為什麼樣的公司。」

尾聲

有關 AI 武器問題的討論已經不是第一次了,在任何時代,安全性都是最重要的。2015 年曾經曝出特斯拉被黑客操控,高速路上狂奔的消息,足見目前 AI 技術的漏洞還是很多的,至於所謂 AI 武器,正如上面那位專家所說,一旦被黑客入侵,後果將會不堪設想。

我們期待科技能夠發展得足夠好,好到可以讓整個世界都更加美好,但是就像谷歌的座右銘所說:不作惡,應該是底線。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 矽谷密探 的精彩文章:

小探策劃已久的大事件,你來不來圍觀?

TAG:矽谷密探 |