當前位置:
首頁 > 新聞 > 「絕不開發武器」谷歌發布AI 使用七原則,但仍與美國防部合作

「絕不開發武器」谷歌發布AI 使用七原則,但仍與美國防部合作

「絕不開發武器」谷歌發布AI 使用七原則,但仍與美國防部合作



新智元報道

編輯:李靜怡

【新智元導讀】今天,谷歌CEO Sundar Pichai 發表了署名題為《AI at Google: our principles》的文章,列出7大指導原則,闡述谷歌在研發和使用AI時將遵循的目標。Pichai 還明確列出了谷歌「不會追求的AI應用」,包括可能造成危害的技術、武器等。但是,谷歌並不會終止與美軍的合作。

「絕不開發武器」谷歌發布AI 使用七原則,但仍與美國防部合作

上周五,谷歌宣布與國防部Maven合同在明年到期後不再續約,並表示將發布關於使用AI的新道德準則。

今天,谷歌CEO Sundar Pichai 發表了署名題為《AI at Google: our principles》的文章,列出7大指導原則,闡述谷歌在研發和使用AI時將遵循的目標。

不僅如此,Pichai 還明確列出了谷歌「不會追求的AI應用」,包括可能造成危害的技術、武器或其他以人身傷害為主要目的的技術、違反國際公約收集或使用信息的技術,以及違反人權和國際法的技術。

Pichai在文中寫道,「這些不是理論概念,而是具體的標準,將積極主導我們的研究和產品開發,並會影響我們的業務決策」。

Pichai還表示,這些原則是谷歌和人工智慧未來發展的正確基礎。這種做法與2004年谷歌成立之初「創始人的信」中所提出的價值觀一致。

谷歌雲CEO Diane Greene也發表了題為《Incorporating Google』s AI Principles into Google Cloud》的文章,響應新的準則。


「作惡的」Project Maven

這篇谷歌AI新準則的文章,是為了回應之前谷歌內部員工以及隨後公眾對谷歌與美國防部的合作項目Project Maven。

該項目旨在建立一個類似「谷歌地球」的監測系統,讓五角大樓的分析師能「點擊建築,查看與之相關的一切」,並為「整個城市」建立車輛、人員、土地特性和大量人群的圖像。

谷歌在2017年9月底獲得了Maven項目的合同,此後合作一直處於保密狀態,直到今年有員工在谷歌公司內部溝通平台將這件事曝光出來。部分谷歌員工幾乎是立即就站出來表示反對。之後,更有數千名員工簽署請願書,要求谷歌取消該項目的合同,數十名員工辭職以示抗議。

事件不斷發酵,關於Project Maven是否有違谷歌成立之初立下的「不作惡」原則,討論越來越多,越來越激烈。

根據新智元此前的報道,谷歌的高層曾非常支持Maven項目,因為這將讓谷歌雲在贏得更大的五角大樓合同的道路上走得更遠,但他們同時也對外界如何評判谷歌參與軍事項目十分擔憂。

最終,谷歌雲CEO Diane Greene 在上周五谷歌員工早會上宣布,Project Maven合同將於2019年到期,此後不再續簽。

谷歌已經為Maven做了大量工作,並且取得不錯的成果。根據Gizmodo獲取的消息,谷歌已經構建了一個系統,檢測專業圖像標籤所遺漏的車輛;谷歌的高級工程項目經理Reza Ghanadan在一封郵件中寫道,幾個案例表明,模型對專業標籤錯過的車輛檢測率準確率能達到90%。


谷歌仍將與美軍合作,新的探索不會減速

不過,谷歌將繼續與美國政府和軍方開展在網路安全、培訓、退伍軍人醫療保健、搜救和軍事招聘方面合作。這家網路巨頭正在爭取兩項數十億美元的國防部門辦公和雲服務合同。

這些原則對公司將如何遵守規則提供了有限的細節。Pichai概述了谷歌應用AI的7個核心原則,包括要對社會有益,可以構建並測試安全性,避免產生或加強不公平的偏見等。Pichai表示,谷歌還將評估其在人工智慧領域的工作,考察其技術「適應有害使用」的程度。

谷歌一名要求匿名的代表坦率地表示,該公司數月來一直在制定道德準則,並將聘請外部顧問進行內部審查,以確保人工智慧準則得到執行。

AI是谷歌網路工具的重要組成部分,包括圖像搜索和識別,以及自動語言翻譯。但這也是其未來雄心的關鍵,很多都涉及到自己的道德領域,包括自動駕駛部門Waymo和谷歌Duplex系統,這個系統可以通過模仿人的聲音完成預定晚餐的任務。

但谷歌的新限制似乎並沒有減緩五角大樓的技術研究人員和工程師的速度,他們認為其他承包商仍然會競相幫助開發軍事和國防技術。美國國防部高級研究計劃局副局長Peter Highnam表示,沒有經營Maven項目,但因幫助發明互聯網而獲評的五角大樓代理機構稱,DARPA的「有數百家(如果不是數千家)積極出價的學校和公司」 AI等技術研究項目。

「我們的目標,我們的目標是創造和防止技術突襲。所以我們正在考慮什麼是可能的,「DARPA信息創新辦公室副主任約翰埃弗里特周三接受採訪時說。 「任何組織都可以自由參與這個正在進行的探索。」


Pichai 署名文章:谷歌AI使用原則

以下為谷歌CEO Sundar Pichai今天發布的署名文章:

AI的核心是可以學習和適應的計算機編程,它不能解決所有的問題,但擁有巨大的潛力改善我們生活。在谷歌,我們使用AI讓產品更有用,從沒有垃圾郵件並且更容易撰寫的電子郵件,到可以自然對話的數字助理,再到突出有趣內容供你欣賞的照片。

除了我們的產品,我們正在使用AI來幫助人們解決緊急問題。一對高中生正在構建AI驅動的感測器來預測野外火災的風險。農民正在使用AI監測牛群的健康狀況。醫生也開始用AI來幫助診斷癌症並預防失明。這些顯而易見的好處是Google大力投入人工智慧研發,並通過我們的工具和開源代碼使其他人也能普遍使用人工智慧技術的原因。

我們認識到,這種強大的技術對其使用也提出了同等重要的問題。人工智慧如何開發和使用,將對未來多年的社會產生重大的影響。作為人工智慧領域的領導者,我們深感重任。所以今天,我們宣布了七項原則來指導我們今後的工作。這些不是理論概念,而是具體的標準,將積極主導我們的研究和產品開發,並會影響我們的業務決策。

我們也意識到,這個領域是不斷變化和不斷發展的,我們將以謙遜態度對待我們的工作,對內對外都是如此,我們也願意隨時間的推移調整我們的方法。

AI應用的目標

我們將根據以下目標評估AI應用。我們認為AI應該:

1、對社會有益

新技術的應用範圍越來越廣,社會滲透率越來越高。人工智慧的進步將對包括醫療保健、安全、能源、運輸、製造和娛樂在內的各種領域產生變革性的影響。當我們考慮AI技術的潛在發展和應用時,我們將考慮各種社會和經濟因素,並將在我們認為整體可能的收益大大超過可預見的風險和缺點的情況下繼續進行。

人工智慧還增強了我們理解大規模內容含義的能力。我們將努力使用AI來隨時提供高質量和準確的信息,同時繼續尊重所在國家的文化、社會和法律準則。我們將繼續深入評估何時將我們的技術用於非商業情況。

2、避免製造或加強不公平的偏見

人工智慧演算法和數據集可以反映、加強或減少不公平的偏見。我們認識到,區分公平和不公平的偏見並不總是很簡單,並且在不同的文化和社會中是不同的。我們將努力避免對人們造成不公正的影響,特別是與種族、民族、性別、國籍、收入、性取向,能力以及政治或宗教信仰等敏感特徵有關的人。

3、建立並測試安全性

我們將繼續開發和應用強大的安全措施,避免造成危害的意外結果。我們在設計人工智慧系統時會保持適當謹慎,並根據人工智慧安全研究的最佳實踐尋求開發它們。在適當的情況下,我們將在受限環境中測試AI技術,並在部署後監控其操作。

4、對人負責

我們將設計能夠提供反饋、相關解釋和說明的AI系統。我們的AI技術將接受適當的人類指導和控制。

5、納入隱私設計原則

在開發和使用AI技術時我們將融入隱私原則。我們將提供通知和同意,鼓勵具有隱私保護措施的架構,並對數據的使用提供適當的透明度和控制。

6、堅持科學卓越的高標準

技術創新的根本在於科學方法和對開放式調查的努力,學術嚴謹、誠信和合作。人工智慧工具有可能在生物學、化學、醫學和環境科學等關鍵領域開拓科學研究和知識的新領域。我們致力於促進人工智慧的發展,我們也追求高標準的科學卓越。

我們將與一系列利益相關者合作,以科學嚴謹和多學科的方式來全面引領領域發展。我們將通過發布教育材料,最佳實踐和研究,負責任地分享人工智慧知識,使更多人能夠開發有用的人工智慧應用。

7、為符合這些原則的用途提供

許多技術都有多種用途。我們將努力限制可能有害或濫用的應用程序。在開發和部署AI技術時,我們將根據以下因素評估可能的用途:

  • 主要目的和用途:技術和應用的主要目的和可能的用途,包括解決方案與有害用途的相關度或適用程度
  • 性質和唯一性:我們的技術是獨一無二的還是更普遍可用的
  • 規模:這項技術的使用是否會產生大規模的影響
  • Google參與的性質:我們是提供通用的工具,為客戶集成工具,還是開發定製的解決方案

我們不會追求的AI應用

除了上述目標之外,我們不會在以下應用領域設計或部署AI:

  1. 已造成或可能造成整體性傷害的技術。在存在重大傷害風險的情況下,我們只會在我們認為好處遠遠超過風險的情況下繼續進行,並且會納入適當的安全限制。
  2. 武器或其他主要目的是導致或直接造成人身傷害的技術。
  3. 收集或使用信息的技術違反國際公認的規範。
  4. 其目的與國際法和人權普遍接受的原則相違背的技術。

我們希望明確的是,雖然我們沒有在開發用於武器的AI,但我們將繼續在其他許多領域與政府和軍方合作,包括網路安全、培訓、軍人招募、退伍軍人醫療、搜索和救援。這些合作是很重要的,我們將積極尋找更多方法來加強這些組織的關鍵工作,並確保服役人員和平民的安全。

長期的人工智慧

雖然這是我們選擇的應用人工智慧的方式,但我們明白,在這場討論中還有許多觀點存在空間。隨著人工智慧技術的進步,我們將與一系列利益相關者合作,採用科學嚴謹、多學科方法提升這一領域的領導力。我們將繼續分享我們在改進AI技術和實踐方面的經驗。

我們相信這些原則是我們公司和人工智慧未來發展的正確基礎。這種做法與2004年我們最初的「創始人的信」中提出的價值觀是一致的。在那封信中,我們明確表示,我們打算從長遠的角度出發,即使這意味著要做出短期的權衡。這一理念我們當時說過,現在我們確信了。

原文地址:https://www.blog.google/topics/ai/ai-principles/

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

ICLR oral:清華提出離散化架構WAGE,神經網路訓練推理合二為一
袁泉創辦國內首家決策智能公司 ACM全球總決賽發布星際爭霸II賽題

TAG:新智元 |