當前位置:
首頁 > 新聞 > 不變成武器,不收集隱私,Google 為使用人工智慧划下了界限

不變成武器,不收集隱私,Google 為使用人工智慧划下了界限

不變成武器,不收集隱私,Google 為使用人工智慧划下了界限

6 月7 日晚上,Google CEO Sundar Pichai 在官方播客上發布文章,回應了最近引起爭議的 Google 人工智慧武器化的問題。

皮蔡(Pichai)在文中亮明了 Google 對於人工智慧技術使用的原則,包括了 7 條人工智慧應該努力的目標以及 4 個 Google 不會將人工智慧技術使用的方向。

在這篇名為《Google 人工智慧:我們的原則》的博文最開始,皮蔡寫到:「強大的技術對其使用提出了同等重要的問題。人工智慧如何開發和使用,將會對未來多年的社會產生重大影響。」

然後他公布了 Google 7 項人工智慧指導原則:

Google 相信人工智慧技術應用的目標:

  1. 對社會有益;
    人工智慧的進步將對包括醫療保健,安全,能源,運輸,製造和娛樂在內的各種領域產生革命性的影響。所以人工智慧技術在發展的過程中應該考慮到幫助社會的因素,同時還應該考慮對不同社會的文化,法律準則。
  2. 避免製造或加劇偏見;
    用演算法來區分公平和不公平的偏見並不是一件簡單的事情,並且在不同的文化和社會中也有很多不同。Google 將努力避免對人工智慧技術因為種族,民族,性別,國籍,收入,性取向等內容造成不公正的影響。
  3. 提前測試以保證安全;
    Google 將謹慎地開發最新的人工智慧技術,並加入更多的監測等安全措施。
  4. 由人類擔責;
    Google 的人工智慧技術將受到一定程度人類的指導和控制。
  5. 保證隱私;
    Google 將把隱私原則融入人工智慧技術的開發和使用,將向用戶提供通知和申請同意的提示,鼓勵具有隱私保護措施的架構,並對數據的使用提供適當的透明度和控制。
  6. 堅持科學高標準;
  7. 從主要用途、技術獨特性、規模等方面來權衡。

比起目標,更重要的是,Google 也正式申明將不會把人工智慧技術用於武器以及大規模監控。

不變成武器,不收集隱私,Google 為使用人工智慧划下了界限

Google 申明不會將人工智慧技術應用於:

  1. 製造整體傷害之處。如一項技術可能造成傷害,我們只會在其好處大大超過傷害的情況下進行研發,並提供安全保護措施;
  2. 武器或其他用於直接傷害人類的產品;
  3. 收集使用信息,以實現違反國際規範的監控的技術;
  4. 目標違反被廣泛接受的國際法與人權原則的技術。

皮蔡表示,7 項原則和 4 個不會並不是理論和概念,而是具體的標準。並且會直接來指導 Google 今後的工作,產品的研究和開發,並會影響 Google 的業務決策。

皮蔡的回應是因為去年 Google 和美國軍方五角大樓合作 Project Maven 項目,這個項目中 Google 為軍用無人機開發人工智慧技術而引起公司內部巨大的爭議風波。

這個來自於五角大樓的 Maven 項目成立於 2017 年 4 月,當時宣稱的目標就是「加速國防部整合大數據和機器學習的能力」。《華爾街日報》報道稱,國防部總共在 2017 年花費了 74 億美元用於人工智慧技術等相關領域。

其中 Google 使用機器學習和人工智慧技術來識別無人機鏡頭中的車輛和其他物體,從而減輕分析人員的負擔,最終則能夠在無人機拍攝時進行自動檢測和識別追蹤指定物體。

隨著消息的曝光,這個計劃引發了大量 Google 員工們對於人工智慧技術用於戰爭的擔憂。有近 4000 名 Google 員工在今年 4 月的內部請願書中表示反對 Maven 項目,要求 Google 立即停止合作並制定新政策,以防止未來再次參與軍事任務。

同時十餘名 Google 員工通過辭職抗議 Google 與美國國防部的合作。當時,Google 公司的發言人為 Maven 項目進行了辯護,雖然承認把人工智慧技術用于軍事目的是「存在爭議性的」,但他強調機器學習技術只涉及「非殺傷性用途」,並表示 Google 目前正在圍繞這項技術制定政策和保障措施。

6 月 4 日,Google 宣布不再續約參與軍事人工智慧研發。隨後在今天,Google CEO Sundar Pichai 公布了人工智慧使用原則。

曾經,「Don』t be evil」一直是 Google 非正式的座右銘,也寫入了公司行為準則的開頭。「我們有『不作惡』(Don』t be evil)的信條,要為我們的用戶、客戶和每一個人,做我們所知的最好的事情,」2004 年,Google 聯合創始人拉里·佩奇(Larry Page)對 ABC 電視台主播彼得·詹寧斯說了這麼一番話。

但上個月,Google 將 Don』t be evil 從自己的行為準備中拿掉了,只在準則的最末尾提到了一句。這也引起了 Google 員工質疑公司行為準則的討論。

隨著周四,皮蔡代表公司亮明了態度。Google 雲 CEO 戴安·格林(Diane Greene)也在官方博客上發布了一篇文章,來介紹如何在 Google Cloud 業務上執行 Google的 AI 原則。

她特別提到,Google 將不再延續和軍方的 Project Maven 合同。僅僅是在網路安全、新兵招募以及搜救行動等其他內容上保持合作。

而 Google 現任人工智慧負責人 Jeff Dean 在 Twitter 上分享 Google 發表的這份原則之後,還提到為了真正踐行這些原則,Google 提出了一套技術實踐指南 Responsible AI Practices,指導科學家和工程師們在構建人工智慧產品的時候應該注意什麼。

一部分 Google 員工也在推特上表示對於這項原則的支持。Google 人工智慧研究員 Dumitru Erhan 稱看到這些原則非常開始,「是一個好的開始」。

但質疑的聲音也同時出現了。

科技媒體 ZDNet 在評論文章中指出,即便 Google 說不讓自己的技術用於武器開發,但一旦變成開源項目,這些技術和代碼還是有可能被用於作惡。

《紐約時報》則認為,雖然不再續約 Maven 計劃。但 Google 此前一再強調自己為國防部所做的工作並非出於「進攻目的」,聽上去也符合目前這些指導原則。未來 Google 是否還會參加類似 Project Maven 的合同,目前尚不清楚。

題圖來自:電影《I, Robot》

我們做了一個壁紙應用,給你的手機加點好奇心。去 App 商店搜 好奇怪下載吧。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 好奇心日報 的精彩文章:

印度要收集全民身份信息識別庫,買大米也要留指紋
今日娛樂:上影節排片出爐,谷阿莫被訴侵權

TAG:好奇心日報 |