當前位置:
首頁 > 新聞 > 谷歌公布AI使用七原則,看似誠意滿滿但仍「留了空子」

谷歌公布AI使用七原則,看似誠意滿滿但仍「留了空子」

本文由人工智慧觀察編譯

譯者:Sandy

面對內部數千員工的抗議,以及外部學術界的批評和媒體的曝光,本周四,谷歌終於發布了使用AI的七項原則,該公司承諾不會將其人工智慧用於會造成「整體傷害」的武器、技術和非法監視。但這個七項原則,在外界看來卻又很模糊,留有很多漏洞和空子。

谷歌CEO Sundar Pichai在文中表示AI如何開發和使用,將會對未來社會產生重大影響。「作為人工智慧領域的領導者,我們感到深深的責任感。所以我們宣布了七項原則來指導我們今後的工作。這些不是理論概念而是具體的標準,將積極主導我們的研究和產品開發,並會影響我們的業務決策。」

雖然這七項原則的制定,直接原因在於該公司與美國軍方簽署的Project Maven引起了內部員工的強烈不滿,但這個問題只是一個關於人工智慧的一個縮影,如果進行深入的思考,那麼有關AI應該如何開發、如何使用的考量才是根源所在。

在Pichai發布七項原則的同時,谷歌雲首席執行官Diane Green在另一篇官方博客中介紹了未來谷歌雲將如何踐行AI原則。此外,她還證實了上周傳出的消息,即谷歌將不再延續Project Maven的合同,但是「正在與『我們的客戶』合作,以求用對他們來說長期有效、又不和我們的AI原則衝突的方式,負責地履行我們的義務。」

如下是谷歌使用AI的七項原則:

AI應用目標:

1、對社會有益。

新技術的應用範圍越來越廣,越來越影響到整個社會。AI的進步將對包括醫療保健、安全、能源、運輸、製造和娛樂在內的廣泛領域產生重大影響。當我們考慮AI技術的潛在發展和應用時,我們將考慮一系列的社會和經濟因素,並將在我們認為整體收益遠超過可預見的風險和弊端的情況下繼續推進。

AI還增強了我們理解大規模內容含義的能力。我們將努力使用AI來隨時提供高質量和準確的信息,同時繼續尊重所在國家的文化、社會和法律準則。我們將繼續仔細評估何時可以在非商業基礎上讓大家使用我們的技術。

2、避免製造或加劇偏見。

AI演算法和數據集可以反映、加強或減少不公平的偏見。我們承認,區分公平和不公平的偏見並不總是很簡單,並且在不同的文化和社會中是不同的。我們將努力避免對人們造成不公正的影響,特別是與種族、民族、性別、國籍、收入、性取向、能力以及政治或宗教信仰等敏感特徵有關的人。

3、提前測試以保證安全。

我們將繼續開發和應用強大的安全和保障措施,以避免造成引起傷害的意外結果。我們將設計我們的AI系統,使其保持適當的謹慎,並根據人工智慧安全研究的最佳實踐開發它們。在適當的情況下,我們將在有限的環境中測試AI技術,並在部署後監控其操作。

4、由人類擔責。

我們將設計能夠提供反饋、相關解釋和說明的AI系統。我們的AI技術將受到人類適當的指導和控制。

5、保證隱私。

我們將在開發和使用AI技術時融入隱私原則。我們將提供通知和同意的機會,鼓勵具有隱私保護措施的架構,並對數據的使用提供適當的透明度和控制。

6、堅持科學高標準。

技術創新植根於科學的方法和開放式調查的承諾,學術嚴謹,誠信和合作。人工智慧工具有可能在生物學、化學、醫學和環境科學等關鍵領域開拓科學研究和知識的新領域。我們致力於促進人工智慧的發展,追求高標準的科學卓越。

我們將與廣大股東合作,通過科學嚴謹和跨學科的方式來全面促進該領域的發展。我們將通過發布教育材料,以及通過發布可以促進更多人開發AI應用的最佳實踐和研究來分享AI知識。

7、從主要用途、技術獨特性、規模等方面來權衡。

許多技術有多種用途。我們將努力限制可能有害或被濫用的應用程序。

我們不會將AI應用於:

1.製造整體傷害之處。如一項技術可能造成傷害,我們只會在其好處大大超過傷害的情況下進行,並提供安全措施;

2.武器或其他用於直接傷害人類的產品;

3.收集使用信息,以實現違反國際規範的監控的技術;

4.目標違反被廣泛接受的國際法與人權原則的技術。

文章最後,Pichai寫道:「我們相信這些原則是谷歌和AI未來發展的正確基礎,這與我們2004年發布的價值觀一致。我們在此明確表示谷歌更看重AI的長遠發展,即便需要為此付出短期的權衡。」

不可否認,谷歌原則的發表,安撫住了許多的員工。但不能不提的是,在這七條原則及其描述中,谷歌自由地使用了諸如「恰當」這樣的字眼,為自己留下了很大的餘地。什麼時候是「適當」的情況下,在有限的測試環境中測試AI技術並部署後監控其操作?什麼是保持「適當」的謹慎?AI技術將受到人類「適當」的指導和控制又是指什麼呢?......

這些都是具有爭議的,當然,在如此短的時間內,我們很難指望這些原則會有硬性的規定,但再仔細想想,這份原則並不是在短時間得出來的結論。多年以來,谷歌一直是人工智慧領域的領導者,並且有很多時間來建立更多的原則。

舉個例子,該公司關於「尊重文化,社會和法律規範」的承諾在很多方面都得到了驗證。儘管確立了這些原則,或者谷歌的政策已經傾向於適應政府或宗教權威的要求,但我們可以從哪裡可以看到他們在什麼地方應用了實踐呢?

而且,為了避免產生偏見,並對民眾負責,當然(基於谷歌在這方面的現有工作),有沒有一些具體的做法呢?比如,如果涉及谷歌的系統具有基於敏感數據或類別的結果,那麼該系統是否可以進行完全審計並公之於眾?

這些想法都是很好的想法,但AI的應用並不是抽象的。目前,他們被用於確定警力的部署,或選擇房屋貸款利率,或分析醫療數據。如果谷歌真的想保持自己在該領域的主導地位,那麼真正的規則是必要的,或者說如果規則已經建立,就需要把它們放到重要的位置去踐行!

此外,還有一些媒體對谷歌的七項原則表達了不滿之意,比如《紐約時報》認為,由於谷歌此前一再強調自己為國防部所做的工作並非出於「進攻目的」,這些指導原則能否將該公司排除在類似Project Maven的合同之外,尚不清楚。

ZDNet也在評論中指出,即便谷歌說不讓自己的技術用於武器開發,但一旦變成開源項目,這些技術和代碼就有可能用於作惡,就像其他的工具與技術一樣。

(文中圖片來自網路)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

阿里確認布局自動駕駛,BAT再度聚首競爭白熱化
面部識別可用於搜尋受害者打擊人口販賣

TAG:人工智慧觀察 |