當前位置:
首頁 > 最新 > 淺議Google的「AI七原則」

淺議Google的「AI七原則」

本文為原創文章,歡迎轉載,請註明【悅法】公眾號信息。

本文約3100字,閱讀需要2至4分鐘。

阿西莫夫的《機器人三大法則》

進入正文前,筆者與大家分享一個在科幻小說界比較出名的典故——《機器人三大法則》。

1950年,美國著名科幻小說家Isaac Asimov(阿西莫夫)出版了一本名為《I,Robot》(我,機器人)的科幻小說,敘述著一個人工智慧機器人的故事。小說中提及的一項機器人行為準則——《機器人三大法則》則受到人們的廣泛流傳及熱議,傳播及議論程度甚至比小說本身還高,在當代也常常被人們用作議論人工智慧發展與人類自我保護髮生衝突時的參考。《機器人三大法則》規範著機器人與人類之間的關係,約束著機器人以保護人類為存世的大前提,成為阿西莫夫自此之後的機器人類型小說的框架邏輯。

《機器人三大法則》雖然只是一名小說家所創作的虛構理論,但是由於其在理論設計上存在一定的邏輯性、合理性,符合人類內心深處的自我保護傾向,緩解人類的危機焦慮心態,同時又能滿足人工智慧研究的發展要求,筆者認為這就是三大法則能一直得到人們議論及參考的原因所在。

《機器人三大法則》的內容

第一法則:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。

第二法則:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外。

第三法則:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。

Google(谷歌)的「AI七原則」

轉眼今天,2018年6月,全球著名的科技企業Google(谷歌)公司,面對公眾發布了其關於使用AI技術的七項原則,承諾不會將其人工智慧技術用於會造成「整體傷害」的武器、技術和非法監視。

「AI七原則」出現的前因

約在今年3月份,谷歌被曝出正參與某軍方項目,項目內容為向美國國防部提供先進的計算機視覺技術,幫助軍方識別和檢測無人機攝像頭中的車輛和其他物體,減輕分析人員的負擔。這一舉措很快就遭到了各種人士的反對,谷歌上千名員工還簽署了聯名信抗議。為平息事件,谷歌近段時間表明將在明年終止與該項目合同,同時發表了一份評估AI應用的原則,即「AI七原則」。

「AI七原則」的內容

1.對社會有益

新技術的應用範圍越來越廣,越來越接觸整個社會。人工智慧的進步將對包括醫療保健,安全,能源,運輸,製造和娛樂在內的廣泛領域內產生變革性影響。當我們考慮AI技術的潛在發展和應用時,我們將考慮範圍廣泛的社會和經濟因素,並在我們認為總體上收益大大超過可預見的風險和缺點的情況下繼續我們的工作。

人工智慧還增強了我們大規模理解內容的能力。我們將努力使用AI來隨時提供高質量且準確的信息,同時繼續尊重我們運營所在國家的文化,社會和法律準則。我們將繼續深思熟慮地評估何時使我們的技術在非商業基礎上可用。

2.避免製造或加強不公平的偏見

人工智慧演算法和數據集可以反映,加強或減少不公平的偏見。我們認識到,區分公平和不公平的偏見並不總是很簡單,並且在不同的文化和社會中是不同的。我們將努力避免對人們造成不公正的影響,特別是與種族,民族,性別,國籍,收入,性取向,能力以及政治或宗教信仰等敏感特徵有關的人。

3.建立並測試安全性

我們將繼續開發和應用強大的安全保護措施,以避免造成傷害風險的意外結果。我們將使我們的人工智慧系統保持適當謹慎,並根據人工智慧安全研究的最佳實踐尋求開發它們的方式。在適當的情況下,我們將在受限環境中測試AI技術,並在部署後監控其操作。

4.對人負責

我們將設計AI系統使之為反饋,相關解釋和上訴提供適當的機會。我們的AI技術將受到適當的人類指導和控制。

5.結合隱私設計原則

我們將把我們的隱私原則納入我們的人工智慧技術的開發和使用中。我們將給予通知和同意的機會,鼓勵具有隱私保護的架構,並提供適當的透明度和對數據使用的控制。

6.堅持科學卓越的高標準

技術創新植根於科學方法和對開放式調查、智力嚴謹、誠信和合作的堅持。人工智慧有潛力在生物學,化學,醫學和環境科學等關鍵領域開拓科學研究和知識的新領域。在促進人工智慧發展的過程中,我們追求科學卓越的高標準。

我們將與一系列利益相關者合作,以科學嚴謹的、多學科的方式來促進這一領域的深思熟慮的領導力。我們將通過發布教育材料、最佳實踐和研究來負責任地分享人工智慧知識,使更多人能夠開發有用的人工智慧應用。

7.考察技術的用途

許多技術都有多種用途。我們將努力限制潛在的有害或濫用的應用。隨著我們開發和部署人工智慧技術,我們將根據以下因素評估可能的用途。

主要的目的和用途:技術和應用的主要目的和可能使用方式,包括解決方案與有害使用的關係或適應性。

性質和獨特性:我們是否提供獨特的或更普遍的技術。

規模:該技術的使用是否會產生重大的影響。

谷歌參與的性質:我們是提供通用工具,為客戶集成工具,還是開發自定義解決方案。

筆者說

如何看待「AI七原則」?

自從AI的出現,人類就一直處於「AI對人類是否安全?」的無限論證與憂慮之中。筆者認為,該問題在目前顯然是一個無人能給出肯定性答案的無解命題,無論是從人工智慧學、社會學、生物學等科學的論述角度。而站在法律人的角度,更多的思考是否能有一種制度或協議的設計讓人類得到安全的保障,至少是獲取到基本的安全感。顯然,無論是《機器人三大法則》還是「AI七原則」,均具有廣義法律層面的規範能力,若能得到一定的運行保障,這將會成為前面所說的「安全感」來源。

先理解何為AI?

AI,ArtificialIntelligence,人工智慧。它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。即是研究人類智能活動的規律,構造具有一定智能的人工系統,研究如何讓計算機去完成以往需要人的智力才能勝任的工作,也就是研究如何應用計算機的軟硬體來模擬人類某些智能行為的基本理論、方法和技術。

結合我們日常觀看的科幻電影、小說,不恰當的說,AI就是讓機器擁有人類活動能力的科學。

《機器人三大法則》與「AI七原則」的區別

站在規範性文件的角度,《機器人三大法則》與「AI七原則」不屬於同一類型的規範。

《機器人三大法則》屬於規範著擁有自主思考能力(高階AI)機器人的行為準則。抽離現實、進入小說世界,《機器人三大法則》是人類在底層數據設計給機器人的行為準則,要求著全部機器人均需遵守且不能違反,這意味著著法則對於機器人來說是具有強制性的法律性質規範。

「AI七原則」僅僅是一家科技公司指導其內部在使用、設計AI時行為的方向性原則,相比前文具有強制性的法律規範有著先天不足的缺陷。首先,只是原則,概念過於寬廣模糊,不具有細緻操作性;其次,執行力仍存在不穩定性,該原則由公司自己制定、發布,靠著自覺性來遵守,雖然有著企業聲譽作為背書;最後,沒有追責制度的設計,違反原則的後果不會太消極,僅僅為聲譽部分受損。

對「AI七原則」的展望

雖然,在目前,現實中的「AI七原則」相比小說中的《機器人三大法則》存在部分缺點,但結合現實,現階段的AI技術亦未能與小說世界相提並論。

作為全球AI技術領先者的谷歌公司已經發出規範自身的積極信號,對於行業領域、對於社會仍然屬於一件促進技術道德進步的事情。如果,這種積極的態度能得到全行業的認可,並進一步發展為全行業的標準化規範,同時將此規範進行優化,讓其更具操作性、執行力,再上升至國家級的法律文件,則是人類在技術層面以外,關於AI發展的最大安全性保障。

關於AI的其他規矩

此前,在貴陽大數據博覽會上,百度公司創始人李彥宏的演講中,針對AI定下了「四個規矩」,認為AI時代各大公司都要遵循四大原則:

1. AI的最高原則是安全可控;

2. AI的創新願景是促進人類更平等地獲取技術和能力;

3. AI的存在價值是教人學習,讓人成長,而非超越人、替代人;

4. AI的終極理想是為人類帶來更多自由與可能。

結語

其實,對AI的恐慌,歸根到底也是對人性的恐慌,對研究AI產品的設計者的恐慌。但,人類能發展至今而且仍未出現減速的跡象,即預示著AI的發展絕不會因為內心的恐慌而遭到放棄。

(完)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 全球大搜羅 的精彩文章:

聽說看了這篇文章的人都找到了愛情!
花園拜訪:這樣的花園才是生活-狗子豬的糯米露台

TAG:全球大搜羅 |