當前位置:
首頁 > 最新 > 既然已無法阻止人工智慧高歌猛進的步伐,七個近在眼前的AI倫理問題了解一下

既然已無法阻止人工智慧高歌猛進的步伐,七個近在眼前的AI倫理問題了解一下

來源:TowardsDataScience

編譯:Kathy

每當一個新技術普及時,它們常常會引起倫理問題。舉幾個栗子:

關於武器——誰應該擁有它們?

關於印刷機——應該用來出版什麼?

關於無人機——應該允許它們飛去哪裡?

這些問題的答案通常是在技術變得足夠普遍以至於問題已經實際暴露出來之後。隨著我們的技術變得越來越強大,新技術的潛在危害將越來越大。我們必須從被動應對轉變為主動應對新技術危險。

必須在新技術實際影響到我們的生活之前,就開始確定其倫理問題和可能的影響。考慮到技術的飛速發展,留給考慮倫理問題的時間越來越少。現在需要就所有這些話題進行公開討論,而這些問題是科學無法回答的——它們事關我們的價值觀,屬於哲學領域,而非科學範疇。

尤其人工智慧技術提出了許多倫理問題。作為社會人,我們有責任找出最佳答案,並最終制定最佳法律條文。

1.演算法中的偏差

機器學習演算法從給定的訓練數據中學習,而不考慮數據中的任何錯誤假設。這樣,這些演算法可以反映甚至放大數據中存在的偏差。例如,如果一些訓練演算法的數據含有種族主義或性別歧視的內容,那麼得到的預測也將反映這一點。一些現有的演算法將黑人錯誤的標記為「大猩猩」,或者認為針對亞裔美國人的SAT輔導收費更高。演算法已經被用於職場招聘,用來確定應聘者的信譽,但這些演算法卻可能無法通過傳統上用來確定是否存在歧視性做法的測試。

我們如何確保演算法是公平的,特別當它們的擁有者是私人公司且不被公眾監督的時候?我們如何平衡開放性和知識產權的關係?

演算法的偏差

2. 演算法的透明度

比公司不允許公開審查它們的演算法更令人擔憂的是,有些演算法甚至對其創建者來說都是模糊不清的。

深度學習是機器學習中一種快速發展的技術,它可以做出很好的預測,但不能解釋為什麼它會做出這些特定的預測。

例如,一些演算法已經被用來解僱教師,但卻沒有給出解釋為什麼該模型認定這些人應該被解僱。對更精確演算法的需求,和讓演算法在受其影響的人面前變得更加透明的需求,要如何平衡呢?如有必要,我們是否願意像歐洲新的通用數據保護法規那樣,犧牲準確性以提高透明度?如果人類真的不知道他們真正的行為動機,我們是否應該要求機器在這方面比我們做的更好?

一種比深度學習更透明的演算法

3.演算法至上

類似但略有差異的擔憂從前兩個問題中浮現出來。如果我們開始相信演算法來作決定,誰將擁有重要問題的最終決定權?是人類,還是演算法?

例如,一些演算法已經被用來確定刑罰。鑒於我們知道法官的決定受到他們情緒的影響,有些人可能會認為法官應該被「機器人法官」取代。然而,ProPublica的一項研究發現,其中一種流行的判決演算法對黑人有很大的偏見。為了找到「風險得分」,該演算法使用有關被告人熟人的輸入信息,而這些信息在傳統審判中永遠不會被接受為證據。

人們是否應該因為他們的法官不是人而上訴?如果人類的法官和判決演算法都有偏見,我們應該使用哪一種?未來的「機器人法官」在最高法院應該扮演什麼角色?

ProPublica一項調查中的COMPAS量刑演算法

4.假新聞和假視頻

另一個倫理問題出現在關於假消息的話題上。機器學慣用來決定向不同受眾顯示不同的內容。鑒於廣告模式是大多數社交媒體平台的基礎,用戶在屏幕停留的時間被用作衡量成功的典型標準。考慮到人類更容易參與到更具傳播性的內容中去,帶有偏見的故事會以病毒的形式傳播。與此相關的,我們可以使用ML工具創建病毒式假視頻,而這些視頻非常真實,以致人類無法區分。

例如,最近一項研究表明,假新聞傳播得比真實新聞快。虛假新聞比真實新聞被轉發的可能性高70 %。鑒於此,許多人試圖利用虛假消息影響選舉和政治觀點。最近對劍橋分析公司的一次秘密調查中,錄下了他們吹噓利用假消息影響選舉的事實。

如果我們知道視頻都能造假,那麼在法庭上什麼可以被接受作為證據呢?我們怎樣才能減慢虛假信息的傳播,誰來決定哪些新聞是「真實」的?

左:真實圖像,Parkland槍殺案中的倖存者Emma González;右:亂傳播的假圖像

5. 致命自動武器系統

人工智慧研究人員說,在不到十年的時間裡,我們就能製造出致命的自動武器系統。可能是可部署的小型無人駕駛飛機的形式,而且與目前的軍用無人駕駛飛機不同,這種無人機能夠在未經人類批准的情況下決定是否進行殺戮。

例如,AI研究人員最近製作的一個視頻展示了小型無人駕駛飛機Slaughterbots如何被用來殺害目標人群的,即種族滅絕。近4000名人工智慧/機器人研究人員簽署了一封公開信,要求禁止這種進攻性自動武器。

當個別國家想利用這種武器時,我們應該在什麼基礎上禁止這種武器?如果我們真的禁止這些,我們如何確保它不會被轉移到地下研究,並靠他們自己的力量製造這些自動殺戮武器?

6.自動駕駛汽車

谷歌( Google )、優步( Uber )、特斯拉( Tesla )和其他許多公司正在加入這個快速增長的領域,但許多道德問題仍未得到解答。

例如,最近一輛Uber自動駕駛汽車在2018年3月造成了一名行人死亡。即使有一個「安全司機」來應對緊急情況,但他們無法足夠快的及時停車。

隨著自動駕駛汽車的廣泛使用,事故發生時誰應承擔責任?是製造汽車的公司,在代碼中犯了錯誤的工程師,還是應該一直監視的駕駛者?如果一輛自動駕駛汽車開得太快,不得不在撞上行人和墜下懸崖之間做出選擇,那麼汽車該怎麼辦呢?一旦自動駕駛汽車比普通人駕駛汽車更安全(這個與普通人駕駛汽車比醉酒駕駛汽車更安全的比例相同),我們是否應該把人類駕駛定為非法?

Uber自駕事故中記憶猶新的一次車禍

7.隱私與監視

無處不在的安保攝像機和面部識別演算法的存在,將圍繞監視問題產生新的道德問題。很快照相機就能找到和跟蹤街上的路人。在面部識別之前,即使是無處不在的鏡頭也可以保障隱私,因為人們不可能查看所有時間記錄下的所有的影響。而通過面部識別,演算法可以更快地查看大量鏡頭。

例如,監控攝像機已經開始在中國用於監控市民的位置。一些警察甚至配製了面部識別眼鏡,可以讓他們實時獲得在街上看到的人的信息。

是否應對這些技術的使用作出規定?鑒於社會變革往往始於對現狀的挑戰和文明反抗,全景監視能否導致自由的喪失和社會變革?

基於機器視覺技術的監控攝像機

解決問題時不我待

現實中的人們正遭受著這些技術帶來的折磨:被不公平的跟蹤、解僱、監禁,甚至被偏見和難以理解的演算法殺害。我們需要在這些領域為人工智慧進行適當的立法。然而,除非社會形成一定的意見,否則無法立法。而在開始進行道德對話和辯論之前,社會無法形成意見。那麼開始著手做吧。也讓我們養成一種習慣,在構思新技術的同時,也同時開始思考倫理問題。

-The End-

將門是一家專註於發掘、加速並投資技術創新激活商業價值的創業公司的新型創投機構,旗下設有將門創新服務、將門技術社群以及將門投資基金。

將門創新服務專註於使創新的技術落地於真正的應用場景,激活和實現全新的商業價值,服務於行業領先企業和技術創新型創業公司。

將門技術社群專註於幫助技術創新型的創業公司提供來自產、學、研、創領域的核心技術專家的技術分享和學習內容,使創新成為持續的核心競爭力。

將門投資基金專註於投資通過技術創新激活商業場景,實現商業價值的初創企業,關注技術領域包括機器智能、物聯網、自然人機交互、企業計算。在兩年的時間裡,將門投資基金已經投資了包括量化派、碼隆科技、禾賽科技、杉數科技、杉數科技、迪英加科技等數十家具有高成長潛力的技術型創業公司。

如果您是技術領域的初創企業,不僅想獲得投資,還希望獲得一系列持續性、有價值的投後服務,歡迎發送或者推薦項目給我「門」:bp@thejiangmen.com


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 將門創投 的精彩文章:

自底向上看深度學習網路的工作原理
華先勝:無行業,不AI——阿里視覺智能的探索與實踐

TAG:將門創投 |