當前位置:
首頁 > 新聞 > 拯救選擇困難症?越來越省心的AI,可能正在剝奪我們的「做人資格」

拯救選擇困難症?越來越省心的AI,可能正在剝奪我們的「做人資格」

關於人工智慧和人類的未來,不少科幻電影都已經進行了天馬行空的描繪。其中既有充滿未來感、生活便捷的海陸空大都市,也有人類被AI統治、甚至成為被豢養的寵物的黑暗想像。

人工智慧和自動化技術的發展在讓一部分人感到歡欣鼓舞的同時,也有相當一部分人感覺恐懼,這是可以理解的。

有人擔心自己會失去工作,擔心歧視會滲透到自動化決策中,甚至擔心我們作為一個物種可能面臨「生存威脅」(如果埃隆?馬斯克的言論可以被當真的話)。

這些風險被討論得相當頻繁,但到目前為止,有一個嚴重的威脅一直被忽視:人工智慧對人類的能動性和自主性產生的危險。

是的,讓人工智慧代表我們做出選擇的能力起初聽起來非常方便。通過預測我們可能喜歡什麼、向我們提出產品的購買建議、規劃我們如何安排時間,人工智慧讓人們生活得更加「省心」,拯救「選擇困難症」,但同時也可能會削弱我們做出決策、評估替代方案甚至行動的能力。

如果我們允許它對我們這樣做,我們將會冒著放棄很大一部分人類權利的風險,不僅是我們的個人自由,還有我們的「人類資格」。

人類能動性的喪失?

這些擔憂似乎有些牽強,但它們是由人工智慧、媒體和倫理領域的眾多研究人員共同提出的。去年12月,皮尤研究中心(Pew Research Center)發表了一項具有里程碑意義的研究,調查了近1000名相關專家對人工智慧的看法和預測。

除了37%的受訪者表示,在人工智慧變得普遍的未來,「大多數人不會變得更好」之外,這項研究還提供了一些重要的證據,證明對人工智慧的日益依賴可能會削弱人類的能力。

「在人工智慧時代,人類命運最令人擔憂的逆轉是能動性的喪失,」皮尤研究中心的一名不願透露姓名的受訪者表示。

「為了享受數字生活近乎即時、低摩擦的便利,人們失去了對其過程的了解和控制。隨著自動化系統變得更加複雜,而這些系統的所有權屬於精英階層,人們對數字工具的盲目依賴正在加深。」

同樣,Mimecast的首席科學家納撒尼爾·博倫斯坦(Nathaniel Borenstein)也對皮尤提出了同樣悲觀的預測:「我預計,在這個世界裡,IT和所謂的人工智慧會帶來越來越多的小甜頭,同時侵蝕人類的能動性和隱私,另類地助長了威權統治。」

博倫斯坦的觀點只是強調將日常任務委託給人工智慧的風險的幾種觀點之一。當他和皮尤中心聯繫的其他978名專家都在預測2030年的未來世界模樣時,有很多跡象表明,我們已經在把自主權交給人工智慧。

這些跡象不僅僅以「推薦給你」的形式出現,就像YouTube、Facebook和亞馬遜每天都在轟炸我們一樣。它們還包括自動完成的寫作應用程序、基於人工智慧的日程管理應用程序、為社交媒體文章推薦合適報價的應用程序、決定如何管理和優先處理郵件的技術,甚至包括可以規劃你下一個假期行程的應用程序。

雖然這類工具主要針對消費者,但在專業領域,也有很多人將決策授權給人工智慧的例子,以及可能導致危險的例子。

奧斯陸大學(University of Oslo)媒體與傳播系教授查爾斯?埃斯(Charles Ess)解釋稱:「一些驚人的災難是由於將人類判斷與計算機設備能夠做出的機械/演算法/人工智慧『決策』混為一談。」

「也就是說,指出用人工智慧的決策技術取代人類的判斷所導致的各種災難是相對容易的,而且也是重要的,比如2007年和2008年的金融危機,以及最近波音737 MAX飛機墜毀事件。」

人工智慧決策背後的金錢邏輯

例如,演算法在2007年的金融危機中發揮了一定作用,這一點得到了充分的證明。

2006年,在倫敦證券交易所進行的所有交易中,約有40%是由電腦完成的,在一些美國股市,這一數字達到了80%。

對於許多經濟學家和專家來說,交易是由定量分析師編寫的algos演算法完成的,這是全球市場在崩盤前積累了如此多風險的主要原因之一。

就像《極客的狂喜:當人工智慧超過智商》(Rapture for the geek: When AI Outsmarts IQ)一書的作者Richard Dooling在2008年為《紐約時報》撰文時寫道:「不知怎的,那些天才的定量分析師——華爾街最優秀、最聰明的極客們——可以把一萬億美元的次級抵押貸款債務輸入他們的超級計算機,再加上一些衍生品,用計算機演算法操縱安排,然後就嗖的一聲!創造了62萬億美元的假想的財富。」

即便是現在,德意志銀行(Deutsche Bank)首席國際經濟學家托爾斯滕?斯洛克(Torsten Slok)仍將「演算法驅動」的股票拋售列為全球金融體系目前面臨的頭號風險。

這種自動決策之所以危險的一個重要原因是,人工智慧不具備人類決策通常具有的那種直覺性、基於價值的判斷能力。

因為在許多互相矛盾的規範之間做出選擇時,選擇往往不僅取決於環境和文化,也有關於「我們身體中以一種隱性方式編碼的經驗和知識」,這很難用演算法來實現。

這意味著,隨著基於人工智慧的應用程序、平台、工具和技術佔領我們的生活,我們可能越來越少使用這種決策能力。

正如人工智慧專家、德勤(Deloitte)分析師戴維?沙茨基(David Schatsky)所指出的那樣,人工智慧和機器學習代表著技術本質的一次飛躍,很可能也導致人類社會的飛躍。

他說:「與前幾代技術相比,人工智慧似乎只是程度上的不同——更多的東西可以自動化。」

「另一方面,人工智慧可以如此強大,以至於量變引起質變——系統可以解釋和模擬情緒,能夠適應個體的態度和行為,並在塑造人類的慾望和行為方面變得越來越有效——以人們甚至可能沒有意識到的方式。」

不列顛哥倫比亞大學(University of British Columbia)神經倫理學教授彼得?b?賴納(Peter B. Reiner)表示:「隨著人工智慧在決策方面變得更加熟練,人類可能會順從它們,以方便自己不需要做決定。」

「人們很容易看出,這可能會減少自主決策的頻率,並隨著時間的推移,減少能動性。因為做決定是一種技能,就像其他技能一樣需要練習,如果我們不經常在生活的特定領域做決定,我們做決定的能力也可能會減弱。」

人工智慧看似無限的控制權也引向了另一個問題。如果人工智慧剝奪了我們的自主權,那麼誰將掌握我們的生活?

很顯然,那些構建和使用人工智慧的公司將從基於人工智慧的工具中受益,這些工具將把我們引向它們提供的服務和產品。

賴納說:「企業利益問題是一個根本性的問題。我認為我們的智能手機——以及我們日復一日使用的整個演算法設備生態系統——是我們思想的延伸。如果這是真的,那麼企業利益就有可能侵入我們的思維,最重要的是幫助我們以用戶通常不理解的方式做出決策。」

Reiner是另一位研究人員,他預測這種企業驅動的AI代理決策現象「只會隨著人工智慧變得更加普遍而增長」。

雖然現在可能很難想像這樣一個情景,但通過最近幾個月和幾年來為「情感人工智慧」技術申請的各種專利,我們可以大致了解一下這樣的未來圖景。

這些專利包括Facebook、蘋果(Apple)、亞馬遜(Amazon)、Netflix和谷歌)。例如,去年10月,亞馬遜(Amazon)為其Alexa助手的新版本申請了專利,該助手能夠檢測用戶的情緒,然後推薦適當的活動或購買物品。

這個版本甚至可以告訴用戶什麼時候生病了,並建議他或她做雞湯,雖然這只是其中一項專利(還有其他專利),但它進一步證明了企業利用數字平台來推廣服務和產品的利潤驅動趨勢。反過來,它也暗示了人工智慧工具將如何越來越多地被用來侵入我們的決策過程,所有這些都是為了促進利用這些工具的公司的產品銷售和利益增長。

「數字化順從」和「科技瘦身」

毫無疑問,個人的能動性將至少在一定程度上受到消費人工智慧增長的侵蝕,但問題仍然是,我們能做些什麼來保護自己不受這種增長的影響。

然而,專註於人工智慧的研究人員在這個問題上存在一些分歧。一些人預測,大多數人將樂於放棄自主權和選擇權,轉而追求更大的便利和輕鬆。

賴納說:「最近有一篇論文直接討論了這個問題,並將這種現象恰當地稱為『數字化順從』(這也表明企業知道這一點並利用了它)。」

「我相信,人們已經表現出願意在隱私方面做出這樣的權衡,而自主權也不甘落後——尤其是如果我的Netflix和Spotify的訂閱是任何跡象的話。」

然而,儘管其他專家普遍同意這種觀點,但他們也指出,這並不是人工智慧獨有的,而且有許多舉動可以減少任何潛在的個人能動性的損失。

德勤(Deloitte)的沙茨基(Schatsky)表示:「毫無疑問,面對以方便和效率換取自主權的技術,人們往往會選擇這種技術。」

「當有計算器時,很少有人用手做算術。這些技術有時確實會讓人們變得不那麼聰明,而且依賴於他們的父母不曾需要的技術。」

儘管如此,沙茨基認為,即使在今天,許多人「仍然拒絕效率和便利,而追求自己做事的滿足感」,無論是做飯、導航、表演音樂、寫作、運動還是其他任何事情。

此外,他預計任何AI工具的顯著增長將相應地伴隨著一種「科技瘦身」技術的發展,比如目前可以在Google Pixels或iPhone等智能手機上發現的數字化健康、請勿干擾功能,幫助用戶管理他們使用智能設備的時間。

他解釋說:「在過去的原始社會,人們很少會面臨攝入過多卡路里或缺乏鍛煉的危險。這些危險在今日的富裕社會中非常真實,於是人們通過注意飲食和鍛煉來緩解壓力。」

「充滿人工智慧的未來也將對我們的幸福構成不同的威脅。我們需要在個人和社會兩方面努力減輕這些威脅,充分發揮我們的人性。」

與此同時,還必須有意識地努力構建「正確」的基於AI的工具。

奧斯陸大學的Ess教授表示,人工智慧技術不應該被動地引導我們去選擇其演算法確定的我們會喜歡的「最佳」選項,而是應該設計成在更深層次上對人類最有利的方式。

他表示:「為了對抗這些危險,有必要從一開始就將倫理道德融入人工智慧的設計過程。」

更具體地說,克萊姆森大學(Clemson university)以人為中心的計算學助理教授巴特?克尼寧伯格(Bart knijnenburg)認為,人工智慧的設計不應該僅僅是向人們推薦東西,還應該鼓勵他們自己進行實驗和選擇,以及嘗試超出自己舒適區以外的東西。

「我認為我們使用AI應該盡量不僅為了獲得推薦,也為了探索未知。」他說。例如,可以向用戶顯示演算法非常不確定的項目,或者認為用戶通常不會喜歡的項目,而不是它認為「最好的」項目。

這樣的提議離真正實現還有很長距離,但如果人工智慧真的滲透進了我們所有的線上和線下活動,這可能會是人類必須要走的一條道路。

這並不是否定人工智慧的發展所帶來的益處。就像幾乎每一項技術創新一樣,它也會有缺點和風險,需要我們關注和權衡,維護身為人類的能動性、自主權和「人性」。

這些,正是我們賴以自詡「萬物之靈」的所在。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 前瞻經濟學人APP 的精彩文章:

經濟學人全球頭條:650萬上斯坦福,清華首次亞洲登頂,三星5G旗艦手機自燃
它的「挺身而出」,讓近千年的巴黎聖母院得以倖存

TAG:前瞻經濟學人APP |