當前位置:
首頁 > 最新 > 人工智慧時代,不僅隱私被掏空,還要忍受演算法歧視?

人工智慧時代,不僅隱私被掏空,還要忍受演算法歧視?

隱私,演算法與人工智慧

By Catherine Tucker

摘要:人工智慧可以使用個人數據來預測他們也許想要什麼、受到什麼的影響、或者想做什麼。在這一過程中,對個人數據的使用引起了人們對於隱私的憂慮。本文聚焦人工智慧世界與隱私之間的新觀點,談論了關於數據持久性、數據再利用和數據泄露的可能性方面主要的新觀點。

試想一下這個場景:你在醫院預約的挂號已經遲到了,之後你慌忙找到一個停車位。知道自己一定會忘記自己把車停在哪裡,所以你就使用了一個名為「找到我的車」的應用軟體,應用軟體為你的車拍了一張照片,之後當你來取車時,這張照片的地理編碼就會幫助你準確的找到自己的車,同時還可以準確地預測出你什麼時候需要它的提示。這一切聽起來十分實用,然而這個例子說明了在人工智慧的世界中,人們關於隱私的一些擔憂。

1. 數據持久性鑒於保存成本很低,數據一旦被創造出來,就可能會比創造它的人類存活在這個世界上的時間還長。

2. 數據再利用:人們尚不清楚這些數據在未來會被如何使用。一旦被創造出來,這些數據就可以被無限期的重複使用。例如,十年間的停車習慣也許就會成為醫療保險公司用來評估要冒多大風險為某人提供保額時的一部分數據。

3. 數據泄露:對於那些沒有拍照的人來說,應用軟體所拍的照片就有數據泄漏的風險,這些照片可能會拍到他們,而通過面部識別系統他們就有可能會被識別出來。這些人沒有打算創造這些數據,但是對他們來說,我創造數據的決定在未來就會造成數據泄露。

這篇文章將具體討論這些擔憂,在這之前要先思考一個問題,即隱私經濟學理論是如何與人工智慧(即「AI」)聯繫在一起的。

1

隱私經濟學與人工智慧

1.1

當前經濟學模型、隱私與它們的缺陷

很長一段時間以來,由於人們實在不知道如何將隱私製作成數據模型,隱私經濟學的發展受到了很大的阻礙,大部分理論經濟模型將隱私定義成一種中間產品(瓦里安,1996;法拉爾,2012)。這就表明,一個個人是否想要得到數據隱私權取決於他們預計這些數據對未來的經濟產出有怎樣的影響,舉個例子,如果某家公司通過分析消費者行為數據,為自家商品漲價,那麼消費者也許就會要求隱私權;同樣,如果數據允許某家公司隨心所欲地干涉消費者,那麼消費者也會要求隱私權。

然而,這種說法與許多決策者甚至消費者本人心目中的隱私保護政策與選擇權截然相反,或者最起碼側重點不同。

首先,大部分政策辯論都包括消費者在提供數據時是否能夠做出正確的決定,以及「通知和同意」在通知消費者做出正確選擇時是否真的有效。例如,麥克唐納和克拉諾在2008年的工作成果中就強調,即使在十年前,讓消費者通過閱讀隱私條款來了解自己的信息可能會被如何使用也是不現實的,畢竟據統計,每年消費者們在閱讀這些隱私條款上可能會花費244個小時。這份報告問世之後,收集數據的設備(溫控器、智能手機、車載應用程序)數量直線上升,這就說明現如今已經沒有什麼事比消費者沒時間去理解自己在這些設備上做了什麼決定更不合理了。

與此相關的是,即使假設消費者已經充分了解這一切,一份新的關於行為學的資料也還是會曲解消費者們在自己數據上做決定的方式,這份資料證據充分地展示了行為經濟學方面的效應,如「稟賦效應」(譯者註:指當個人一旦擁有某項物品,那麼他對該物品價值的評價要比未擁有之前大大增加,由2017年諾貝經濟學獎獲得者Richard Thaler提出)或「錨定效應」(艾奎斯提等人,2016)。這種曲解會使得「溫和的」政治干預幫助消費者做出「更好的」決定(艾奎斯提,2010)。

第三,這個理論假設的是,消費者們要求隱私權的原因是自己的數據被拿去做了什麼,而不是厭惡數據被收集這件事本身。確實,在互聯網時代最早的關於隱私權的調查中,瓦里安曾在1996年表示,「我不是很介意別人有我的電話號碼,只要他們不在晚飯時打過來或者要賣我保險就行。同樣的,我也不介意別人有我的地址,只要他們不給我寄一大堆看似正式其實只是讓我為房子重新申請貸款的信件,或是賣給我不動產抵押借款保險就行。」

然而,依然有證據表明有人在意自己的數據被收集,這些人甚至會為了這一點改變自己的行為,儘管他們實際上由於數據被收集起來而受到負面影響的可能性往往很小。經過實證分析,人們知道自己在搜索引擎中查詢的內容(馬修和塔克,2014)被美國國安局收集起來時,就會很大幅度改變自己的行為,儘管國安局並沒有用這些信息來鑒別恐怖分子,而他們的改變也僅僅是因為感到不好意思。從法律上說,美國憲法第四修正案明確規定人們的「文件和財產」不受「無理搜查」和「無理扣押」,這就說明政府和以政府名義運營的公司不能完全忽略對數據的抓取而只關注一起調查是否合理。因此,主打「輕數據」和「端對端加密」的消費者市場應運而生,這些公司平台收集消費者的信息很少、甚至根本不收集。人們的這種憂慮說明,數據被收集起來這一事實和數據究竟是如何被使用的一樣重要。

最後,經濟理論常常認為,儘管人們希望公司提供可以讓他們在購物時做平行比較的信息,他們並不希望公司提供關於支付意願的信息(瓦里安,1996)。然而,消費者們正在尋求平行意識個性化的觀點與現今十分流行的一份調查報告截然相反,在那份報告中,消費者們認為「個性化」十分討厭,或者說,令人毛骨悚然(蘭博瑞和塔克,2013)。恰恰相反的是,只有當顧客感受到控制權和對數據的擁有權時,利用平行比較根據品味為顧客推薦產品的個性化服務才能被接受或者成功,即使這種控制權最終只是流於表面(塔克,2014;阿西等人,2017)。

1.2

人工智慧與隱私

與「隱私」一樣,「人工智慧」這個詞也經常被隨意地用來指代很多東西。本文所遵循(阿格拉沃爾等人,2016)和關注的是人工智慧與降低預測成本相關的部分。這對於傳統意義上的隱私最明顯的影響就是更多種類的數據將被用來預測更多的經濟目標。

同樣,人們到底想不想要隱私完全取決於他們對於在預測演算法中使用自己數據的後果的估算。如果他們估計,自己的數據被人工智慧使用之後,自己將會面臨著不良經濟產出,那麼他們就不會允許自己的數據被分享或是創造出來。

單純的討厭或反感數據收集很有可能最後會變成討厭處理他們數據的自動預測演算法。一開始人們為數據被使用而感到恐慌,並因此要求隱私權,但後來這種恐慌就被轉移到了演算法身上。的確,有許多消費者都有相似的行為過程,他們只有在體會到控制感時才會接受演算法的預測(狄福斯特等人,2016)。

如此看來,人工智慧演算法的問題就成為了先前為隱私經濟學帶來困擾的問題的簡單延續。人們自然而然就會提出這樣一個問題:人工智慧究竟有沒有帶來新的或者更困難的問題?本文認為,在人工智慧及隱私權的選擇方面所存在的諸多問題面前,身處傳統隱私模式中的消費者們在做出關於是否分享自己的數據的選擇時會受到約束。在這裡我要強調以下三個主題,它們將以十分重要並且在經濟學上十分有趣的方式來歪曲這一過程。

2

數據持久性、人工智慧與隱私

「數據持久性」是指,一旦數據被創造出來,就很難被徹底刪除了。從技術角度來說的確是這樣的(埃迪,2015)。與隨隨便便就能被摧毀的模擬記錄不同,想要刻意刪除數據,需要花上一番資源、時間和心思。

2.1

和從前不同,現今創造的數據更持久

過去,只有最大的公司才能付得起儲存大量數據的花費,而且時間還有限制,現如今這種叫做成本約束的現象已經基本消失了。

數據設施的巨大改變為收集和分析大量數據提供了工具,亞馬遜、微軟和雲平台公司莫索(Rackspace)這樣的雲端資源使這些工具不再依賴於規模,儲存數據的成本持續下降,有些人甚至認為最終成本會降到零。這就使得一些小型公司擁有了訪問強大但廉價的計算資源的能力。成本降低預示著數據可以被無限期儲存起來,而人們普遍認為將數據運用在預測方面的結果十分可靠,因此數據會被應用於預測活動中。

目前在調用「大數據」尋找解決方案時最主要的資源限制在於,缺少擁有數據資源技能的人來分析大數據集並得出合理的結論(蘭博瑞和塔克,2015)。隨著時間的推移和技術的日益完善,這一約束也許會變得不那麼緊迫了。

也許是因為對隱私的偏好會隨著時間改變,人們開始從隱私的角度談數據持久性的問題。人們創造數據時的隱私偏好可能與幾年之後他們的隱私偏好大相徑庭,2012年戈德法伯與塔克的作品中記錄了這一點。在那篇文章中提到,儘管年輕人在數據方面持有的態度更開放一些,但是隨著年齡增長,他們變得越發不願意給出自己的數據了,這一現象在不同的年齡組中都成立。不是說現在的年輕人格外不在乎自己的數據,而是每一代人在年輕時都不太在乎自己的數據。從前這一現象不太明顯的原因在於,當時還沒有社交媒體,也沒有其他可以用來創造和分享令人感到尷尬的數據的方式。

這就表明,有時候一個人在意人工智慧與隱私的事時,他在意的很可能是人工智慧使用很久以前創造出來的數據,而這些數據都是他回想起來後悔創造的。

數據在被創造出來的那天看起來似乎無傷大雅,在封閉狀態下,可能之後很多天看起來依然無傷大雅,但強大的計算機可以將相對於第一天的那些無傷大雅的數據加以整合,得出不再「無傷大雅」的結論。此外,還有許多各種各樣的數據根本就是創造人無意間創造出來的。這裡指的不僅僅是一不小心被別人拍到照片那樣的數據,還指那些由於對公共場所被動監控產生的數據,以及人們在並不完全了解的情況下使用手機時,運營商向第三方、包括政府所泄露的個人信息及位置信息數據。

儘管人們非常努力想要把行為經濟學的概念引入對隱私經濟學的研究中,但在時間偏好的一致性上取得的成果並不多,儘管它事實上是行為經濟學中年代最久遠、被研究得最多(施特羅茲,1955;盧賓斯坦,2006)的現象之一。看起來,當我們討論數據創造方面的隱私選擇時,將潛在的短視貼現,或者說雙曲貼現(hyperbolic discounting)的概念引入進來是十分重要的一步。就算相關的經濟學家認為行為經濟學或短視貼現都不是可以接受的解決方案,至少它們都強調,在隱私選擇中,數據創造的時間與使用時間差並不是無關緊要的,恰恰相反,它應當是一個一段時間之後就不再生效的決定。

2.2

數據的預測功效會持續多久?

鑒於數據儲存的成本很低,如果我們假設數據一旦被創造出來就會一直存在,那麼想要理解隱私的動態變化,就要理解一個更重要的問題,即數據的預測功效會持續多久。

今天創造出的數據明天並沒有什麼預測功效,這樣的想法似乎的確合理,這一點在2014年邱和塔克的文章中研究過了,那篇文章指出,歐盟為搜索引擎限制的數據存續時間的長度並沒有影響到它們的演算法成功得出搜索結果。一個搜索結果是否成功,取決於搜索人是否認為自己不得不再次搜索。不論搜索者是特立獨行的還是隨大流關注最新事件的,這一點在搜索引擎界都說得通。舉例說明,2017年8月31日谷歌熱搜第一的關鍵詞是「颶風哈維」,這個關鍵詞就不能通過數周之前的搜索行為預測出來。

然而,一些形式的數據讓人們認為,它們的預測功效會永遠存在。最重要的例子就是基因數據的創造。米勒和塔克2017年的文章中指出,諸如23andme.com這樣的公司正在儲存大量的基因數據,規模很大、涉及到至少120萬人,正如那篇文章中提到的,基因數據同其他數據不同,它不會隨著時間的推移自己改變。

也許一個人20歲時上網瀏覽的網頁並不能用來預測他40歲時會瀏覽什麼,但是他20歲時的基因數據可以幾乎完美地預測出他40歲時的基因數據。

3

數據再利用、人工智慧與隱私

數據存續的時間範圍顯示,圍繞著數據被如何使用這一問題所衍生的不確定性日益增長。原因在於,一旦數據被創造出來,它就可以被無限次使用。隨著預測成本不斷降低,數據被使用的情況和場合便不斷增多。如果人們不能合理地預料到自己的數據會被如何反覆使用,以及在反覆使用的過程中會得出什麼結論,那麼他們在創造數據時,就會比現在更加難以做出決定,也更加不確定,畢竟在我們現有的確定性模型中,人們是知道自己的數據將被如何使用的。

3.1

意料之外的交互作用

用戶之間可能會產生創造數據時不能預測的行為交互,而這就是某種溢出效應,這樣看來人工智慧在隱私方面最大的潛在結果已經浮出水面了。

這方面一個著名的例子就是,一個在臉書上喜歡(或不喜歡)「扭扭薯條」的人可能不會料到,這一點竟然成為了對於智力的預測(庫辛斯基等人,2013),還可能成為了利用演算法尋找合適僱員或學生時的一個篩選機制。

3.2

意料之外的交互失真

在這些案例中,演算法可能會運用數據之間的交互關係進行預測,而那些數據是為了不同目的被創造出來的。隱私經濟學可能會採用對數據的單一使用,而不允許在難以預料的情境下重複使用數據的潛在可能性。

然而,就算我們假設人們都能夠大致預測到自己的數據會被重複使用,我們所面臨的挑戰還是越來越多,在我們重複利用他們的數據時,可能會發生的結果之一便是他們做出失真的推測。

我們在一篇新的研究中討論了基於數據關聯產生失真的可能性。

在米勒和塔克2018年即將發表的報告里,我們利用一個廣告演算法記錄了廣告的分布,該演算法試圖通過一個人在網上的數據推算出他的「族群類別」。我們分別針對「非裔美國人」、「亞裔美國人」和「拉美裔」同時播放了一則廣告,同時我們也為一些不屬於以上三個族群類別的人播放了廣告。廣告的內容是一個聯邦項目,允許人們通過實習和就業指導更加快捷地得到一份聯邦工作。這則廣告播了一周,之後我們統計了在投放廣告的縣裡有多少人看到了它。我們根據該縣人口普查的數據得出的實際人口組成發現,廣告演算法認為在有歧視非裔美國人歷史的州里大部分人是非裔美國人,這一模式同樣適用於那些內戰時期支持奴隸制的州和那些20世紀限制非裔美國人投票權的州。在這些州中,人口被過多預測的只是非裔美國人,拉美裔和亞裔都沒有。

我們認為,這一點絕對不能用演算法對這些州的行為數據所做出的反應來解釋,因為在所有州,不論它們有沒有歧視歷史,人們點進不同廣告的行為模式並沒有差別。

經過我們的討論,這一點或許可用以下四個演算法運行中的情況來解釋:

1. 演算法通過一個人對特定文化現象(如名人、電影、電視節目和音樂)的偏好來識別他的族群「類別」。

2. 收入較低的群體更喜歡用社交媒體表達自己對名人、電影、電視節目和音樂的偏好。

3. 高收入群體更喜歡用社交媒體表達自己對政治和新聞的想法。

4. 經濟學調查結果表明非裔美國人在那些有歧視歷史的州里的收入往往比較低(索科洛夫和恩格曼,2000;博迪歐奇和提米克,2014)。

從經驗規律上看,演算法在預測族群時,通常會把那些身處有歧視歷史地區的人預測為黑人,因為演算法行為突出強調了歷史慣性的潛在可能。歷史的動態結果會影響人工智慧做出預測的方式。如果那段歷史令人討厭的話,這一點就更突出了。在這個特例中,我們使用了特定的數據來預測一個特點,而那個數據的發展是內生的。

這就說明,預測演算法存在的世界中的隱私政策,比人人對隱私的決定都是非此即彼的簡單世界中的隱私政策要複雜得多。在我們的例子中,阻止低收入群體通過音樂或視覺藝術來表達自己的身份,這一點看起來是有問題的。然而,如果他們真的這麼做了,就有可能會被預測成為某一特定族群的人,而且他們事前並不知道泄露自己的音樂喜好會讓臉書推斷出一個「族群類別」,並基於這一條向他們播放廣告。

3.3

非預期重複使用的非預期結果

在大多數經濟模式中,消費者對數據保密性的預期有賴於其對數據用途預測的準確性。數據保密的一個問題就是,當人工智慧發展到一定程度時,數據將會以某種創造者都難以預料的方式被使用或重組。

同樣,這就引起了法律關注,對一個人的數據進行集群或「馬賽克」式分析比在孤立狀態下單獨分析每個數據要令人困擾得多。2012年美國最高法院訴安東尼?瓊斯一案的判決中,索托馬約爾法官寫過這樣一段廣為人知的贊同意見:

「我們需要重新思考要不要繼續假定既然一個人主動將信息泄露給第三方,那麼他就不能要求隱私權這個觀點…這一觀點並不適合數字時代,在這個時代,人們在進行普通工作的過程中就會向第三方泄露自己的很多信息。」

人工智慧系統已經展示出了自己的非凡能力,它將從一個人以電子為媒介的「普通工作」中收集到的信息加以分析,之後基於分析結果詳細描繪出一個人的品味、活動和意見。對公司來說,「馬賽克」式的分析方法存在著一定風險,即,過去人們認為一些數據 「不能進行個人識別」或「不是個人敏感信息」,如五位數的郵政編碼、性別或年齡(誤差不超過十歲),但這些數據一旦被現如今的演算法加以收集和分析,結合起來就很有可能足夠識別出一個人。

人們對未來數據使用普遍持有的不確定性,再加上人們確定這些數據對公司可能會有用,這兩個因素影響了消費者們清楚地做出自己是否願意創造並分享數據的決定。隱私數據將被如何使用這個問題的圍繞著許許多多的風險和不確定性,這將暗示個人在處理自己隱私上的優先選擇。

4

數據溢出、人工智慧與隱私

在美國,隱私是一個人的權利,尤其是一個人獨處不被打擾的權利(沃倫和布倫迪斯,1890)(在這一特殊情況下,是指不被記者偷拍的權利)。

經濟學家們致力於創造出一個效用函數,用來反映隱私已經影響到了個人主義的觀點。一個人會顧及自己與公司的互動所產生的潛在後果而選擇對自己的信息保密(或不保密)。到目前為止,他們的隱私模型還沒有反映出他人的偏好或行為會在這一過程中產生溢出效應的可能性。

5

某些數據或許本身就會產生溢出

舉一個例子,在基因學上一旦一個人決定創造自己的基因數據,那麼對他的家庭成員來說後果就立刻出現了,畢竟一個人的基因數據與他家庭成員的基因數據在很大程度上是相似的。一旦有人把自己的基因檔案上傳至23andme.com,對於他們的親戚來說就造成了隱私溢出。如果利用某個人的數據預測出他晚年時視力會很差或是會患黃斑變性,那麼利用這些數據就可以預測他的親屬以後也會遇到這些問題,這是因為大家的血緣關係很近。

自然,人們也希望一個人能夠內化基因數據所揭示的家庭成員間潛在的外部性,但看起來,當這樣的內化不發生、外部性十分明顯的情況下,人們之間產生隔閡並不是個難以置信的事。

在二進位數據領域之外,還有幾種數據自然而然的就會產生溢出,其中包括在公共場合拍攝的照片、視頻和錄音數據。人們創造這種數據的目的可能非常單一,如為了娛樂而拍段視頻留下美好的回憶,或是提高安全性,但是這些行為會在其他人不知情的情況下記錄下他們的聲音或圖像。從傳統意義上說,隱私權的法律模式在以下兩個場合是截然不同的:一是人們期望得到隱私權的私人場合,二是人們不太要求隱私權的公共場合。例如,在1988年加利福尼亞州訴格林伍德案中,最高法院否認了個人對其放在住宅路邊的垃圾享有合理的隱私期待。

然而,在這個人們大量使用移動設備、拍攝很多照片的世界裡,面部識別技術可以準確地識別出每一個出現在公共場合的人,而人們往往很難避免這樣的識別。對於「我們在公共場合不能要求隱私」這一概念往往有以下兩個錯誤解讀:一是一個人在公共場合暴露的時間往往很短而難以記錄下來,二是一個人在公共場合的行為通常不會被記錄下來,將來也就不會被拿來使用。結果,先進的科技擾亂了人們在創造數據時對財產權利的核算。特別是,有些記錄下我們在公共場合行為舉止的錄像帶可以用來準確預測出一個人的結果,比如健康結果,而目前我們尚不清楚,這些錄像帶在我們不要求隱私權、或至少我們無法控制數據創造的情況下,是如何被挪出考慮範圍的。總之,由於在某種意義上這些新型數據會自然而然的創造出新的數據,它們正慢慢使從前很容易定義的數據上的財產權利變得越發模糊,而數據上的財產權利對於大部分隱私經濟學模型來說都是不可或缺的。

5.1

演算法本身就會在多個數據間產生溢出

人工智慧及其自動預測的功能的主要結果之一,就是在個人和其他經濟因素之間可能會產生溢出。如果一個人決定對某個信息保密,而這一保密行為可以被人工智慧加以利用推測出這個人其他方面的行為舉止,那麼這個決定就產生了溢出。

研究調查記錄下了看起來有歧視性的演算法結果,並認為這種結果的產生的原因在於,演算法自己學習了人們所提供給它的行為數據,之後變得有偏見了(奧尼爾,2017)。記錄在案的演算法歧視行為跨度很大,如它更傾向於認為亞洲人會使用應試軟體,遇到黑人名字時更喜歡向他們推送查詢「犯罪記錄」的廣告,女人很難看到高級管理人員培訓廣告(2015)。

通常人們認為這種「基於數據的歧視行為」只是個私人問題(卡斯特斯等人,1866)。爭執的焦點是,用人們自己的數據來歧視他們,是一種非常令人討厭的行為,當他們一開始就並不明確同意這種信息收集行為時更是如此。然而,儘管在法律導向的、基於數據的關於歧視的作品中並不經常被拿出來討論,人們對基於數據的歧視行為的潛在可能性所表現出的擔憂,與早年間關於統計學歧視的經濟學作品之間,有些千絲萬縷的聯繫。有的人認為,僱主利用一般的數據推斷出女性的生育決定和結果、進而推斷出自己的一位女性僱員對生育的期盼和行為,這一舉動非常令人反感,而用來做出這種推斷的演算法同樣令人反感。這種利用演算法得出統計學上的歧視的事例也許就能反映出個體之間預測力的溢出,而反過來,它未必能被每個個體內化。

然而,截至目前,人們幾乎沒有試著去弄明白為什麼廣告演算法能夠明顯具有歧視性結果,或者數字經濟本身有沒有在這顯而易見的歧視行為中發揮作用。我認為,除了與統計性歧視的經濟學作品擁有明顯的相似性之外,有時明顯的歧視行為可以被看作是演算法做決定時的溢出。這就使隱私問題變得不僅僅是一個人的數據被用來歧視他們自己的問題了。

在蘭博瑞和塔克2017年的研究中,我們討論了一個關於明顯的演算法偏見的研究。我們用了一組現場調研得來的數據,該數據統計了在科學、技術、工程、數學領域(即STEM)貼出的一則招聘廣告的展示,結果表明這則廣告很少會被展示給女性。這似乎就是演算法的結果,因為廣告商希望這則廣告是性別中立的。我們得出了許多結論來解釋,為什麼演算法會如此明顯地表現出歧視。我們排除了那些特別明顯的解釋,如,絕對不是因為預測演算法可以播放廣告的女性用戶數量少,以及絕對不是預測演算法認為女性不太願意點擊這則廣告——畢竟當她們看得到這則廣告時,點擊廣告的女性數量比男性數量要多。換句話說,這絕非單純的統計學歧視。我們還知道,並不是演算法習得了當地人長期以來對女性持有偏見的行文。我們從190個國家收集到了數據,之後看出我們得到的結論並沒有因為女性地位的不同而發生變化。恰恰相反,我們得到了證據表明,演算法正在對廣告商的溢出做出反應。對於廣告商而言,女性是寶貴的客戶群體,既因為從她們身上更有利可圖,也因為她們控制著家庭支出。因此,追求利潤最大化的企業往往在引起女性注意的廣告上花費更多,當它的目標群體是年輕人時更是這樣。廣告商中的溢出與演算法由於這種溢出而想要達到成本最小化的企圖加在一起,就可以解釋我們所判斷出的結果了。女性難以看到一則本意性別中立的廣告,罪魁禍首就是擠出效應。

簡單地說,我們的結論來自以下幾個因素:

1. 廣告演算法在設計之初就是用來盡量減少成本的,這樣一來廣告商的廣告成本就能盡量持續得久一點。

2. 其他廣告商認為,吸引女性的注意力更重要,投資回報也更高,於是為了讓自己的廣告能夠被更多女性看到,他們願意多花錢。

2017年蘭博瑞和塔克的研究探索出了十分明顯的演算法偏向,其原因就是對於兩個不同的組織,「一雙眼球」(注意力)的價值不同,這之間產生了清晰的經濟學溢出。例如,除了確保發布招聘廣告的公司了解潛在結果,人們很難知道需要什麼樣的政策進行干預,以及在何種程度上我們應當把它看作是隱私問題,而不是運用已有的處理歧視問題的政策工具來加以分析。

然而,這種溢出是另一個例子,來解釋在一個相互連通的經濟體中,明確把隱私看作只是某一家企業與某一位消費者之間交流的隱私模型,是怎樣變得不適合這個互聯經濟的。相反的,任何一個數據被某一家公司使用的方法本身就可能受到其他經濟實體的溢出影響,同樣的,影響的方式也是人們在創造數據時難以預料的。

6

結論

本文簡單地介紹了人工智慧與隱私經濟學的關係,強調了三個主題:數據持久性、數據再利用和數據溢出。這三個方面也許會對一個個體在效用函數中處理隱私的傳統方法提出挑戰,因為它們質疑了我們將如何為個體在自己創造以後會被演算法參考的數據時使用的方法這一概念做出模型。從最高級別上說,這表明在未來隱私經濟學的工作重點,可能會是在數據持久性和再利用中對隱私要求的動態變化,以及使人們逐漸模糊掉對數據財產權利要求的數據溢出,而不是更傳統的原子式、靜態的關注我們隱私權的經濟模型。

聲明

思想庫報告意在傳遞國際智庫思想,譯介文章觀點不代表本研究院觀點或立場。

譯:趙夢揚

校:Tina

編輯 | Tina

製作 | Tina


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 思想庫報告 的精彩文章:

TAG:思想庫報告 |