當前位置:
首頁 > 最新 > 隱私是人性,真的可以用來換效率嗎?

隱私是人性,真的可以用來換效率嗎?

文/古城:北京華宇元典信息服務有限公司運營總監

互聯網上從來不缺少新鮮事,也不缺少大事。

這次的大事和新鮮事,一西一東,先後發生。先是Facebook泄露用戶信息面臨天價賠償,似乎是為了聲援Facebook,百度的李彥宏先生表示「表示中國用戶在私人隱私方面更加開放,一定程度上願用隱私換方便和效率,但百度也會遵守相應法規規則」。

兩件事情的落腳點都是私人數據以及與之相關的隱私保護。

不過我們真的是在談論隱私嗎?

在我看來隱私和私人數據實際上還是有一定差距的,私人數據是一種【表層的信息載體】,而隱私性質上更接近於人性,這種人性是不能、也無法用來【換】效率的。

用一則小故事說明下:

科幻作家劉慈欣寫過一篇小說,叫做《鏡子》。小說的核心是一款鏡像技術,通過鏡像技術我們可以隨時隨地「看到」某私人的作為。作為科幻小說,鏡像技術是否會出現似乎是很遙遠的事情。但小說中對鏡像技術的探討卻值得我們深思。

小說中一共有三撥人,我們姑且稱為「好人」、「壞人」和「不好不壞的常人」。

三種人對鏡像技術有三種不同的看法:

好人認為鏡像技術應該大力推廣,這樣整個社會就處於監控之下,社會上的「醜惡假」都會消失,一個「完美」的社會即將來臨。

壞人當然不喜歡鏡像技術,他們認為這是災難。鏡像技術將他們暴露在陽光之下,讓他們「不敢」做壞事。

常人說的話挺有意思,他說「每私人心裡多多少少都有點齷齪事,整天在鏡像監控之下,這TMD真不是人過的日子」。

作為一個常人,我很贊同「常人」的觀點。

在我們的世界中,好人、壞人真的只是那麼「一小撮」的存在,大部分的人是「不好不壞的常人」。而對於常人來說,每私人心裡多多少少都有點齷齪事或者說不願意為他人所知道的事情,這就是隱私。

隱私的概念提出之後,法律界相對應地提出了隱私權的保護,希望通過法律的方式去維護我們「做」一個常人的權利。但遺憾的是進入互聯網時代,真的出現了「鏡像技術」,這就是以感測器、移動終端、大數據為內容的互聯網技術。而2013年的「稜鏡門」事件更是將互聯網對公眾隱私權的侵犯推到了一個風口浪尖。

之前網路上流行過一篇文章,是關於大數據的,講的是一位顧客去買蛋糕,蛋糕店的服務員根據大數據了解到這位顧客的年齡、身體狀況、家庭成員、汽車所在,並結合這些數據信息給他推薦了一款合適的蛋糕。

看到這篇文章,不少人會說「這真是一個美好的時代」,希望說這些話的人是「好人」。

但我看到這篇文章確實驚出了一身冷汗。隨著互聯網技術的發展,我們的出行數據、消費數據、身體數據等各個方面的私人數據都會被採集,通過對這些數據進行分析就可以準確地給我們「畫像」。

這個時候【隱私和私人數據】出現了融合,通過對私人數據多維度採集和聚合分析,就可以從表層的數據【窺視】到深層次的隱私。

網路時代,在某種意義上可以說私人數據就是隱私,隱私就是私人數據。

但問題在於這些私人數據最終會掌握在誰的手中、會被用來做什麼?

私人數據掌握在一個蛋糕店服務員的手中,頂多也就是幫助他多買出幾份蛋糕。但如果這些信息掌握在我們所謂的「壞人」手中,結果就會有所不同。最近網路上流傳清華大學教授被騙,雖然不知道這個教授怎樣被騙,但如果這些騙子通過大數據對教授進行分析,恐怕會增加成功的幾率吧!

這種情況正如弗蘭克·帕斯奎爾在《黑箱社會》中的描述。

社會個體不知道自己有多少信息被記錄了,這些信息會傳播到什麼地方,也不知道哪些人會使用它,使用這些信息的目的何在,更無從知道這些信息的泄露會產生怎樣的後果,依據這些信息所做的判斷是否準確,是否存在偏見或破壞性?

對目前的人類社會來說,我們的生活越來越靠近這樣一個神秘的黑箱。互聯網技術讓我們趨向於「黑箱社會」,而黑箱社會下的隱私權應該如何去做保護呢?

早期的做法比較通用,就是同意承諾。比如一款移動考勤app在使用之前會告知我們將通過GPS對我們進行定位,同意的繼續使用,不同意的及時卸載。其中最惱人的莫過於微信,加入百人微信群之前需要通過綁定銀行卡進行實名認證,同意的請綁定,不同意的請退出。這種方式的弊端在於一方面我們不是專業人士,無法判定私人數據會以什麼樣的方式被採集,更無法知悉這些數據的用途以及是否會泄露(雖然這種泄露可能不是app本身的意願,比如之前印象筆記用戶數據的泄露),另一方面我們處於一種「被綁架」的狀態,如同擔心會被計程車拒載一樣,面對微信的「綁架」我們只能順從。

早期的同意承諾依據的是我們現實中的法律,但進入互聯網時代,現實法律能發揮的作用已經很有限,於是有人提出了「法律代碼化,代碼即法律,法律即代碼」,規制互聯網行為依靠的是代碼、是由代碼產生的演算法,這才是互聯網環境下真正的「法律」。

對於這一觀點其實也容易理解,比如百度的競價排名,從技術角度看競價排名本身是一系列代碼,而從規則角度看這些代碼組成了百度檢索的推薦規則,形成了檢索領域的「法律」。

既然互聯網環境「代碼即法律」,那麼我們關注的對象也應當集中在代碼上。如何做代碼的監控以保護我們的隱私權呢?

這裡舉個簡單的例子,熟悉瀏覽器技術的人都知道瀏覽器中有一個叫做「cookies」的功能。Cookies類似於一款追蹤工具,可以自動保存我們瀏覽網頁的歷史,我們用了什麼檢索關鍵詞、瀏覽了什麼網頁、瀏覽多長時間都會通過Cookies了解到。而對瀏覽隱私的保護,無非就是一種辦法,刪除Cookies或者對這項功能做限制。這就是所謂代碼管制。

同樣的,我們的購物信息、網路閱讀信息、出行信息想要得到保護,不可能通過傳統的法律實現,而是應當通過這種代碼管制實現。但問題來了,誰能控制這些代碼?

說實話這個問題沒有答案,也許以後會有答案,但這個答案一定是博弈的結果,比如美國政府與Google、Apple公司的博弈。

對於互聯網時代我們的隱私權如何保護,目前也是一樣,處於一種混沌期,沒有一個明確的答案,我們所能做的就是指明一個方向:互聯網時代,代碼就是法律,我們需要重新認識代碼法律對我們的影響和保護。

註:本文僅代表作者個人觀點


3月23日,網友@EricTsui在微博發布消息稱,使用「滴滴打車」時發現從相同的出發地到目的地,不同用戶顯示的價格不一樣。同日晚間6時,「滴滴出行」官方微博發出了CTO張博在企業內網的公開信截圖,稱「滴滴從未有過任何『大數據殺熟』行為,以前沒有,以後也不會有」。據介紹,「預估價」和「實付車費」是不同概念,客戶定位、實時路況、優惠券、客戶網路環境等對價格也有影響。該回應雖然緩解了一些質疑,但網民追問仍在繼續。

隨著「大數據殺熟」話題的持續,更多疑似「殺熟」行為進入公眾議題,在線票務、旅行網購、酒店預訂、網購電影票、視頻網站會員等更像是「殺熟」的重災區,各家企業能否澄清疑雲,尚待觀察。

圖:「大數據殺熟」話題波及大量互聯網企業

(單位:篇)

大數據能否「殺熟」?

伴隨大數據興起,演算法越來越高級,信息定製化足可以滿足人們多元化、個性化的需求。大數據可以通過採集社交數據和行為數據為網民進行精準畫像,從而降低用戶獲取信息成本,為生活增添便利。但從另一方面,精準的用戶畫像也局限了信息接收的範圍,讓用戶沉迷於他們最初想看的內容,無形間強化了用戶的偏見和嗜好,從而形成「信息繭房」。

「殺熟」的前提是平台要掌握個人信息、行為習慣等數據。據報道,北京交通大學信息安全系主任王偉認為,「大數據殺熟」在技術上很容易,沒有什麼難度。大數據技術可以實現「千人千面」,對不同會員等級用戶定價在2013年左右就實現了,現在只不過還不夠精細化。

「大數據殺熟」違法違規嗎?

互聯網公司得到了海量用戶數據,他們會用數據為用戶提供更好的服務,還是忍不住「算計」客戶,謀求企業利益的最大化?

目前被曝光的疑似「大數據殺熟」行為,涉及諸多領域,具體消費場景和產品服務類型也是千差萬別,影響因子包括:市場價格波動影響,新老會員的價格差距,蘋果與安卓等不同終端價格差距,客戶消費默認升級,根據用戶「畫像」制定不同售後服務,搜索行為數據的不同平台共享,等等,多種因素不可一概而論。君子愛財取之有道,是否真的有互聯網平台見利忘義?

網民關切的核心點在於,老客戶所需支付的金額明顯高於「正常價格」,甚至同一時間、同一地點、同一產品在不同人的終端呈現不同價格。如能排除不同用戶網上訂購產品服務的瞬間時間差因素,這種做法顯然背離公平誠信的價值原則。

從市場經濟學角度看,對不同消費能力的群體差別定價是正常現象。然而,同一時刻對同一產品的差別定價,將消費者蒙在鼓裡隨意加價,恐怕是企業損害消費者權益的高技術任性。面對誘惑,企業是否應放眼長遠呢?

電子商務研究中心主任曹磊認為,目前看來這還只是一種「擦邊球」,很難界定。理論上講,商家和電商平台都有權對同一件商品進行不同的定價,而不是全部要統一定價。

也有專家認為涉嫌違規。中國消法研究會副秘書長陳音江表示,「經營者可以根據市場供需自由確定部分商品價格,但前提是要遵循公平、合法和誠實信用原則,不能利用大數據技術對不了解真實價格的消費者故意提高價格。這種利用虛假或者使人誤解的價格手段,誘騙消費者作出購買選擇的做法,涉嫌價格欺詐。」

用戶數據知情權和隱私保護

中國的移動消費和移動支付這些年發展勢頭迅猛,也有人執著於現金支付,不希望自己每天的行為軌跡掌握在一些商業公司手裡。

平台與用戶之間圍繞數據的爭議,說到底反映了用戶面對互聯網超級平台的擔憂。一些互聯網企業隨著市場份額的增大,面對政府監管的博弈能力越來越強;而用戶和消費者面對互聯網企業的博弈能力卻不見增長,難以達到相互制約的社會平衡。

這個問題的深層邏輯,首先是用戶授權和數據佔有,其次是平台方日常如何合法使用用戶數據,第三是用戶隱私權與知情權保護,第四才是平台濫用或侵害用戶利益後的法律和行業規範問題。「大數據殺熟」最深層的問題,在於如何加強用戶數據隱私權的保護,以及平台如何確保不把用戶數據用於對用戶不利的行為或傷及公平,並在此基礎上建立法律、行政、行業、宣傳等配套管理支持體系。

互聯網平台的隱私權始終是公眾最敏感的問題。除了Facebook近日深陷泄密門,遭遇前所未有的危機。近日,百度公司董事長兼CEO李彥宏在2018中國發展高層論壇上有關中國人願意用隱私交換便捷性的一段發言,也在輿論場上引發爭議。李彥宏發言有當時的語境,但遭致網友的質疑。越大的網路平台,越要理解用戶對自身權利保護的無力感和「集體焦慮」,審慎面對公眾的授權,小心呵護公眾的信任。

國外是否有經驗可供借鑒?

國外也有過企業因大數據問題給用戶帶來的困擾。亞馬遜曾在2000年時被曝出差別定價,用戶刪除cookie數據前後所顯示的價格不同。CEO貝索斯在事後道歉稱,這一切只是「實驗」。近日眾所周知的更大新聞,Facebook創始人馬克·扎克伯格剛剛因為泄密門在9家報紙上為「信任的違背」登報道歉。「這是對信任的違背,我很抱歉我們沒有在當時做得更多。」報紙頁面上還用較大字體寫著,「我們有責任保護你們的信息。如果做不到,我們就不配提供服務。」有消息稱,如調查屬實,Facebook也將遭遇有史以來的天價罰單。

近年來,網路數據隱私保護已經成為全球性熱點,不能只靠企業自覺和行業自律,各國相關的法律法規逐步完善。2016年4月14日,歐洲議會投票通過了被稱為「史上最嚴格數據保護條例」《一般數據保護條例》(GDPR),並將於2018年5月正式生效,取代先前制定的《個人數據保護指令》。互聯網組織自由收集、分析和管理用戶信息的許可權會被嚴格限定和監管,互聯網個人信息保護力度達到了前所未有的高度。

網路消費者如何保護合法權益?

有微信公眾號認為,在批評商家「宰熟」、呼籲政府監管的同時,不能忽視用戶個人行為的校正和安全意識的提高。用戶較為薄弱的信息安全意識,和一些如隨意授權、忽視使用條例等的不良使用習慣,往往使他們陷入自覺透露隱私、主動讓渡利益的境地。

對此,網路消費者應該提升大數據素養和新媒體素養,養成良好的自我保護意識和權利意識;同時科學地看待用戶數據的上傳和使用,不因斧聲燭影、誤解誤讀,而誤傷互聯網平台。

也許是虛驚一場,但請面對「集體焦慮」

2018年初,「支付寶年度賬單」默認用戶同意《芝麻服務協議》,賬單查詢服務涉嫌套取公民個人信息;法院立案受理一起民事公益訴訟案件,原告江蘇省消費者權益保護委員會指出,「手機百度」「百度瀏覽器」兩款手機軟體在未取得用戶同意的情況下,獲取監聽電話、定位許可權。這兩件事在輿論場上引發有關互聯網大數據安全的吐槽。

《中國青年報》的「青年調查」對2008名受訪者的一項調查顯示:63.4%的受訪者認為互聯網企業利用大數據「殺熟」情況普遍;51.3%的受訪者遇到過互聯網企業利用大數據「殺熟」的情況;59.2%的受訪者指出大數據面前信息嚴重不對稱,消費者處於弱勢;59.1%的受訪者希望價格主管部門進一步立法規範互聯網企業歧視性定價行為。

這次疑似「大數據殺熟」事件,也許只是消費者虛驚一場,但再次警示,互聯網用戶的知情權和隱私保護,是一個需要各方嚴肅思考和對待的問題。媒體和網民的輿論監督,行政監管部門的切實管理,法律和行業規範的完善和執行力度,都需要提上議事日程了!

3月28日,《人民日報》評論指出,「大數據殺熟」帶來監管挑戰,認為「任何技術的價值觀,說到底還是人的價值觀。技術中立不代表對技術的使用是無害的,失去道德與法律的約束,就會有碰觸底線的危險。」面對可能存在的市場失靈問題,人民網總裁葉蓁蓁曾提出「黨管數據」的命題,黨和政府管數據主要是管發展、管規則和管安全。這一觀點在業內引發了廣泛關注和輿論共鳴。

(作者系人民網大數據輿情分析師)

聲明|本公號內容允許轉載,但需註明作者及出處,且未經許可不得擅自改動,違者必究。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 中華元智庫 的精彩文章:

「開放」的美國為啥「極端封閉」

TAG:中華元智庫 |