當前位置:
首頁 > 科技 > 談AI隱私泄露問題:理解AI,AI「理解」人類同樣重要

談AI隱私泄露問題:理解AI,AI「理解」人類同樣重要





大家知道,谷歌參與的美國軍事AI項目(Project Maven),一直遭受著包括公司內部科技巨頭在內的上千名員工的抗議,事件持續發酵,甚至蔓延到公眾。隨後新任谷歌AI負責人Jeff Dean表示:「谷歌不應該涉足自動化武器開發業務。」本月初,谷歌宣布停止續簽Project Maven的合同。








而今天,谷歌終於正式亮明態度,其CEO桑德爾·皮查伊(Sundar Pichai)發布了谷歌使用AI的七項原則。除了提到不會將AI技術應用於開發武器外,《原則》還包括:不會違反人權準則將AI用於監視和收集信息;避免AI造成或加劇社會不公等。



用皮查伊的話說就是:「AI能幫助人們完成許多事情,這是我們致力於AI研發的原因。但這種強大的技術也會帶來問題。」






 Google CEO 桑德爾·皮查伊(Sundar Pichai) 




今天,小編就結合近期發生的一系列事情,和大家探討下AI當前所面臨的首要問題:隱私泄露。




近期AI隱私泄露事件回顧



繼「Facebook泄露門事件」後,近日,臉書又因為隱私泄露事件再次登上頭條。然而,無獨有偶,AI隱私泄露事件時有出現。小編先帶大家簡單回顧下。




Facebook AI

的「道與魔」:幫助與出賣




據悉,Facebook正在嘗試使用AI和模式識別等技術,來識別具有自殺傾向的用戶。Facebook 的新型「主動檢測」AI技術,可掃描所有帖子中潛在的自殺念頭,並在必要時將有關心理健康的資源,發送給存在自殺風險的用戶或他們的朋友。甚至,會聯繫當地的緊急熱線,以幫助用戶。








據一項數據顯示,全球每40秒便有一人自殺,自殺已成為青少年死亡的第二大原因。就這一點來考慮,Facebook利用AI技術提前預防用戶自殺,是在服務大眾,做著有意義的事。而僅出於這一點,人們不會隨意地將其與隱私泄露聯繫在一起。然而,「迫不及待」打臉的卻是Facebook自己,沒錯,又一次打臉。




繼「Facebook泄露門事件」後(用戶數據被泄露,並被用於總統大選期的定向宣傳),近日,其又發生一件隱私泄露事件。




Facebook如何用AI來精準投放廣告





據悉,美國媒體The Intercept最新獲取了一份Facebook機密文件,透露出Facebook提供給廣告主的特殊服務:忠誠度預測。這是一項基於AI的服務,即預測用戶的未來行為,作為廣告投放的依據。




而「忠誠度預測」依靠的數據有:用戶位置、設備信息、所連接Wi-Fi網路的情況、觀看的視頻記錄、親朋好友的各種細節,甚至是和朋友聊天的內容。這些數據,無疑已經觸及到了用戶的底線。




然而,與之相比,世界範圍內的AI隱私泄露,似乎更無底線的樣子?




無獨有偶,

AI

隱私泄露不止於

Facebook




Facebook的AI隱私泄露事件,之所以擴散到被大眾快速知道,在於其知名度以及過往的黑歷史。然而,AI隱私泄露並非獨此一家。








去年5月,谷歌旗下的DeepMind獲取了,英國皇家慈濟NHS信託基金運營的三家醫院的160萬病人的NHS(英國國家醫療服務體系),其中包括HIV感染狀況、過去的吸毒量和墮胎信息等私密數據。




就國內而言,同年9月也發一件重大事件:浙江紹興警方查封了市場上最大的打碼平台「快啊」平台,並公布該平台利用AI技術,竊取了10億多組公民個人信息。據悉,「快啊」平台有一個破解、竊取、販賣和盜用個人信息,以實施詐騙的完整鏈條,其中AI技術運用在識別驗證碼這個環節。








再說近日,微博用戶「互聯網阿超」曬出一張截圖顯示:其某條微博點贊量超過3000萬,而他的微博粉絲卻只有1萬人。這正是因為微博的Timeline不再只是基於關注,而是與AI演算法結合起來。每一個內容都有被演算法推薦,進而有曝光和爆發的機會。








但這也意味著隱私泄露的可能。因為部分用戶可能主觀上,並不想讓自己發表的言論被更多人知道,甚至隨著信息的擴散,帶來的一些後續事情,還會影響到其正常生活。




而上述提到的幾例關於AI隱私泄露的事件,讓人不得不思考這麼一個問題:我們能否讓AI服務於人們的生活與工作的同時,又能避免其犯錯,例如泄露用戶隱私。





其實理解AI,和AI「理解」人類,同樣重要




首先要肯定

的是,隨著技術的發展,

AI

在人們工作與生活中扮演著越來越多、越來越重要的角色,有存在的合理與必然性,

所帶來的價值

無疑

是巨大的

。例如,

提高數據處理效率,改變行業等。

因而對於

AI

隱私泄露

這一

隱患

,人們只能正視、想辦法解決問題,而非漠視、逃避或其他。








要提高工作

與生活

的效率,觀察並詳細記錄

用戶

日常生活中的行為表現,收集

整理分析

,並

管理

這些信息,也是

 AI

需要

做的事。

那麼

用戶的隱私數據該如何保護?




對此,國內外部分企業,都在不斷地努力嘗試,以解決這方面問題。




不斷成立的

AI

倫理委員會:透明性是關鍵




2016年微軟成立AI倫理委員會「AETHER」,把全公司的產品部門、業務部門,還有更重要的法務部門集合在一起,以討論和解決AI相關問題。




同年,亞馬遜、微軟、谷歌、IBM和Facebook,聯合成立非營利性的人工智慧合作組織「Partnership on AI」(蘋果於2017年1月加入該組織)。該聯盟為開發AI系統的公司,提供了一個溝通平台,讓各方在一些有可能對全人類,造成巨大損害的問題上,尋求共同點。








然而,很明顯,僅僅建立AI倫理委員,並不能消除人們對AI隱私透露等問題的擔憂。因為實際上,除了知道該委員會成立了,具體的人們一無所知。例如,其究竟研究哪些工作?解決了哪些問題?有什麼重要的成果?似乎一直是被諱莫如深的(或者說,沒看到實效)。




對此,小編認為,AI相關技術和工作進展的透明性,也很重要。而麻省理工學院媒體實驗室的總監伊藤穰的看法,或許道出了關鍵:「需要將AI領域內發生的事情,傳達給關注AI未來的人。如果沒有對AI技術的理解,律師、決策者和一般公眾,就很難真正理解或想像AI的可能性和風險。」當然,也就無法更有效地避免或解決,類似AI隱私透露等問題。




知乎演算法機器人

「瓦力」:機器學習的可控性




不僅僅是國外,國內對解決

AI

隱私泄露等問題也在尋求解決之道。例如,

知乎

演算法機器人

「瓦力」

可實時高效處理多種場景,包含貼標籤、辱罵和歧視等各種不友善行為,

努力

減少低質和無關內容對普通用戶的干擾。








而華為很早就開始布局,智慧手機雲+端的隱私防護。發布麒麟970等人工智慧晶元。擁有強大的AI運算性能,並提供一整套的用戶隱私保護體系。華為消費者業務CEO余承東曾表示:「未來AI在終端上的實現,必須要通過端雲協同。」




在此,不得不提及霍金曾提出的:「AI的真正風險不是惡意,而是能力。一個超級聰明的AI會非常擅長實現它的目標。如果這些目標與我們的目標不一致,我們就有麻煩了。」








上述這些,多少都體現出AI演算法的重要角色。要知道AI是依賴於機器學習(深度學習)

演算法的,是需要大規模訓練數據的。那麼,

如何搜集數據、提供怎樣的數據,最終賦予

AI

怎樣的「判斷力」,讓其更好地理解人類,避免無意識地犯錯,減少隱私泄露、歧視等問題的發生,也是應當被著重考慮的問題




面對當前

AI

所面臨的隱私泄露等問題,小編認為,當前最能理

AI

的,還要數運用這一技術的公司及其技術人員,因而相較於普通人,他們無疑更應當承擔起讓

A

I

更好地

「理解」

人類的責任。








正如扎克伯格在聽證會上所說的:「我們不僅僅應當研發和利用AI技術,還有責任更好地正確運用AI技術。」相信大家和小編一樣期望,更多的AI公司能有自己的「原則」(如同Facebook這次所公布的《原則》),並能真正堅持這些原則,讓AI更好地為人類服務。




本文屬VRPinea原創稿件,轉載請洽:

brand@vrpinea.com






喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 VRPinea 的精彩文章:

騎勇大戰4.0版本來襲,VR觀賽體驗嘗試一下?
HHI帶來全新VR視頻編解碼器,夏普將展示其8K生態系統

TAG:VRPinea |