當前位置:
首頁 > 最新 > Facebook危機大數據殺熟警示人工智慧欺騙對人類的巨大威脅

Facebook危機大數據殺熟警示人工智慧欺騙對人類的巨大威脅

前兩次工業革命發明了機械、電能,起到放大人類的體能的作用,而信息時代第一次觸及到人類的精神層面,放大的是人的意識。人的善惡都被放大了數倍,聯動業已成熟的機電系統,傳導到實體世界。這種被放大的善惡對實體世界的影響巨大而深遠。

臉書事件、大數據殺熟終於揭開信息時代陰暗的一角。在信息時代,資本還是唯一推動技術應用的力量,這種力量也被放大了數倍,左右著人類發展進程。

最近爆出2016年特朗普競選團隊投入巨資聘用AI公司Cambridge Analytica非法利用5000萬Facebook用戶信息,在用戶不知情的情況下通過刻畫用戶心理征,精準推送真假新聞,用以影響這些用戶立場,進而幫助特朗普上任。

第一次,大數據殺熟的新聞見諸各個媒體,比如兩個人打車,走相同的路線,一個新人就能得到便宜的價格,一個經常打車的人得到的價格就高一些,如果這兩個人沒有溝通,他們是無法知道這樣的區別的,這就是殺熟。平台公司通過收集消費記錄或者瀏覽習慣,利用大數據工具深入挖掘消費者的喜好,建立消費者數字畫像,預測消費者消費行為。可以說一個團隊利用大數據工具對消費者個人的研究,可以達到比消費者本人更加了解自己的程度。信息時代浩如煙海的信息,平台對信息的絕對掌控權,原本應該透明的信息,變成了平台營銷工具的一種,讓消費者的隱私無所遁形。這種情況下,對消費者個性化定價也就不足為奇了。

而這一切僅僅只是剛剛開始,大數據的應用從廣度和深度都還還處於初級階段,更別說人工智慧的應用了。僅僅在這個階段的一些負面應用,就已經造成如此大的影響,資本利用信息不對稱或者逼真的虛假信息,成功地在商業上實現個性化定價,在政治上實現洗腦。可以想像,隨著大數據技術的深入應用,人工智慧應用的深入研究,總有一天,被資本控制的信息會讓你在不知不覺中上當受騙,生活在一個虛假的世界裡,再也沒有能力辨別真假,就像一個在夢中的人無法叫醒自己一樣。

這還只是在商業和政治領域,一個大不了讓我們損失金錢,繼續著被剝削的命運,一個可能讓我們喪失民主,失去了判斷力,繼續臣服於資本,而最可怕的是文化的造假,有可能讓我們迷失整個人生的真相。

最近的一個新聞讓我們看到了一絲這樣的端倪。

由Epic Games和騰訊合作的Siren是一個基於計算機視覺等技術構建的數字人,她擁有逼真的眼睛、皮膚和頭髮,細節方面達到了前所未有的程度,還具備強大的人類表情動作實時捕捉以及合成技術。在一次演示中,一位真實的女性人類在現場侃侃而談,她的表情、動作、聲音,被實時的賦予身後大屏幕上的女性數字人類Siren,創建了一個可以實時互動、讓人信任的數字角色。

這樣的技術如果用於欺騙,那是再合適不過的了。想像一下,某一天一位重要的公眾人物,出現在新聞視頻中,向世界宣布一個重大的決定,會引起怎樣的影響。如果在大範圍出現各種數字人,在虛擬世界我們根本無法分辨真假,沒有人能知道真相,就連始作俑者也可能失去對信息的控制。

到那時,不用波士頓機器人嘩變,僅僅是虛擬世界就能造成人類社會的混亂。也許這就是霍金對發展人工智慧的警告的一部分,也是馬斯克反對人工智慧無節制地發展的理由。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 行者啊 的精彩文章:

手機界最腦殘的設計和最無腦的跟風
專註於做事而不是做人,國運才能昌盛

TAG:行者啊 |