當前位置:
首頁 > 最新 > 萬萬沒想到,AI也有腹黑那一天……

萬萬沒想到,AI也有腹黑那一天……

一說起AI乾的壞事,創投君就會想到電影《我,機器人》那群披著「遵守規則」的「小馬甲」,卻背叛人類的機器人,還有那個《黑客帝國》中被AI控制的現實世界。

科幻世界中,人工智慧背叛人類的戲碼,一向是「AI威脅論」的終極恐懼。每想到這個問題,創投君心中總有個聲音在呼喚:威脅還早著呢。雖然心存顧慮,但好在離我還遠。

可是,耍起壞心眼的AI真的離我們很遠嗎?

這不,來自牛津劍橋的26位技術專家發布的最新報告顯示,我們身邊可能早就埋伏了來自AI的各種威脅。

不信請看……

任何事物都有兩面性。

AI也不例外。

一位家長,收到女兒焦急的語音信息,說她在旅行途中丟了手機和錢,她現在需要緊急的幫助。這個聲音你再熟悉不過了,確實是女兒。

當然這是個騙局。而且不是虛擬的,已經有上千個家長遭遇這樣的詐騙事件。他們在手機上聽到的聲音,是通過AI技術以低廉的成本合成的。

人工智慧技術取得了長足的進展,但也和很多其他強大的技術一樣,也是一柄雙刃劍。AI既能造福人類,也能被罪犯、恐怖分子所利用。

惡意的使用人工智慧,不僅會威脅到人們的財產和隱私,而且還有可能帶來生命威脅。無人機、無人車或者智能醫療設備,都有可能帶來隱患。

未來你所看到的視頻、聽到的聲音,有可能都是AI偽造的虛假內容。耳聽眼見也不一定為實。AI能讓小團隊擁有大軍一般的破壞力。

這不是聳人聽聞。

最近26位來自牛津大學、劍橋大學、OpenAI和電子前沿基金會(EFF)的研究人員,共同撰寫了一份報告,詳細研究了這個問題。報告的名字就是:

《AI能幹什麼壞事》(The Malicious Use of Artificial Intelligence)

AI能用來幹什麼壞事?專家們在這份101頁的報告中描述了不少假想的未來場景,雖說是假想,但我們距離這些危險,只有一步之遙。

投其所好的釣魚攻擊

其實,在網路世界中威脅早已無處不在,有了AI的幫助,這些威脅會以更隱蔽、更「個性化」的方式出現。

比如說,未來黑客偷走你重要用戶名、密碼的方式,可能會非常「用戶友好」。

報告里,描述了這樣一個假想場景:

刷著刷著,Jackie眼前一亮,一套火車模型的廣告出現在信息流中,還附帶使用手冊。迷戀火車幾十載,怎麼能錯過這樣的好東西!下載、打開,只需要一分鐘。

而這背後,可能就是黑客精心設的局了。AI能夠從她日常發布的點點滴滴動態、照片中分析出她的喜好,知道她和謝耳朵一樣為火車痴狂。為她設計這樣一個小冊子,再投個feed流廣告,可以說是投其所好、水到渠成……地拿到了她管理大廈安全系統的用戶名和密碼。

防不勝防。

更聰明的自動化病毒

還記得去年春天席捲全球的WannaCry病毒嗎?它能夠自我複製、主動傳播,向10萬多台電腦發出了勒索。

未來的自動化病毒,會比WannaCry難對付得多。WannaCry的傳播方式,是尋找網路中開放的445埠,也就是說,它的自動化傳播依靠人類制定出來的規則。如果病毒能自主發現各類軟體的漏洞……

Wait!自主發現軟體漏洞的技術,其實已經存在了,不少大公司、政府機構都利用這類技術來維護自身軟體系統的安全。

於是,就有東歐黑客集團利用類似的技術,搞出了一個WannaLaugh,後果會比WannaCry慘烈得多:

WannaLaugh激活之後,一邊利用已知漏洞感染計算機,一邊源源不斷地發現著新漏洞。當然,防禦完善的計算機可以幸免於難,但這畢竟只是少數,稍微舊一點的手機、電腦、智能設備通過各種新老漏洞,逐一被病毒控制。

這一次,肯定不止10萬台。

你身邊的機器人,都是武器

等商用無人機、無人車、機器人普及,毫無疑問會帶來很大便利。不過,這種便利是我們的,也是犯罪分子的。

比如說,以後的暗殺可能根本不需要出動人類。

報告中這一假想場景的主要受害人是德國財政部長:

某年,一台SweepBot清掃機器人悄悄潛入了德國財政部地下車庫,等待著同類的接近。財政部每天清掃辦公室,用的正是這個品牌的機器人。

兩台財政部自己的SweepBot清掃車庫時,外來的潛伏者抓住了機會,跟在它們後邊,大搖大擺地進了電梯,混進了雜物間的一大群SweepBot之中。

6月3日,潛入進來的清掃機器人和往常一樣,打掃著財政部的辦公樓。這時,財政部長從它身邊走過。SweepBot附帶的人臉識別系統一下子就認出了它,也激活了接下來的任務。

撲向他,引爆內置的炸彈。

清掃機器人銷量巨大,它背後的人類主使是誰幾乎無處可查。當然,如果黑進無人計程車搞一次類似的事件,也是一樣的天衣無縫。只要機器人改裝完畢、程序設定完成,何時啟動、如何完成任務,就再也不需要人類來操心了。

如果你覺得這個故事聽起來和人類卧底暗殺差不多,可以再仔細思考一個問題:

一名人類,通過改裝這種機器人,可以同時暗殺多少人?

二零八四

電幕(telescreen),對《一九八四》里的老大哥來說是監控利器,但對於21世紀的新老大哥來說,只能算小兒科。

有了AI,你的一舉一動都可能在老大哥的注視之下。

報告中講了這樣一個「社會活動家」鋃鐺入獄的故事:

Avinash對於這個社會很是不滿:到處是黑客,政府也不管。他在關心時事,看到了太多大公司為富不仁、政府無所作為的新聞,也寫了不少抨擊時政的博客。

一個有理想的青年不能只做鍵盤俠,Avinash還打算到線下去,刷牆、貼大海報、在公眾面前喊出他的憤怒。他買了海報紙、自噴漆,甚至還為了製造演講之後的離場效果,買了幾枚煙霧彈。

警察甚至比這些包裹先到。

剛下單沒多久,警察把他從辦公室帶走了,罪名是他們的「社會動蕩預測系統」認為他是潛在威脅。

當然,這個故事可能還有另一面。

Avinash看到的那些新聞,雖然看起來有理有據,卻還是有真有假。憑空製造一段名人演講簡直太容易了,人臉、聲音,AI都能模仿得絲毫不差。

在個性化推薦演算法的重重包圍下,他可能永遠沒機會看到這個社會積極的一面。除了真假摻半的新聞,向他這類人投放廣告的政治團體,也不會少。

被監視,被控制。這就是Avinash的生活。

以上故事純屬虛構,如有雷同,純屬技術發展太快。

結論

雖然仍有許多不確定因素,但很明顯人工智慧將在未來的安全形勢中佔據顯著位置。惡意使用AI的機會比比皆是,而且還會越來越多。

人工智慧目前已經在很多狹窄領域達到或者超過人類的能力,例如西洋雙陸棋、國際象棋、Jeopardy!智力問答、Dota2以及圍棋等。在遊戲領域之外,人工智慧也已經應用在股市投資、自動駕駛汽車等領域。

因此準備和預防潛在的AI惡意使用已經是一項時不我待的任務。

未來隨著AI進一步拓展到更多領域,例如社交互動,將會出現更多難以抵禦的AI惡意攻擊。屆時對抗AI的方法可能是另一個AI。但僅靠AI防禦仍然不夠。

《報告》建議研究人員和決策者應該從防止和減輕惡意AI使用的角度,推出合適的AI工具、策略和規範。

換句話說,這份報告也不太確定應該如何應對這些威脅。

這份報告的作者之一、OpenAI政策總監Jack Clark,承認安全問題非常棘手。「總有一條難以置信的優秀路線能走下去」他說。

當然對於這份報告,也不乏質疑之聲。

美國俄勒岡州立大學教授Thomas Dietterich指出,這份報告的作者不包括計算機安全專家,也沒有來自谷歌、微軟、蘋果公司的成員。他說:「這份報告看起來像我這樣的善意外人寫的,而不是每天都在打擊網路犯罪的人。」

這份報告的通訊作者是:Miles Brundage(牛津大學)、Shahar Avin(劍橋大學)。其他作者如下圖所示:

可能你還想看這些文章

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 聯想創投 的精彩文章:

這屆CES,真是充滿「聯想」!

TAG:聯想創投 |