當前位置:
首頁 > 新聞 > 人工智慧遭遇可靠性危機,人類通過小伎倆就能欺騙人工智慧系統

人工智慧遭遇可靠性危機,人類通過小伎倆就能欺騙人工智慧系統

人工智慧技術發展到今天,它已經可以準確地識別圖片中的對象和人類的語音,但是,它們目前使用的演算法與人類大腦的工作方式並不一樣——這意味著人類有可能藉助某些伎倆來欺騙人工智慧系統。

據《新科學家》報道,來自以色列巴伊蘭大學的研究人員和 Facebook 的人工智慧團隊已經表明,可以對音頻剪輯進行細微地調整,使語音識別系統理解出與音頻完全不同的內容,但是這些細微的調整並不會影響人類對音頻的正確理解。

實際上,這樣的情況並不僅限於語音識別,在圖像識別等領域同樣存在。在訓練人工智慧系統的過程中,在正常的輸入樣本中故意添加細微的干擾以誤導機器學習演算法,使人工智慧系統產生錯誤的結果,這種添加了細微的干擾以誤導機器學習模型的樣本,就是「對抗樣本」。

如果有人惡意使用對抗樣本,它可以用來欺騙自動駕駛汽車,使其不能識別道路上的停車標誌,進而引發事故;可以欺騙語言識別系統,讓系統聽到虛假的命令;可以將一隻貓識別成一條狗;可以將惡意軟體誤分類為良性軟體,也可以阻止閉路電視監控系統在人群中找出嫌犯。而由對抗樣本引發的欺騙策略也就是常說的「對抗性攻擊」。

雖然沒有證據表明對抗性攻擊已經被用於現實世界中,但是牛津大學的 Marta Kwiatkowska 說,這只是時間問題;機器學習可能會被用於攻擊系統。需要做出更多的研究去發明新的機器學習技術抵禦對抗性攻擊。

圖丨牛津大學 Marta Kwiatkowska教授

Cissé 發現,自動駕駛汽車中的圖片分類演算法可能會忽略行人和停放的車輛。他說:「我認為我們應該擔心我們如何確保汽車中使用的神經網路是安全的」。 Cissé 的團隊將少量的數字噪音引入到一個人的錄音片段,並將該錄音播放給谷歌語音(Google Voice)這款語音識別應用程序。在這個對抗性的示例中,該應用程序聽到了一個與事實完全不同的句子。

但是,並不是所有人都認為對抗性攻擊將會在現實世界中發揮作用。伊利諾伊大學香檳分校的大衛·福塞斯(David Forsyth)建立了一個經數字化改變的虛假的停車標誌試圖欺騙這種演算法。

他發現,通過移動相機,使其從不同的角度觀察停車標誌這並沒有欺騙演算法。對抗樣本可能會在很完美的假設條件下工作,但是現實世界中的光照和觀察視角可能會使對抗樣本並不那麼成功。對抗攻擊可能比我們想像的更困難。

或許最有趣的是,找到一種避免人工智慧系統被對抗樣本欺騙的方法是相當困難的。正如我們過去解釋的那樣,我們並不理解深度神經網路的內在工作方式,這也意味著,我們並不知道為什麼神經網路能夠接受聲音片段和圖像中的細微特徵,而人類卻不能覺察到。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

DARPA計劃發射太空機器人,將阻止衛星變成太空垃圾
研究發現,《江南Style》與黑死病的傳播方式是一樣的
iPhone8全新屏幕呼之欲出,全新顯示技術革新之戰一觸即發
谷歌瞄上電能存儲,用鹽和防凍液對抗特斯拉的鋰離子
差點死於戰亂,卻奠定個性化醫療-藥物遺傳學之父的自傳

TAG:DeepTech深科技 |

您可能感興趣

人工智慧遭遇應用「煩惱」 成長關鍵在「智能」
智能手機遭遇「紅利真空期」,人工智慧成困境突破口
一旦我們遭遇外星人工智慧
谷歌大腦論文:機器學習會遭遇欺騙,纏人的對抗樣本能愚弄人類?
谷歌在人工智慧方面遭遇更多抨擊
男人不能對女人說這三句話,否則會遭遇離婚危機
遭遇畸形家庭命運多舛的可憐女人
聯想遭遇危機,他們的危機公關是成功的還是失敗的?
當婚姻遭遇危機,考驗的不只是感情,還有你處理危機的方式和智慧…
一旦我們遭遇漫遊宇宙的外星人工智慧
人緣不好則會遭遇小人作梗,可配帶人緣手串輔佐
女人遭遇三種男人會失去理智,男人可以為所欲為,包括你在內嗎?
美洲豹生孩子遭遇難產,人們為它剃毛做人工手術,最終結局暖心
谷歌大腦新論文:機器學習也會遭遇欺騙,難纏的對抗樣本能否愚弄人類?
女人怎麼管你的花心男!才能夠婚後不遭遇背叛
遭遇蘋果ID騙局,這樣操作還能解救其他受害人!
愚人節你可能遭遇什麼?
泛人工智慧簡報:無人駕駛遭遇大規模網路攻擊?
智能手機遭遇全球寒流,非洲市場卻漲勢驚人
尷尬!唱歌機器人工廠遭遇勞動力不足問題