當前位置:
首頁 > 科技 > AI人工智慧未來的安全到了十字路口,向左還是向右?

AI人工智慧未來的安全到了十字路口,向左還是向右?

本周在拉斯維加斯舉行的大型黑帽網路安全會議上,當我走遍展覽廳時,我驚訝於眾多公司吹噓自己如何利用機器學習和人工智慧來幫助世界變得更加安全。

但一些專家擔心,供應商對重視這些技術的風險並未給予足夠的重視。「正在發生的事情有點令人擔憂,在某些情況下甚至是危險的,」安全公司Forcepoint的Raffael Marty警告說。

安全行業對演算法的渴望是可以理解的。隨著連接到互聯網的設備數量 激增,它正面臨著網路攻擊的海嘯。與此同時,熟練的網路工作者大量短缺(參見「 網路安全的陰險新威脅:勞動力壓力 」)。

使用機器學習和AI來幫助自動化威脅檢測和響應可以減輕員工的負擔,並且可能比其他軟體驅動的方法更有效地幫助識別威脅。


數據危險

但Marty和其他一些人在Black Hat發表講話說,現在很多公司正在推出基於機器學習的產品,因為他們覺得必須為了吸引那些已經進入AI炒作周期的客戶。而且他們有可能忽視機器學習演算法會產生虛假安全感的方式。

正在推出的許多產品涉及「監督學習」,這要求公司選擇並標記演算法訓練的數據集 - 例如,通過標記惡意軟體和代碼是乾淨的代碼。

Marty說,一個風險就是急於將產品推向市場,公司使用的培訓信息尚未徹底清除異常數據點。這可能導致演算法遺漏一些攻擊。另一個是,訪問安全公司系統的黑客可能會通過切換標籤來破壞數據,以便將一些惡意軟體示例標記為乾淨的代碼。

壞人甚至不需要篡改數據; 相反,他們可以計算出模型用於標記惡意軟體的代碼功能,然後將這些功能從他們自己的惡意代碼中刪除,這樣演算法就無法捕獲它。


一對多

在會議的一次會議上,微軟的Holly Stewart和Jugal Parikh標誌著過度依賴單一主演算法驅動安全系統的風險。危險在於,如果該演算法受到損害,則沒有其他信號可以標記它的問題。

為了防範這種情況,Microsoft的Windows Defender威脅防護服務使用了多種演算法,這些演算法具有不同的訓練數據集和功能。因此,如果一個演算法被黑客入侵,其他演算法的結果 - 假設它們的完整性也沒有受到損害 - 將突出第一個模型中的異常。

超越這些問題。Forcepoint的Marty指出,使用一些非常複雜的演算法,很難弄清楚為什麼他們實際吐出某些答案。這種「可解釋性」問題可能使得很難評估是什麼驅動了任何異常現象(參見「 AI中心的黑暗秘密 」)。

這些都不意味著人工智慧和機器學習不應該在防禦性武器庫中發揮重要作用。來自Marty和其他人的信息是,對於安全公司及其客戶來說,監控和最小化與演算法模型相關的風險非常重要。

這是一個不小的挑戰,因為擁有網路安全和數據科學方面的深厚專業知識的人們仍然像拉斯維加斯夏季的涼爽日子一樣罕見。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 蟻安課堂 的精彩文章:

黑客如何破解你的網站Web伺服器?
到底是什麼讓康卡斯特2650萬客戶的個人和敏感信息被暴露?

TAG:蟻安課堂 |