當前位置:
首頁 > 新聞 > 機器學習和對抗性人工智慧會是新的內部威脅嗎

機器學習和對抗性人工智慧會是新的內部威脅嗎

機器學習(ML)和人工智慧(AI)正在從概念驗證程序轉變為功能性企業基礎架構。隨著對這些技術的資金支持不斷攀升,可以預見人工智慧的普及是不可避免的。

但是數字智能的應用帶來了新的風險:IT專家面對這急劇的變化,有些無所適從,而網路犯罪分子正在想方設法入侵新工具。

為什麼AI無法取代人類專業技能?

現在的安全團隊工作過度而且人員不足,但還是有人擔心AI工具會最終取代人類專業技能。

為了回應這些擔憂,Phys.org網站在2018年6月指出,現在關於人工智慧和自動化的討論被兩種思想主導,一種是災難預言者,他們害怕機器人會取代人類的工作,另一種是樂天派,他們對新技術不以為然,認為世界上沒有什麼新東西。

然而,研究表明,這些技術只適合取代某些特定的工作任務,而不是徹底消除某些職業。The Verge在2018年6月報道,美國軍隊的一項實驗計劃將利用機器學習來更好的預測車輛何時需要維修,這不僅降低了成本,也減輕了技術人員的壓力。

在IT安全方面也是如此,使用智能工具來完成繁重的數據維護和數據收集工作,從而將技術專家釋放出來去完成其他任務。

機器學習會減少還是增加內部威脅?

雖然新技術不會取代人類的工作,但會增加內部威脅。所有公司都存在內部威脅,比如故意竊取數據的惡意行為或者是無意中泄露公司信息。AI和機器學習並不具備人類的思想和特質來造成這些數據泄露的風險,按理說,它們應該會營造一個更加安全的環境。

然而並不是這樣。

正如CSO Online在2018年1月所指出的那樣,惡意攻擊者也會利用這種技術來污染數據池,從而造成內部威脅。通過篡改數據輸入,攻擊者也可以破壞數據輸出,等到公司發現之時已經為時已晚。

同時,據2018年5月Medium公司報道,一種更微妙的攻擊也在不斷增長,即對抗性樣本。通過創建AI決策能力邊界的假樣本,網路犯罪分子能夠強制產生錯誤分類,從而破壞機器學習模型的基本信任。

如何防禦AI引發的內部威脅?

隨著智能工具應用的不斷增加,企業如何防禦更嚴重的內部威脅?

最好做到以下幾點:

·建立人際關係:這些新工具只有在執行特定任務時效果最佳,所以公司需要指定人員專門學習研究新工具,對工具了如指掌後,便可以對潛在的威脅建立一道堅固的防線。

·開發檢查和平衡系統:報告的數據是否與觀察結果相符?它經過獨立驗證嗎?隨著更多關鍵決策被轉移到人工智慧和自動化,企業必須開發檢查和平衡系統,將輸出結果與可信的基準數據進行對比。

·有目的性的部署工具:在許多方面,智能技術的崛起反映了雲技術的崛起。起初,作為一種新技術,這個解決方案很快就成為實現數字化轉型的必要條件。這時有可能出現類似的「多即是好」的趨勢,但這忽略了人工智慧和機器學習作為一種解決特定痛點的方法的關鍵作用。我們不應該盲目的追趕潮流引進新技術,而應該從發現數據驅動的小問題開始,針對性的安裝智能工具來解決這個問題。對智能工具建立數據訪問的零信任模型:當攻擊面在本質上受到限制時,我們就更容易抑制潛在的威脅了。

機器學習和人工智慧工具正在獲得企業支持,幸運的是,他們不太可能取代IT技術人員。展望未來,雖然被入侵的智能工具和對抗性人工智慧給下一代帶來了潛在的威脅,但是人類的協助可以積極應對這些威脅。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 嘶吼RoarTalk 的精彩文章:

谷歌正在悄悄跟蹤你的地理位置
DHCP客戶端腳本代碼執行漏洞分析

TAG:嘶吼RoarTalk |