當前位置:
首頁 > 最新 > 惡意AI:我們如何防禦技術化的「核武器」

惡意AI:我們如何防禦技術化的「核武器」

評估威脅並預先制定防禦機制,預防和減輕潛在威脅,對於我們而言將至關重要。OpenAI 最近就在做一項研究,「 惡意使用人工智慧:預測,預防和緩解 」 報告中我們可以發現,快速發展的AI威脅情況,安全風險的關鍵領域以及我們今天可以採取的行動的權威建議。

1

AI威脅的演變:規模更大,破壞力更嚴重

即使當前並不明顯,但仍然有可能,惡意使用人工智慧的場景正在增加。正如罪犯,恐怖分子同樣適用軟體和計算機網路一樣,未來AI犯罪的範圍將極其多樣化。

不要盲目追隨Al,因為人工智慧技術可能會被投機分子利用,並會對你產生不利影響。隨著人工智慧越發普及,在我們工作和生活中無處不在,AI一旦被利用,將會變成威脅,嚴重影響企業與用戶的信息安全。

有關惡意AI報告,預測了3個具有挑戰性和不斷變化的潛在威脅場景:

威脅會變得更嚴重,人工智慧將用於擴大已知的攻擊,通過增加執行此類攻擊所需的「人力,智力和專業知識」。

以機器流量和魚叉式網路釣魚攻擊為例,人工智慧可以:

a)為惡意攻擊賦能;

b)使攻擊過程更加容易和快速;

c)擴大攻擊目標的類型和數量。

新的威脅將會出現,諸如利用人工智慧技術,輸出超真實的聲音與圖像的,智能罪犯將成為可能:

a)以複製真實世界的視聽簽名來解鎖安全系統;

b)製造社會不穩定的虛假新聞,冒充政治家和名人,或以其他方式影響人們的行為某種方式;

c)惡意演算法甚至可以引入其他AI或機器人系統,破壞或控制這些系統的一項或多項功能。

顛覆傳統網路安全,人工智慧將通過提高這種攻擊的有效性,精確性和難以追蹤性從根本上顛覆傳統網路安全的認知。

2

AI威脅的場景:數字安全、物理安全及政治安全

通過可穿戴設備,智能設備和物聯網,人工智慧將不可避免地滲透到我們生活的每一個角落。但是,最有可能遭受攻擊的主要領域是以下三個,其後果將是災難性的:

網路安全,惡意實體將很容易使用AI來自動執行更有效的網路攻擊。如上面所述,包括魚叉式網路釣魚,網路模擬和自動黑客攻擊;

物理安全,儘管我們將大部分生產時間花在了網路空間,但我們確實生活在物質世界。即使在物理空間,惡意AI也將變得隨處可見,並對我們構成極大威脅。除武器化無人機外,惡意AI還可以感染自動駕駛車輛,連接設備和其他設備,對人員和財產造成人身傷害。 ;

政治安全,正如2016年美國大選和其他地區所展示的那樣,使用包括人工智慧,預測分析,自動化和社交媒體機器人在內的技術可能會產生深遠的社會影響。具體而言,敵對實體可以使用人工智慧進行非法監視,宣傳,欺騙和社交操縱。這種情況符合威權國家的需求和願望,但也可以用於顛覆民主國家。

3

如何防範惡意AI

人工智慧尚未造成毀滅性破壞,我們還是希望未來AI領域好人超過壞人。

但是,與惡意AI不同,未來AI安全體系的建設,需要極大的專註和嚴格的測試。因為,即使是善意的研究人員和工程師,也會製造出有偏見且有害的機器學習模型,並帶來令人震驚的後果。

因此,這裡面需要國家立法、企業文化以及有效的監管體制。同時,還需要不同背景人士的支持,包括:政府官員、消費者、人工智慧研究人員以及網路安全專家和行業領導者。

以下4個關鍵環節,確保未來AI領域的安全:

政策制定者,技術研究人員和網路安全專家應共同探索,預防和減輕惡意AI帶來的威脅;

人工智慧研究人員,科學家和工程師應主動參與圍繞人工智慧的安全生態系統建設。這些專業人員應該注意人工智慧的雙重用途/性質,不斷將安全功能和協議集成到他們的工作中,並且始終向用戶和決策者警告正在開發的產品可能存在的誤用,漏洞和風險 ;

應該為AI研究與應用,建立一套道德標準和合理的預期。包括實施更有效和全面的解決雙重用途問題的方法;

更多具有不同背景的人應該成為涉及人工智慧惡意應用問題的利益相關者和領域專家。同時,在構建世界AI安全框架時,組織應該倡導責任文化。

網路犯罪是一個現實,黑客利用惡意AI,潛藏在虛擬網路世界以及真是世界的每個角落,進行攻擊破壞。到2021年,我們的世界將每年花費6萬億美元去處理惡意AI帶來的網路犯罪問題。

我們可預見,人工智慧將被應用到網路犯罪中,企業和個人別無選擇,只能作出反擊並確保安全。

通過集中資源並引導到所有利益相關者的教育和建立預防性安全措施,我們可以保持對惡意組織的領先。並依靠AI來對抗惡意AI


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 極驗 的精彩文章:

2018年最值得關注的十大AI技術趨勢
當把上帝擲的骰子用到計算機中,神奇的量子計算

TAG:極驗 |