牛津、劍橋、OpenAI聯合發出AI預警《人工智慧的惡意使用》
大數據文摘作品
作者:龍牧雪
無人車、無人機、視頻生成……這些AI應用在讓我們激動萬分的同時,也有可能帶來前所未有的災難——如果無人車隊被惡意操縱來撞你,該怎麼辦?這次讓我們看看AI政策研究學者怎麼說。
2月20日,26位來自牛津大學、劍橋大學、OpenAI、電子前沿基金會(一個非營利數字版權組織)、新美國安全中心(一家美國智庫)等多個研究機構的研究人員發布了一份AI預警報告,針對AI的潛在惡意使用發出警告,並提出相應的預防及緩解措施。
報告作者之一、來自牛津大學人類未來研究所的Miles Brundage在推特上發布報告
報告鏈接:
https://maliciousaireport.com/
新興技術對人類安全的影響一直是個熱門話題。牛津、劍橋、OpenAI這些重量級研究所此次發布的這份報告名為《人工智慧的惡意使用:預測、預防和緩解》,預測了未來十年網路犯罪的快速增長、無人機的濫用、使用「機器人(bots)」操縱從選舉到社交媒體等惡意利用人工智慧的場景,號召政府及企業重視當前人工智慧應用中的危險。
報告也建議採取以下干預措施以減輕惡意使用人工智慧造成的威脅:
政策制定者和技術研究人員現在需要共同努力來理解和為應對惡意使用人工智慧做出準備。
人工智慧有許多積極的應用,但是是一把雙刃劍,人工智慧研究人員和工程師應該注意並積極預測其濫用的可能性。
人工智慧應該從具有較長的處理風險的歷史的學科(如計算機安全)中學習。
積極擴大參與預防和減輕惡意使用的利益相關者範圍。
這份長達100頁的報告關注與惡意使用人工智慧特別相關三個安全領域:數字安全(digital)、物理安全(physical)和政治安全(political)。它表明,人工智慧會破壞規模(scale)和效率(efficiency)之間的權衡,並使大規模、精細目標和高效的攻擊成為可能。
例如,自動黑客攻擊,用於模擬目標的語音合成,使用從社交媒體獲取的信息的精確目標垃圾郵件,或利用AI系統本身的漏洞等新型網路攻擊。
同樣,無人機和網路系統的擴散將允許攻擊者部署或重新調整這些系統用於有害目的,例如讓自動駕駛車隊相撞,將商業無人機變為可以定位目標的導彈,或劫持重大基礎設施以索要贖金——自主武器系統在戰場上的崛起可能會導致失控。
在政治領域,藉由詳細的分析、有針對性的宣傳、便宜且高度可信的虛擬視頻,可以操控公眾輿論,而這種操控的規模在以前是無法想像的。利用人工智慧,可以大規模聚集、分析和處理個人信息,這可以實現監控,可能侵犯隱私,並從根本上改變個人、企業和國家之間的權力。
為了減輕這些風險,報告作者探索了幾種干預措施,以減少與AI濫用相關的威脅。這些措施包括重新思考網路安全,探索信息共享的不同開放模式,促進責任文化,制定有利於安全防禦的政策和技術。
報告作者之一,劍橋大學生存風險研究中心執行主任Seán ó héigeartaigh博士說道:
人工智慧是一個改變遊戲規則的機器,這份報告已經想像出未來五到十年內世界會變成什麼樣子。
我們所生活的世界可能變為一個充滿因濫用人工智慧而導致的危害的世界,我們需要處理這些問題,因為風險是真實存在的。我們現在需要做出選擇,而我們的報告號召全球政府、機構和個人的行動。
幾十年來,人工智慧和機器學習方面的宣傳超過了事實。但現在不再是這樣了。這份報告著眼於那些不再適用的做法,並提出了一些可能有所幫助的方法:例如,如何設計不易被攻擊的軟體和硬體,以及可以採取什麼類型的法律和國際法規。
不過,在報告開篇,作者也承認:「對於人工智慧相關的安全攻擊和相應的防衛措施之間的長期平衡,我們並沒有給出解決方案」。
網路上也存在著批評的聲音。GigaOm評論員Jon Collins指出,對於所有提出的風險,報告並沒有定量描述,而只是以「可能出現(plausibly)」的字眼概述,這不是對風險的科學描述方式。風險有多大?我們也不得而知。此外,報告中的許多地方也明確表示,「報告的多位作者對此持有不同觀點」。所以就此看來,報告起到的喚醒作用可能遠大於對實際操作的指示。
素材來源:
https://www.cser.ac.uk/news/malicious-use-artificial-intelligence/
https://gigaom.com/2018/02/21/whats-missing-from-the-malicious-use-of-artificial-intelligence-report/
【今日機器學習概念】
Have a Great Definition


※史上最全!27種神經網路簡明圖解:模型那麼多,我該怎麼選?
※比特幣再火也是10年前的概念了,這3種幣才是潮流
TAG:大數據文摘 |