當前位置:
首頁 > 新聞 > Open AI發表論文劍指AI技術惡意使用的後果,不僅危害財產,還可能造成恐慌

Open AI發表論文劍指AI技術惡意使用的後果,不僅危害財產,還可能造成恐慌

Open AI 於 2018 年 2 月 20 日發表了一篇關於「惡意使用 AI 技術」的論文(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),同時這篇論文也指出如何預防潛在惡意使用 AI 技術的方式。與 Open AI 一同完成此論文的包括牛津大學人類未來研究所、劍橋大學現存風險研究中心、美國智庫「新美國安全中心」以及電子前沿基金會等機構。

論文指出,包括機器學習在內的不少 AI 技術都在以極快的速度發展著。醫療、翻譯等越來越多的領域都將會被AI技術所改變,在這種情況下,對AI技術的惡意使用也就越來越值得警惕,這便是Open AI 這篇論文的研究意義。

Open AI 將濫用 AI 技術的威脅分成了三種:

數字安全:使用 AI 來自動執行網路攻擊中所涉及的任務,這會加大網路攻擊的效率,尤其是那些勞動密集型的網路攻擊。同時 Open AI 也表示,網路黑客們也有可能利用 AI 來合成人類的指紋、聲紋,也有可能用 AI 來自動尋找軟體漏洞。

物理安全:使用無人機以及其他無人設備進行攻擊。這種威脅會對民眾造成人身傷害,尤其是當自動駕駛、自動飛行等系統遭到惡意使用時,其造成的損害不可預計。

政治安全:使用 AI 來執行監視、遊說、欺騙,從而造成公眾恐慌、社會動蕩等危害。這種惡意使用 AI 的方式對一些權力集中的國家格外有效。

為了應對這三種威脅方式,Open AI 提出了四種預防計劃:

1. 決策者應與技術部門保持密切聯繫,並分配預算以支持研究人員調查、緩解潛在的惡意行為。

2.AI 技術的研究者應該認真地考慮其研究方向的兩面性,並將其負面影響作為優先和研究重點來考慮,在該技術真正威脅到人類之前,主動與相關人士接觸。

3. 實踐出真知,解決威脅的最好辦法就是多去使用。如數字安全領域,研究者應多去參與防禦性工作,以讓技術達到更高的成熟度。

4. 擴大利益相關者群體,與更多行業的專家進行交流,從而更全面地預防 AI 的惡意使用。

Open AI 的論文並不是十分樂觀,該機構指出,隨著 AI 系統的多樣性增加,威脅的種類也在增多。首先,現有的攻擊方式會擴大,這是因為 AI 帶來了巨大的勞動成本縮短。其次會因為 AI 技術而引入新的攻擊方式,而且是不可預測的。其三,AI 技術進步的同時,其他軟體、硬體技術也在進步,所以很有可能會改變現有攻擊方式的典型特徵,從而躲過傳統的監測機制。

此外,Open AI 的董事會成員伊隆·馬斯克宣布退位,但是仍會贊助該企業。董事會席位與業務管理層的性質不同,馬斯克的離開並不會改變 Open AI 的研究方向,同時這也會減輕馬斯克身上的壓力,從而投入更多精力於負債纍纍的特斯拉上。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

尋找失眠基因,130 萬人參與史上規模最大的遺傳學研究
CamSoda網站藉助性玩偶和虛擬現實提供「與真實人物的虛擬交流」

TAG:DeepTech深科技 |