當前位置:
首頁 > 天下 > 牛津、劍橋警告:人工智慧會被人類用於犯罪

牛津、劍橋警告:人工智慧會被人類用於犯罪

據英國《每日郵報》2月22日報道,一位知名的未來主義者表示,如果人類不採取措施阻止的話,未來機器人可能會兇殘地殺害人類。對此,紐約城市大學教授,理論物理學家,科普作家加來道雄博士認為,人類應在機器人腦中植入晶元控制他們的思想,阻止殺人機器人

圖:紐約城市大學教授,理論物理學家,科普作家加來道雄

加來道雄博士警告人類,「到本世紀末,機器人將足夠聰明,甚至變得十分危險。所以我認為我們應該在他們的大腦植入晶元,一旦他們有任何危險的想法就立刻使他們停止運作。」

加來道雄博士說,雖然機器人現在只有「和蟲子一樣的智力」,但是不久之後,他們的智商會慢慢趕上老鼠、貓、狗和猴子。他認為,一旦機器人達到那種智力水平,慢慢能夠避開人類最尖端的安全系統,他們或許就能替代人類。加來道雄博士認為,萬一那種情況發生,人類可能會與智能機器人融合。他說:「對一些人來說,這聽起來或許很奇怪,但是記住,是未來的人類(而不是我們)將決定他們將如何調整自己來和超級智能機器人相處。」在早前的採訪中,加來道雄博士已經詳細介紹過他的人與機器人融合理論。他認為,100年後,人類將不得不決定他們是否想與高智商機器人競爭。相比競爭,人類或許會決定對自己的基因進行一些調整,但是人類的長相併不會改變。加來道雄博士說:「我們不會看起來像可怕的機器人。無論是千百年前和千百年後,我們都長這樣。」

其實,人類對於人工智慧擔憂的討論從來沒有停止過,當談論人工智慧帶來的危險時,我們通常強調的是意料之外的副作用。我們擔心的是,我們可能會意外地開發出具有超級智慧的人工智慧系統,而忘記賦予它道德;或者我們在部署刑事判決演算法時,這些演算法吸收了用來訓練它的數據存在的種族偏見意識。

但這還不是人工智慧可能帶來的全部風險。

人們會主動將人工智慧用於不道德、犯罪或惡意目的嗎?這會帶來更大問題嗎?來自包括牛津大學、劍橋大學、人類的未來研究所、埃隆·馬斯克投資的非營利性組織OpenAI在內的機構的二十多位專家稱,這兩個問題的答案是肯定的。

在這份題為《人工智慧的惡意用途:預測、預防和緩解》的報告中,專家列出了未來5年人工智慧可能給人類帶來問題的一些途徑,以及人類的應對之道。報告聯合作者邁爾斯·布倫戴奇表示,雖然人工智慧可以被用來發動惡意攻擊,但我們沒有必要談人工智慧色變,或者絕望

布倫戴奇表示,「我喜歡積極的態度,也就是說我們還大有可為。報告的本意不是描述悲觀的未來——人類可以採取諸多預防措施,我們還有許多東西需要學習。我並不認為我們已經陷入絕境,但我把這份報告看作是行動的倡議書。」

報告的內容很廣泛,但重點介紹了人工智慧加劇實體和數字安全系統面臨威脅和製造全新威脅的幾種主要方式。它還提出了應對這些問題的5點建議,其中包括使人工智慧工程師提前告知他們的研究被用於惡意目的;啟動政界和學術界之間對話,避免政府和立法機關對此一無所知。

人工智慧最大的威脅之一是,通過使原本要求人工完成的任務實現自動化,人工智慧可以大幅度降低某些攻擊的成本。

報告提出的第二個要點是,人工智慧可以為現有威脅增加新維度。例如,在釣魚攻擊中,人工智慧不僅能用來生成常見的電子郵件和消息,還能生成虛假音頻和視頻內容。

當然,人工智慧還能對一些惡意行為起到「助紂為虐」的作用。例如,在政治和社會生活中左右輿論。

報告還闡述了人工智慧帶來的全新威脅,其中包括恐怖分子在保潔機器人中隱藏炸彈,把它送到特定場所,目標靠近後由人工智慧技術自動引爆炸彈。

為了預防、減輕人工智慧可能帶來的危害,報告給出了5點建議:

研究人員應當告知他們的研究可能的惡意使用方式。

政策制定者需要向技術專家了解這些威脅。

人工智慧行業需要向網路安全專家學習如何更好地保護其系統。

需要制定人工智慧道德框架,並嚴格遵守。

需要有更多人參與對這一問題的討論,其中不應該僅僅局限於人工智慧科學家和政策制定者,還應該包括倫理學家、企業和普通大眾。

換句話說:就是更多的對話和更多的行動。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 東亞財經 的精彩文章:

頻遭多國監管方打壓,比特幣持續下挫跌破一萬美元,還有未來嗎?
梁建章:出生人口雪崩 要為孩子減稅和補貼

TAG:東亞財經 |