當前位置:
首頁 > 最新 > 還在擔心科技爆炸、人機大戰?來看看人工愚蠢吧

還在擔心科技爆炸、人機大戰?來看看人工愚蠢吧

編譯:上上、小智

轉載請註明出處

當機器過於發達,如何避免可能發生的機器對於人類的反噬呢?這個問題的答案是把人為的愚蠢引入其中。

歡迎來到人工智慧時代。哦不,或許已經是更加先進的——通用人工智慧(AGI)時代。

似乎全世界都在沉迷於AGI——一種認為機器可以「活著」或「有知覺」的想法。有人稱之為「強」人工智慧,也有人稱之為「通用」人工智慧(AGI)……無論我們使用什麼術語,都存在著比我們是否能夠開發通用人工智慧更為重要的問題。通用人工智慧可以像人一樣思考甚至擁有超人的智力水平,而這或許會產生不可預知的、無法控制的後果。

當然更令人們擔憂的是,當機器變得做夠聰明,他們會開始與人為敵。在無數本科幻小說中,機器被認為可能會為了實現保護人類、拯救地球或者任何發明者可能想要實現的模糊目標殺死我們所有人類。

這種假設下的未來不免有些凄涼,顯然這個問題還有進一步討論的空間。現在讓我們假設AGI是可能實現的,並且由我們來決定這個即將來臨的時代。那麼,我們到底該怎樣阻止它呢?

來自法國索邦大學(Sorbonne University)的研究人員Michael Trazzi和路易斯維爾大學(University of Louisville)的Roman V. Yampolskiy認為,這個問題的答案是把人為的愚蠢引入其中。

是的!人工愚蠢。這不是玩笑!

媒體喜歡抓住聳人聽聞的字眼來大做文章,但這的確是由研究人員進行的合法嚴謹的研究。以下是白皮書中的一段話:

當一些限制被故意引入來降低AGI完成任務的能力時,它將被人為地變得愚蠢。科學家可以通過限制其計算能力和內存容量或通過在某些任務上引入人為的錯誤來提高安全性。研究團隊調查了人類智力的極限並提出了一些建議,以便建立一個安全的通用人工智慧系統。

看到這裡我們讀者中的一些人可能會覺得受到了侮辱,因為科學家們正在將「人為愚蠢」定義為讓機器人像聰明人一樣愚蠢。但研究人員並沒有挑選任何特定的人,這是合乎邏輯的。

事實上,在許多任務中機器所能做到的早已經超越了人類的能力範圍。研究人員如是說,「人類有明確的計算限制(記憶時間、計算速度等)和認知偏差。但AGI並不存在先天限制。」

團隊給出的限制其過於發達的一種方法是集成硬體約束。但科學家們也意識到,一台超級智能計算機可以獨自通過雲計算購買硬體,甚至可以通過操縱一個愚蠢的人類來突破這一約束。研究人員表示,下一步將考慮通過編碼植入規則,例如「你不能升級你自己或你的代碼」之類的話。但是,怎樣才能阻止人工智慧用依靠自己的智力突破限制或是誘使人類去做這些事呢?研究人員也考慮到了這一點。

研究小組斷言,人工愚蠢不僅能保護我們免受超智能AGI的威脅,還能使人工智慧更像人類。

換句話說,只要我們能做的事情,AI就能做得更好。但是適量的愚蠢當然也有其存在的意義。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 中國新一代人工智慧 的精彩文章:

美軍規劃人工智慧以獲取戰略優勢之路

TAG:中國新一代人工智慧 |