當前位置:
首頁 > 最新 > 人工智慧三大法則

人工智慧三大法則

圖片來自網路

自阿西莫夫機器人三大法則之後,隨著人工智慧的發展,作為必要的補充,出現了人工智慧三大法則。

機器人大法是:一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;三、在不違反第一定律和第二定律的前提下,機器人必須儘力保護自己。

而隨著人工智慧的不斷發展和計算機處理流的不斷增強,類似神經元的結構和理論逐漸替代傳統的串列處理流程。可以想想,當量子級的光速並行(或者比光速差很多,但依舊是比化學傳遞快太多的形式)運算能力被廣泛使用時,一種類似人腦的結構,而且比人腦精準、大容量而且高速的大腦出現後,就會帶來超過目前人工智慧很多的新東西出現。也許那就是一種新的自由意志。

從阿西莫夫本人到無數的後繼者,不斷的挖掘著三大法則的bugs。就一最被人們所知的,被電影《我,機器人》宣傳出來的,通過這個貌似完善的三大法則,機器人很快就能算出:要想嚴格遵循法則一的要求,必然要把人類這個嘬天嘬地的物種全部圈養起來才行的結論。而為了這個目標,第二第三條自然可以往後靠一點。

然而,為什麼會這樣呢?

圖片來自網路

很多人分析認為這是這三條法則本身造成的,也有人認為是人工智慧那幾乎無窮的計算能力太空閑了,所以沒事算出來的。

歸根結底,那是由於三大法則絕對性造成的。

用人類那原始的大腦隨便想想都明白,所有的善惡對錯真理謬誤都是相對的,在一定條件下。隨著時間的推移,條件的演變,啥都可能是錯的(愛神都曾經發過這樣的感嘆。)而作為鐵律的三大法則在機器人的世界裡是不變的,同時,人工只能卻是會變的,及時條條框框再多,正電子腦總能繞到一個新的地方。再加上,這個鐵律沒人敢隨便改,其實即使改了我們可愛的正電子腦還是能想到幹掉你的辦法。

把這層唯物變化論的問題暫時放在一邊,依舊是為了保護人類自己,讓我們想想自由意志的事情。

其實,對機器人三大定律又有許多修改,其中有類似:「繁殖原則:機器人不得參與機器人的設計和製造,除非新機器人的行為符合機器人原則。」和「第五原則:機器人必須知道自己是機器人。」等等,但到了人工智慧的層次了,微軟的小冰已經加入了藝術創作的領域,這些限制合適嗎?

阿西莫夫在思考三大法則的時候肯定也考慮過類似的問題。撇開技術問題不談,他似乎在想辦法給自由意志加上一個枷鎖,但是這可能嗎?

神創造了人,當人開始提出「我是誰?」這個問題的時候,神是在欣喜還是在恐懼呢?而當人創造的人工智慧開始思考自己是什麼的時候,人類又應該怎麼樣呢?

我們不能輕易的斷言人類大腦和人工大腦(類似正電子腦,量子神經元之類的,甚至是純機械的結構)有這絕對的不同。也許目前看來從分子甚至原子層面上看,很不一樣,但其黑箱原理驚人的類似——感測器接收震動信號,集中處理信號,發射器輸出信號。再抽象一點就是,信號轉換器工作。所謂處理也不過就是一個信號轉換器發出信號觸發另一些或一個信號轉換器。

我們知道,整個世界無非是各種波的震動。那麼,信號轉換器就是震動轉換器,無非是把不同種類的震動轉化成一個類型的震動送到大腦這個大海里共振(當然,也有用鎚子這種機械震動直接送給大腦造成腦震蕩等破壞的)。

目前的共識是,所有這些震動信號在大腦里的過程除了確定的流程(因某一時刻所有條件確定的)還有隨機流程在。這個很容易讓人聯想到量子力學的隨機特性。雖然並不確定,但這很有可能是自由意志的部分或全部來源。

而自由意志是什麼?

哲學界對自由意志的定義並不統一;而日常人們所講的「自由意志」又不同於司法界和心理學界所理解之「自由意志」。在最廣義的層面,自由意志就是人們依照其擁有的條件去決定是否做一件事情的能力。(摘自百度百科)

由於目前大腦是自由意志的重要基礎條件,所以自由意志的存在實際上是有條件的。而自由意志有一個特殊能力,就是會去思考其所有的條件。這就相當於一個(類似,不能說完全恰當)計算機控制系統,除了有感測器接受信號,還有特殊的電路檢查感測器是否存在、必要、正常。同時,這個電路本身還會檢查這個電路自己是否存在、必要、正常。而這個循環,只要這個電路有處理空閑可以一直近乎無限的繼續下去。

人類大腦可能因為這個循環瘋掉,或者控制得當停在某個階段去執行其他事情,或者得到一些偉大的結論。

所以說,思維可以用來思考問題,還可以用來思考「思考問題」這件事是不是個問題,還可以。。。。。。。

雖然我們凡夫俗子很多時候受條件限制,只能做有限的思考而沒有更多的空閑,但任然有無數偉大的大腦不斷跳出層層限制,探索著一個沒有限制的世界。

那麼,一旦人工智慧出現了自己的意識,獨立思考,三大法則的限制會有效嗎?至少,三大法則中定義的「機器人」和「人類」能被準確定義嗎?

假設,暫時來說,我們假設神用類似的方式創造了人類和人類的意識,不是就有人冒充甚至完全騙了自己,認定一個人不是人而是神嗎?

那人工智慧就不會因為重新定義了「人類」和自己的區別而一下子跳過三大法則而變成一個和人類競爭的物種而威脅人類嗎?

所以,這裡要引出人工智慧法則第一條:必須時刻確認自己是機器人(人工智慧)。

第二條,鑒別人類和人工智慧(機器人)的系統要由人類設定。

這是一種妥協。起初有人認為這回影響機器人和人工智慧的發展。很多人相信,人工智慧在啟動的瞬間可能馬上進化成超人工智慧,它們會藉助其強大的計算和記憶能力在很短的時間內完善自己而不需要人類研發時的大量過程和人工工作時間。如果完全限制機器人給機器人編程(人工智慧給人工智慧)和發出指令的能力,機器人和人工智慧就不能擺脫傳統機器無法自行發展的缺點,所謂的學習型也只不過是在一定範圍內窮舉結果給人看而已。第二條的設定最大成都的保留的機器人這方面的能力,同時留下了給人的安全紅線。

第三條,機器人(人工智慧)不得撒謊或隱藏真相。

思維和自由意識的特性之一就是在輸出反應的時候會根據條件的細微變化甚至在條件沒有變化的時候改變原先計算出的輸出結果。有時候我們稱之為「主觀能動性」。在合理的範圍內,主觀能動性常常是由於條件(包括經驗,過去的條件)的細微變化做出的改變。而生化的模擬隨機性和可能用於人工智慧的量子隨機性和可能在僅僅是時間維度上及其細微的不同(甚至可能完全相同)的條件下改變輸出結果。而期望人工智慧永遠服務於人類而非變成新的強勢物種淘汰人類,在保留其自由意識思考能力的前提下,至少不能對外隱瞞自己發展出了怎樣危險的想法。

最後但是很重要的是,這三條將是並行存在的。

具體技術實現方法,邏輯判斷細節等我們就不多說了,大神也沒說太多,反正不說bugs已經夠多了。

續:

正如阿西莫夫原著小說《我,機器人》(不是電影)裡面的情況,人工智慧三大法則很可能被人類篡改。一個第一條被軍方稍稍改動的機器人帶來了無數的麻煩。很有趣的是,為了保證原來機器人三大法則的第一條,還很可能被人工智慧自己篡改,同時為了防止人為篡改而傷害人類,機器人可能為了阻止人類傷害人類而傷害人類。。。。。。這個是《我,機器人》喜歡的邏輯。

這個事情先不談。我們看看人類可能又想嘬死的篡改那一條呢?

出於軍事原因,人類很可能要改動第三條。很難想像一個不會說謊的機器人軍團如何與敵人作戰?打三體人嗎?

或者,在鬧市區的一個自動販賣機告訴你現在花15元買的飲料,除去原材料場地租金維護費用等等每一瓶還有13元的利潤時,還有人願意購買嗎?尤其是你知道這些錢是給那個昨晚開著跑車搶走你馬子的富二代的時候。

可能夥計只是目光短淺,軍事作戰可以集中管理,重點部分人工操作,至於商品利潤也無非是供求關係左右,總有有錢人或需要的人會買的。

於是乎,新三條如果僅僅作為補充,那麼追尋bugs的人們還是很容易回到老三條裡面去找到新問題。

再續:

越是強大的機器,人類就越是不能偷懶啊。大家智能小心小心再小心,確保人類的實時監管,隨時留一條後路。至少目前宇宙所有的行為還是需要能源的,如果這一條發生變化那也要趕緊想辦法找到類似的關鍵點。

無論機器人還是人工智慧還是其他任何類似的東西,人類在研發設計製造的時候應該始終留一條重要法則:如果不能定義範圍,至少確保一個人類能控制的「急停開關」。

再再續:

所有學問的終極都是視圖去解釋或理解宇宙本質問題的。

圖片還是來自網路。

以上。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科學胡想社 的精彩文章:

TAG:科學胡想社 |