當前位置:
首頁 > 科技 > 機器人會欺騙是世界末日嗎?聽Arkin教授主旨報告了解機器人的欺詐!

機器人會欺騙是世界末日嗎?聽Arkin教授主旨報告了解機器人的欺詐!

5月16日,第四屆中國機器人峰會盛大舉行。多名權威專家在主旨報告上分享了最為前沿的理論和獨到見解。其中,美國喬治亞理工移動機器人實驗室主任、電子計算機學院首席教授Ronald C.Arkin,以多年的研究經驗來深度闡釋機器人欺騙的各方各面。

人工智慧發展到未來,會欺騙造出它的人類嗎?會對人類造成什麼樣的影響?我們該允許機器人學會欺詐嗎?一起來看看Arkin教授是怎麼說的!

以下是報告全部內容:

非常高興來到這裡,我知道日程稍微晚了一點,我會加快一點,請大家稍微耐心一下,希望大家能從我的發言中得到一些啟發。我要跟大家講的是我過去八年做的工作。

一、為什麼要有欺騙?

我們為什麼要有欺騙,希望讓設備自己撒謊?欺騙為什麼這樣重要呢?因為有的時候欺騙不僅僅是人類關係的體系。在自然界中有很多的物種,生存的前提條件就需要有欺騙。為了存活,希望能夠捕獲到你的獵物,找到很好的配偶或者說其他的需求,你必須有欺騙的能力。在特定的情況下,欺騙的需求是必要的,它不是最好的方式,但是一個層面。

有的時候在很多的層級上必須非常的智能,我們有圖靈測試,實際上它自己就是一個欺騙,一個設備被使用或者說設備來欺騙你——人,作為對方來講,讓你受到欺騙,認為他也是一個欺騙,這就是圖靈測試的目的。

1、欺騙對自己有利

這個是自然界的情況。首先是一個斷翅的展示,這個鳥兒會假裝它的翅膀斷了,讓捕獵者朝著它去,不會打擾到它的鳥窩;猩猩像人類一樣,開始給它的媽媽梳理毛髮,就像兒子孝順母親。媽媽也利用了這一點,然後把它的工具給偷走,偷來之後把堅果敲開了。

有的時候這些動物確實有欺詐的行為,有我們人類的一些假動作。通過欺騙的方式來愚弄你的對手,像橄欖球或者美式足球都會這樣來誤導別人,假動作你成功了,作為團隊成員的話,你會歡呼,因為最後你贏得了比賽,但是你的對手不高興。

2、欺騙對對手有利

還有另外一個例子,欺騙對我們的對手有利。你要哄你的小孩子吃蔬菜,你通過欺騙的方式讓你的小孩子能夠吃蔬菜,這也是通過欺騙來幫助你的對象,並不是說通過欺騙來迷惑你的對象。從社會的角度來說,我們是需要這種欺詐的,讓別人也會喜歡你,這是一個很好的社會的智能。我們的機器人是不是也要和人一樣有社交的欺詐呢?

二、機器人是否需要欺騙?

1、社交中的欺騙

這個機器人也是非常酷的,就像一個大大的雞蛋,轉來轉去。他問這個機器人「你的誠實參數是多少」,「我的誠實參數是90%」。絕對的誠實在外交上是不正確的,在整個的溝通上也不是安全的。我們可以來調整一下我們關於誠實的一個定義註解或者說不誠實的註解。

另外研究機器人欺詐也是一項非常有意思的工作,演進的演算法出現了這樣的欺詐,能夠誘開這個食物源,像石頭、剪刀、布這樣的機器人欺騙。如果說這個機器人智商高的話,它就會用欺詐。

2、軍事中的欺騙

所有的戰爭就是通過欺詐完成的,從政治角度來說,這種欺詐令人討厭。但是戰爭當中我們要有這樣的欺詐,這是光榮的事情。

還有回到歷史的記錄,這是我們宣言,歷史當中的宣言。比如說猶太教或者基督教或者其他的,比如特洛伊木馬的傳說都是一些欺詐,有各種各樣欺詐的工作,各種宗教都有。美國他們會有戰場的欺詐條令,就是教會他們所有的士兵都必須知道這樣的欺詐條令。而在中國也會有中國軍隊也有這樣欺詐的訓練,兵不厭詐

三、欺詐模型與理論、演算法

像這樣一個假的溝通對整個欺詐者會有利的。那為什麼我們是這樣的呢?為什麼要欺詐呢?

一開始我也進行了這樣的研究,還有我的畢業生,我們進行思考,如何讓我們的機器人能夠相信人?如何讓他相信這個司令官?司令官不僅僅要讓機器人做正確的事情,還會告訴機器人做不正確的事,然後我們就有這樣的模型。我們識別到,其實欺詐,也是信任的另一面。如果是一個很好的指導官,他會告訴你,你要做的第一件事就是要獲得信任才能獲得欺騙。

這裡有一個說法,這是人類心理學家的演算法,比如說相互依賴,就是一個前提。一個欺騙者,他有假的溝通,他的對象或者是他所要欺騙的機器人或者人,他們必須要能夠解釋這樣的信息。那麼當然也有各種不同的欺詐,比如像松鼠,作為我們研究欺詐的一個模型。

在我們整個研究方法里,這叫做互相依賴的理論,這裡當然有其他好多的維度,我們用了衝突和依賴。我們這裡有一對這樣的代表,一旦出現了這樣的衝突,你有了我想要的東西,或者我這裡有你想要的東西,這就是一個衝突,有了這樣的衝突,然後有這樣的依賴,我們都依賴這樣的資源。那麼,欺詐就發生了一個作用了。

我們所發生的作用,我們要做兩件事,一個是我們決定什麼時候欺騙,然後要決定如何去欺騙。你不可能就是隨機地做,我們必須要找定一個時機。互相依賴的理論,我們進行這樣的影射,有這樣一個區域,這裡有一個非常強大的依賴的結果,還有一個高度衝突的結果。還有一個半圈,這是一個三角形,這裡是一個參數。這是一個誠實的參數,這是一個影片當中真實的參數。

當然如果這個區域非常小的話,不會欺詐。如果這個區域很大的話,就會有更多的欺詐。所以我們有調解的能力讓機器人或者相應的代理做到這裡,有這樣的衝突和依賴性。我不是談技術的東西,只拋磚引玉,有很多的論文都可以讀一下,還有相應的影射以及遊戲的理論各種各樣的東西。

底部這條線,等會兒給大家看一下,我們必須要有這樣的能力能夠影射,我們是用這樣的模型,並不一定重複的,我們必須要使用我們的代理信任模型,你建立了這樣的理解,其他的代理思維必須要有這樣的信任,這是我們的理論。還有夥伴的模型,在這個過程當中也非常重要,結成夥伴關係,如果我們做這件事情,我們要欺騙你,我們必須先做什麼,比如我的模型是畫的話,這樣不會有效。如果是很好的毛性就有機會奏效了,所以要有一個非常好的模型,有了這個模型之後我們才能出其不意,這是一個建模。

我們這裡有一個理論,這個理論非常重要,我可以相信你,其實我要知道你是可信任的,我們才能信任。我獲得你信任之後,我才可以欺騙你,非常有意思。在整個領域過程當中這是一個前提,我們所做的方法就是我們有需要傳統遊戲的模型,這裡有相應的結果,我們有一系列的行動,如果是正確的話,那麼就一定有這樣的行動,然後人們跟我們一起合作。

我們有這些矩陣,在這些對象當中,我們可以看一下具體有哪些不一樣,我們看到裝死,這是一個非常好的回報,如果你是裝死的話有很好的回報。你很快就能夠判斷它在裝死,或者是假裝的,他要逃走等等,像類似的場景等等。等會兒跟大家介紹一下我們所做的實驗。

這是另外一個演算法,我們所做的就是我們理解一下具體的場景,我們理解它的結果,然後你要理解我們的一個對象的本質。如果你知道了之後,你就意識到這是正確的場景,然後你產生了一個行動。這個行動改變了他們的信任系統,有利於你自己想要的,違反了對方想要的,最後你採取行動。你的勝利沒有保證,但是有這樣的機會可能你最後會得勝。

我們做了一些研究,機器人其實也有這樣的感測,如果沒有感測,我們無法欺騙。我們其實會有更多的機會,比如說互相的感測器之間有不同的吻合度,有的時候,他們互相不一致的話也會帶來一些問題,還有關於你的合作夥伴有更多信息的獲得,如果你的合作夥伴模型更好,那麼成功機率更高,你的欺騙機率更高。

這是捉迷藏的實驗,我們使用小的機器人,我給大家看一個非常短的片子,這並不是非常漂亮的片子,但是會告訴我們怎麼做。機器人有點像星球大戰第四季或者星球大戰第一季。他們藏起來了,要避免其他軍團的襲擊。機器人來了,他要做出決定了,他如何留下假的足跡,然後藏起來,藏在中間,這是就像一個風暴軍團一樣,足跡在什麼地方,這個機器人來了,來查找這個足跡了。有的時候會查找一下,他朝這個方向走了,另外一個機器人過來了,然後他可以逃脫假的足跡,有兩個對象已經踩到了,這是不可預見的。那麼你可以看到我們是哪撞了,哪個逃避了。

五、該擔心機器人會欺騙嗎?

我們在國際機器人雜誌上發表了這樣的論文,關於這個實驗的設置也是非常有意思。這是2010年,這個結果其實並不代表機器人欺詐的最後判斷。這其實是一個初期的指針,相應的技術和演算法能夠使用,幫助我們解決機器人的欺詐。另外我們需要更多心理學上的研究或者更多的證據才能驗證這個假設,這個結果並不是所有人都同意。

後來有一個相關的媒體報道,真是非常大肆宣揚的報道:他們教會機器人如何欺詐,機器人開始起義了,然後是機器人的世界末日來了。他們最後把這個點子藏起來,不要告訴我們,好像世界末日了。另外一篇論文說,一些人告訴機器人如何欺詐,會讓我們蒙受羞辱。他們描述了這個實驗,告訴機器人如何捉迷藏,他們也不高興,記者也不高興。下面的記者說,機器人是能夠欺詐的,有一些瘋子研究者,其實就是有點瘋狂,人們也擔心,你們是不是擔心呢?

我們這樣實驗,我們告訴機器人怎麼欺詐,你們是不是擔心?是,也許不是。並不是所有人都認為這是一個好的點子。

《時代》雜誌給我們一個年度最佳50個創造發明,從我的角度來說,這僅僅是一個實驗,不是發明,但是我們得了年度第50佳發明。還有新的《科學》雜誌,他們探索了機器人的思維,然後告訴人類自己的思維。所有的這些理論能夠補充人的欺詐思維的研究。

最後機器人能夠補充人對大腦的理解。有說這個可能會把人類毀滅等等各種各樣的報道,但其中還是會有真理的。我們繼續研究像這樣的欺詐,哪怕有人說會怕人類毀滅。

六、欺騙的實用性

這是松鼠的欺詐,是東部的一些松鼠,我們也發表了論文,當然這個論文,我沒有時間帶大家去看細節了。前面已經說過了,尋找松果,它們確實把很多的松果放在它們的地方,然後它有各種各樣的路線進行巡邏。是不是這些松果是放在安全的地方了?要確保我們的松果是在安全的地方,確保它是安全的。那麼你怎麼做確保你埋藏的松果是安全的,如果出現了另外一個松鼠或者其他的獵物該怎麼辦呢?那麼回到這,這裡沒有松果,但它們會在沒有的地方假裝看一看,它們用迷惑的戰術,它們就是拖延戰術。這是防止其他人偷走它們的松果。這對軍事來講也是非常重要的。比如說你進入我的糧倉,劫我的糧草,你肯定在別的地方製造假像,這種拖延戰術在軍事當中也是實用的。

這是一個模擬方針,機器人系統搜集很多的數據,然後展示我們價值是多少,由人類對機器人進行控制。這個機器人確實也在採取這樣的行動,然後有一些人進來了,就改變他們的行動。還有一個有意思的,有了這樣的欺詐、欺騙,這種剽竊或者偷竊得到了延遲,並沒有停止偷竊,確實通過這種欺詐奏效了。非常有意思,人們喜歡松鼠的欺詐,如果憎恨的話就是結束了。如果有這樣的機器人,他們就像松鼠一樣,你看這是非常可愛的,如果有一個非常可愛的像松鼠的機器人,人們肯定很高興。他們可以告訴「松鼠」,「松鼠」也教會人,這是很可怕的。

接下來是一個欺詐。這個叫做聚擾,假裝自己殘廢的一種欺詐。任何情況,如何在自然當中,保證所有的信號必須是正常的、正確的?如果這些鳥,它們看到了風險,比如說像這樣的老鷹或者蛇過來了。它們有兩個選擇,那麼這個鳥怎麼做?它也許逃走,但是它沒有逃的地方,有的時候太驚慌了,它們會騷擾它們的捕獵者。但是還有一個,什麼時候騷擾會奏效呢?它們給出一個信號,騷擾的信號,它們偽裝成不健康的情況,比如我生病了,或者我不健康,你吃了我你也會得病,這是鳥表現自己糟糕的地方。這個畫眉也是這樣的,它們打結舌,它們有欺騙的原則。基本上說你實際上是可以有一個穩定的系統,如果你有相對的一定數量的不誠實,這個有很好的公式進行描述,我等會兒進一步講到這一點。

什麼是不利條件原則,這是一個典型的例子,孔雀。孔雀開屏有非常大的尾巴,五彩繽紛,為什麼孔雀會開屏,它這是很危險的,因為它很大、很重,有時候被抓的話就逃不掉。它通過開屏可以告訴你我非常好,這是對非常有大的尾巴,孔雀開屏吸引雌孔雀,說我狀況非常好。因為雌孔雀是非常稀缺的資源,它開屏也是爭取雌孔雀。還有人也會有這種情況,有人會炫富,有的人去酒吧戴勞力士的手錶,他也是希望獲取稀缺資源。有的時候會發揮作用,有的時候不一定。這個展示了什麼?展示了他有成噸的錢放在家裡,他不會在意花這麼多錢買一塊這樣的手錶,或者通過汽車炫富。

這也是不利條件的原則,比如有人進了酒吧,戴了假冒的勞力士,可能有時候會有效果,看上去是勞力士的手錶能夠吸引稀缺的資源。當大家都進入這個酒吧,都是戴著假勞力士,這個信號在這樣的背景下就失去了一些價值。它沒有幫助你吸收稀缺資源。這樣時候你想像一下,這個酒吧有多少個勞力士,有多少所謂的打結的原則,才讓你失去效果?

有的時候為了自己,典型一個例子,我經常使用的就是我妻子問我她今天晚上看上去怎麼樣,我說看上去很好,有的時候我知道她長得怎麼樣,我還是要善意地欺騙一下。還有一個,我們結束之後大家說你講得很好。其實有的時候這樣的講話很糟糕的,特別是亞洲有很多這樣的,說你講得很好就是恭維你。我們怎麼使用其他的欺騙,在機器人系統當中推動他們社交的活動,我們所說的這裡用的就是犯罪學的法則。

所以我們希望能夠把它擴大成三個元素,所謂的動機、方法、機遇。機遇已經講過了,包括怎麼樣做,什麼時候做,我們現在必須要有為什麼做,為什麼做這樣做,特別情況下動機是什麼,還有做這樣目的的方式。比方說欺騙。你可以通過說委託或者說投入來去欺騙某人,所以它的方式也不同,當然最典型的例子就是我們可以用一些內部的表情,或者一些距離的轉換層進行這樣的做法。

我之前就機器人的一些動態和索尼有一些合作,跟三星合作,在十年、十五年之前有專利,當然會有不同的事項,我們有不同的方法顯示了出去,基本上顯示了一些錯誤的信號,在人的主題當中我們研究了它的起作用方式。我們的目的是希望推動我們學習、推動機器的表現。有的時候有人會說,那確實,你做得很糟糕,或者恭維你兩句,在教育當中經常出現這樣的情況,可能大家都是天才。但是我們是要不斷地能夠在這裡面取得成就。

七、機器人的道德倫理

最後一點就是機器人的道德,對於機器人的道德倫理我自己做了很長時間的研究,超過十年了,所以我們從這樣一個所謂的大規模殺傷性,特別是大規模殺傷性武器的機器人使用角度,我們允許機器人撒謊嗎?

我們有一個理論,這是一個框架理論,我們看到理論就是永遠不應該撒謊。如果從功利角度,如果能夠最大化我們的幸福度,我們有的時候也能夠接受機器人撒謊了。所以我們要界定什麼是正確,什麼是不正確的?

我們可能對於這個欺詐來講,機器人根據不同的理論框架有不同的判斷。但是,我們的問題最終還是我們是否允許機器人撒謊。我們是否可以允許,我們可以做到這一點,我們也可以想像現場的一個專家來講,和過去相比,對於未來來講是否因為欺騙形成,導致人類末日的到來。或者能夠讓機器人成為社會的一份子,成為我們社會當中一個社交好夥伴。實際上每一個環節都需要非常坦誠對白的,有的時候並不是很好的社交方面的朋友或者夥伴。所以很多的時候,我們也是需要能夠界定你所需要的對機器的坦誠度高低。

八、總結

總結一下,現在來講,我們有不同的道德理論,以及全球的一些問題。我們也有一些負責機器人的委員會,以及它的下級的機器人道德倫理的職委委員會,如果大家對相關的內容感興趣的話,我們也能夠和大家聯繫,我們很快在奧斯頓有這樣的會議,我們有相關的專家研究此領域,如果大家希望有更多的信息或者看我們的論文的話,這些都是大家可以到訪的網站信息,大家可以在網上了解這些內容。非常感謝大家的傾聽。

點擊展開全文

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器人庫 的精彩文章:

「預言家」凱文·凱利主旨報告:十條犀利前沿理論大曝光!
柯潔輸了第一局,人類再也贏不了人工智慧?
現場簽約7000多萬,智能製造應用集成供需對接會成功舉辦
中國機器人產業火力全開 人才缺口或將拖後腿
AI行業之戰,得「視覺」者得天下

TAG:機器人庫 |

您可能感興趣

機器人or人類?
機器人一秒記憶?如何解決這個弊端?Facebook說話了
情感AI?Anki最新款機器人會成你的伴侶嗎?
想確保你的飯碗不被機器人搶走?聽聽EmTech Next專家的建議
人工智慧會取代人類?機器只有chip,而人有heart
TEDx演講——「機器人」是威脅還是機遇?
Google人工智慧助手可以幫人在餐廳訂座了,讓機器給人打電話那種
如何看待《Facebook關停了人工智慧實驗:因兩個機器人開始用自己的語言交流》這件事?
蘋果機器人拆 iPhone ,誰敢 PK ?
繼Pepper機器人後,Sony機器狗aibo拆解報告出爐
別想糊弄YouTube的版權機器人
Angelababy二胎提上日程?李晨為范冰冰甘作「美妝博主」?《機器人爭霸》厲害了
Facebook因兩個機器人用自己的語言「對話」,關停了人工智慧實驗
優傲機器人e-Series協作式機器人震撼登場!
人類情感伴侶 Anki推出Vector智能機器人
Hinton:人類就是機器,絕妙的機器
Facebook AI負責人:索菲亞機器人就是狗屁
這家無人餐廳告訴你:機器人餐廳已經太low了!
家用機器人又添一員大將?Facebook機器人獲得美國專利
微軟發布Windows版機器人操作系統,可管控更多日常機器人