當前位置:
首頁 > 最新 > 讓AI指點人類如何社交?新實驗表明AI在合作妥協方面更出色

讓AI指點人類如何社交?新實驗表明AI在合作妥協方面更出色

原標題:讓AI指點人類如何社交?新實驗表明AI在合作妥協方面更出色

經過研究人員的合作,Facebook、谷歌和推特的郵件評論機器人的表現比他們的人類同行更出色。

本文來自於Brigham Young University,在那裡研究人員們開發了一種演算法,該演算法不僅能教機器如何去贏得遊戲,還能合作和妥協——有時還會互噴。

眾所周知,如今的人工智慧會下象棋,並且在其他的零和遊戲中也能時而擊敗人類中的佼佼者。

但如果是在合作和妥協方面,而不是競爭方面,人工智慧的表現又會如何?

在由BYU計算機科學教授Jacob Crandall和Michael Goodrich創建的新演算法的幫助下,麻省理工學院和其他國際大學的同事們實驗表明,機器的妥協與合作不僅是可能的,而且有時甚至比人類更有效。

Crandall說:「最終的目標是,我們要理解與人合作背後的數學原理,以及人工智慧需要什麼屬性來發展社交技能。」

「人工智慧需要能夠對我們做出回應,並清楚地說明它在做什麼。它必須能夠與他人互動。」

在這項研究中,研究人員用一種名為「S#」的演算法對機器進行編程,並通過各種各樣的二人遊戲來運行它們,看看它們在某些關係中能達到多好的合作程度。

團隊測試了雙機模式、人機交互模式和雙人模式。

在大多數情況下,使用s#編程的人工智慧機器在尋找對雙方都有利的折衷方案時優於人類。

Crandall說:「兩個人,如果他們彼此坦誠相待,互相忠誠,就會像兩台機器一樣。」「但事實上,大約有一半的人都在某一時刻撒了謊。」

「從本質上講,這個特殊的演算法在學習道德特徵的方面幹得很好。它的程序被設定為永不說謊,而且即使有人撒謊,它也學會了繼續保持合作。」

研究人員進一步加強了機器的合作能力,通過一系列「無用的話語」(cheap talk)來進行編程。

在測試中,如果人類參與者與機器合作,機器可能會以多種鼓勵語言來回應,如:「很好,我們有所進展了」、「我接受你最後的提議。」

如果參與者試圖背叛機器或打破約定,他們可能會被噴:「詛咒你!」、「你會為此付出代價的!」甚至是某些髒話。

無論是在遊戲還是配對中,這些「無用的話語」使合作的數量增加了一倍。

當機器使用這些語言時,他們的人類對手常常無法分辨他們是在和人類還是機器交談。

Crandall希望這項研究結果能對人際關係造成長期的影響。

他說:「在社會上,人際關係總是會破裂。多年的朋友可能突然變成了敵人。因為機器往往比我們更擅長達成這些妥協,它將能教會我們如何做得更好。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 實驗 的精彩文章:

富蘭克林做過風箏實驗嗎?

TAG:實驗 |