當前位置:
首頁 > 新聞 > 論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

雷鋒網 AI 科技評論按:由清華大學 AI 研究院張鈸院士和清華大學唐傑教授聯合發起的「AI Time」science debate 第一期,於 5 月 31 日圓滿落幕。出席嘉賓還包括中國人民大學高瓴人工智慧學院院長文繼榮和搜狐網產品技術總監楊田等人,就主題「AI 安全與倫理」展開了激烈的辯論。近來,由 AI 人臉合成技術帶來的一系列問題已引起了社會的廣泛關注,而 AI 究竟應該如何發展?AI 革命應做出怎樣的貢獻?對於這些問題進行深入探討,刻不容緩。

論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

圖 1 「AI Time」science debate 現場

Topic 1:影片《Her》中女主角那樣的智能我們能做到嗎?

本次活動由電影《Her》開場。影片講述了男主角西奧多(作家)在結束了一段令他心碎的愛情長跑之後,與電腦操作系統里有著性感嗓音且風趣幽默、善解人意的女主角「AI 薩曼莎」開啟了一場跨「種族」的愛情故事。但在現實社會,我們真的能將 AI 發展成為影片里的「薩曼莎」那樣嗎?如果真的能達到這樣的高度,我們目前面臨著什麼挑戰呢?

來自人民大學的文繼榮教授首先對此進行了解讀,他表示我們一直以來的口號,即為「人類探索智能且有溫度的未來」。但就目前看來,AI 產品與設想有一定偏差。在我們不斷推動人類技術邊界的過程中,有很多問題出現,但是我們沒有引起足夠的關注,如目前的 AI 不具有情感,因為它的優化目標不是倫理的東西,而是完成既定目標。因此,現實與影片中的 AI 之間還具有很大的差距,但我們能夠在某些局部實現其功能,如利用現在的大數據和深度學習的技術,將你每天發生的事情記錄下來,建立個性化的模型,可以實現基本的聊天功能,甚至它可能變得比你更懂自己。

論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

圖 2 《Her》劇照

張鈸院士則明確表示影片里的智能目前無法做到,因為其中包含了一個嚴肅的哲學問題——「什麼叫做愛,什麼叫做美?」這類問題定義本身就不夠明確,其中包含很多主觀與客觀的因素在裡面。而人工智慧目前遇到最大的問題,就是要在對人腦了解很少的情況下去做人工智慧,這裡面就會產生各種各樣的流派,利用這種模糊性來宣傳一些觀點。另一方面,目前流行的人工智慧主要基於人類的行為主義學派而定義,即人工智慧在某些行為判定上超過人類。人工智慧如果想要有新思路的發展,首先需要解決哲學與 AI 之間的問題。最後張院士還表示,在研究上要成為真正的大師級人物,必須要有哲學思想,沒有哲學思想不可能產生全新的格局。

而來自工業界的楊田博士從 AI 相關產品的層面來解答了這個問題,他表示影片提到的人工智慧是很聰明的,像人一樣有情感,而現在我們看到的 AI 產品跟這個差距很大。現在的 AI 產品基本是來自於「最優化問題逼近現實表達」;而無法達到像人類那樣的情感表達。不過從技術層面來講,當前是可以得到像人一樣交流的 AI 產品,一旦人的情感被其他人用 AI 產品惡意利用,這是一件及其令人擔憂的事情。

Topic 2:未來十年內,最可能在現實中發生和實現的 AI 場景是什麼?

楊田博士表示,就目前對 AI 的定義來說,很多實際應用做得非常好,如語音對話、語音合成、駕駛技術等方面。但對學計算機的人來說,它離通過圖靈測試還有很長的距離。

張鈸院士則提到了關於 AI 的定義。目前,我們採用哲學裡的行為主義標準來對 AI 進行定義,即 AI 肯定是在很多限制條件下,才會在某個方面超過人,但無法實現全面超過人類。也就是說,這個機器表現出來的行為跟人一樣或者差不多的,我們就認為它就具有智能,比如這個機器做圖像識別,它能夠把不同的圖像分開,識別率接近人或者超過人,那我們就說在圖像識別這個具體條件下它跟人是一樣的。但這兩者背後的原理完全不一樣,AI 的魯棒性和抗干擾能力比人差多了。所以我們現在只能做到這點,在某些行為上使 AI 儘可能接近人。

論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

圖 3 張鈸院士對AI的理解

文繼榮教授提出一個很有意思的思想:不精確的帶有很強容忍性的場合是將來人工智慧會成功的地方。他說道:寫程序的各位可能心裡一直有一個疑惑,為什麼他寫的程序叫人工智慧,自己寫的程序就不叫人工智慧?他提出如果程序的輸出是確定的,就不是人工智慧,如果輸出是模糊的,是帶有不確定性的,可以由精度來衡量,比如人臉識別 95%,就是人工智慧。還有如果程序再進一步能夠應付多樣性和變化性,還得到比較高的精度就是人工智慧。

Topic 3:關於 AI 隱私與安全之間,應該如何抉擇?

在這裡,主持人先引入了一個故事。一輛火車行駛在正常軌道上,前方有 5 個人,而另一條岔道上有 1 個人。在無法停車的情況下,是轉向岔道撞死一個人,還是繼續開下去撞死五個人?

結合這個問題背後涉及的一些倫理、價值觀進而深入到哲學層次的一些問題,三位嘉賓給出了自己的觀點——

張鈸院士談到了這個故事背後所涉及到的東西方價值觀差異。按西方的價值觀比較強調個人利益,個人利益神聖不可侵犯,所以在這個問題上,他們會傾向於按照原定軌道行駛。而從中國的價值觀來講,公共利益大於個人利益時,可以適當犧牲個人利益。所以就 AI 隱私與安全來講,其實不存在絕對的選擇,相比之下,如何去平衡這兩者是個更值得探討的問題。隨後他舉了一個利用在部分公共場合增加攝像頭,從而使抓到逃犯的幾率上升的這個例子。裝攝像頭肯定損害了個人利益,但卻保證了更多人的安全。所以就個人而言,張鈸院士主張如果影響到了公共利益的罪犯要抓,個人要做點犧牲;但這是中國的哲學、中國的價值觀,西方不接受這種價值觀。

文繼榮教授則呼籲道:目前有些數據的搜集是完全沒有必要的。歐洲也許過於強調隱私保護,對大數據人工智慧產業的發展造成很大的影響;但是我們也不應該純粹為了發展人工智慧產業而忽略隱私保護。

楊田博士反對說,我們其實或多或少都從所謂的個性化推薦上面獲得了便利,個性化推薦也可以理解為向系統出賣了我們的隱私換來了生活的便利。從火車的角度來說,即使從功利主義的角度來講,我們並沒有充分的信息證明哪個選擇會獲利更高,這是不成立的。我們到處裝攝像頭,確實侵犯了公民的隱私權;但是攝像頭的存在事實上確確實實改善了治安環境。在過去科學沒有那麼發達的時候,大家相信自己的一舉一動有神在上面看著,所以道德教育約束我們自己。現在我們不信神了,在這種情況下這些技術手段起到了威懾作用。看問題不應該極端和絕對,其間邊界在於這個事情或者這種數據採集它能不能作為對我行為不當的一種證據,本身不應該由圖像採集這件事情來承擔。

論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

圖 4 激烈的辯論現場

文繼榮教授接著提出了一個關鍵性的問題,這個問題是懸在我們頭上的劍,而且風險很大,即我們無法保證數據 100% 不會被濫用,很多事情容易越過界。如果這些事情不受監管的話,是非常值得擔憂的。

Topic 4:針對 AI 武器的自主性與殺傷力,哪一個是更令人感到擔憂?

文繼榮教授告訴大家:我們對 AI 的恐懼主要是來自於對它自主性的害怕,脫離開人的控制的恐懼感。從 AI 聯想到這些武器和將來未來的機器有自主性,它有可能會脫離開人的控制,它的黑箱性以及隨著環境自學習的能力。程序員起初給它一個規則,但之後學出怎樣的模型,很可能會隨著環境變化,變得失控。如果說不可控,同時又有很大的威力,這個就是很可怕的事情。

張鈸院士說到人類的意志才是戰爭的根本,機器只是被操控的。戰爭裡面不管發展到什麼程度,最後都是按照人類的意志來進行的,不會按照機器的意志來進行的。危險在人不在機器,所有機器還是聽人安排聽人指揮的,包括自主的機器在內也是在聽人安排聽人指揮的。現在所有的發展都是這樣,機器人做壞事是人指揮的,離開了人它就不知道幹什麼。所以不論是無人平台還是無人機,都不是真正的無人,其中包含了人的干預。

楊田博士表示他對 AI 武器最大的擔憂在於,我們應該允許在沒有經過人類審判的情況下讓武器去消滅一個人嗎?這確實是個值得大家進一步思考的問題。

Topic 5:未來的 AI 有沒有可能能做到大殺傷力,其帶自主性的程度是怎樣的?

張鈸院士表示人工智慧現在發展的技術基本在軍事方面用不上,軍事必須發展人工智慧技術。自主性不是隨便機器自己的想法而行動,而在於機器和前面的信號斷開後,在沒有無線信號情況下,它還照樣按照任務行動。

楊田博士則明確表明這自主性還是比較難實現的,因為從現在人工智慧的發展程度來講,都是在做任務,從解決一個小的任務到比較大的任務,到特定的場景下能工作,再到能夠去做更多的事情,這也是幫助我們更好地理解現在的人工智慧所處的階段和接下來要做的事情這樣一個途徑。

論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

圖 5 針對AI武器分級的討論

Topic 6:是否應該給 AI 分級?

文繼榮教授認為,AI 可以大致像自動駕駛那樣,根據它的智能體面對環境多樣性或者變化性時的處理程度來定。傳統的程序,輸入是確定的,輸出是確定的;而如果在所有的場景下,AI 都能夠自主地完全用人工智慧來完成駕駛,這是自動駕駛的最高級;而對於其它層級,可以再做詳細的定義和思考。

楊田博士也同意分級;他表示從現在人工智慧的發展來看,都是在訓練其做任務。從解一個小的任務到比較大的任務,到特定的場景下能夠工作,到能夠去做更多的事情,這(分級)也是幫助我們更好地理解現在的人工智慧所處的階段和接下來要做的事情的一個途徑。

在本期 science debate 的最後,三位嘉賓對在場觀眾所提出的一些其它 AI 相關問題,也作出了相應的解答,在此就不詳細列舉出。

論道AI安全與倫理:我們能達到電影里的智能嗎?最可能實現的AI場景是什麼?如何看待AI自主性?

圖 6 「AI Time」science debate

關於 AI TIME

AI Time 是一群關注人工智慧發展,並有思想情懷的青年人創辦的圈子。AI Time 旨在發揚科學思辨精神,邀請各界人士對人工智慧理論、演算法、場景、應用的本質問題進行探索,加強思想碰撞,打造成為北京乃至全國人工智慧知識分享的策源地和聚集地。

因此,AI Time 的初衷在於學術的探討與分享,無論是對於某項科學技術的討論,亦或是針對某一學術觀點的深究,在這裡都是被充分允許且大力支持的。以後 AI Time 還將繼續為大家每月獻上一場辯論,將會有人工智慧領域的各位大咖蒞臨現場,期待你的參與!

雷鋒網AI科技評論報道 雷鋒網

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

ARM、英特爾、AMD 的處理器路線之爭
惠普發布了一款新背包:可連 VR 頭顯,也可當電腦主機

TAG:雷鋒網 |