當前位置:
首頁 > 新聞 > 湯曉鷗:人工智慧的「中國式十月革命」

湯曉鷗:人工智慧的「中國式十月革命」

在今天的 EmTech 上,商湯科技創始人、香港中文大學信息工程系教授湯曉鷗發表了名為《人工智慧的中國式文藝復興》的精彩演講,以下為演講全文:

Ladies and Gentlemen, Good morning. Sorry, I will conduct my entire talk in Chinese, in 東北 Chinese.

今天,我講的題目是人工智慧的中國式文藝復興,這個題目我在上海講過一次,我這個人不太喜歡重複自己,於是我又想了一個新的題目,叫人工智慧的中國式十月革命。

言歸正傳,我每次演講,都是從這張照片開始,有兩個原因,第一,這是我兒子;第二,他長得漂亮。今天又多了一個更名正言順的原因:在座有很多 MIT 的教授,我兒子再過四、五年就要申請大學了,我想提前讓教授們認識一下我兒子,幫助他將來申請。我想我長這樣都可以進 MIT,他這麼帥,應該沒問題。雖然他學習成績很一般,而且不是一般的一般。

圖 | 湯曉鷗在演講介紹兒子

再一次言歸正傳,我想大部分中國人都應該知道這部電影——《戰狼》。一下子賺了 56 億。這在 15、20 年前是不可能的;那時候中國的一部電影是不會賺這麼多錢的。這有很多原因,其中一個非常重要的原因就是今天我們都願意花錢去電影院看電影了,而 15 年前、20 年前,很多人會去買盜版的 VCD,或者去網上下載一個盜版。如果這樣,導演和演員也就沒有動力再繼續堅持下去了。今天中國電影的成果最重要的推動力就是我們對原創和版權的尊重。

我們現在不是只有一部電影這樣成功,比如這部《羞羞的鐵拳》羞羞就賺了 22 億,《芳華》是一部文藝片,也能達到 14 億的票房,《前任 3》的票房是 18 億,平均每個前任 6 億,《無問西東》是一部非常有情懷的文藝片,也做到了 5 億票房。都非常不容易。

所以,對原創的尊重使得中國的原創電影不斷往前發展。在三四十年代,全球電影發展起來時,中國電影並不落後,像《馬路天使》、《一江春水向東流》一點也不輸給好萊塢電影。即使在那個戰火連天的年代,中國還能夠拍出這些好電影,一個原因可能也是當時沒有 DVD 和互聯網來幫助盜版。

再往前,說一下文藝復興的時候,如果米開朗基羅的這些作品或者任何一個藝術品很快有人複製,那麼他可能也賺不到什麼錢,也可能活不下去。所以,對於原創的尊重也是文藝復興能真正興起的一個原因吧。

說到原創,下面我們來講講人工智慧。一提到人工智慧,大家腦海里第一個想到的公司是哪一家呢?是的,我相信大家都猜到了—那一定是商湯科技。請大家不要笑……這個有點不禮貌,我還在台上呢。好吧,目前應該是谷歌,但是總有一天,我相信人工智慧這個熱潮一定會過去的,等這個熱潮過去了以後,商湯一定會成為人工智慧最頂級的公司。

那為什麼是谷歌?因為谷歌真的把資金投入人工智慧發展,2015 年的研發經費就是 120 億美金。2014 年有一家公司叫 DeepMind,只有 12 個員工,沒有賺錢,只是在用深度學習玩遊戲和下棋,但是谷歌就花了 6.6 億美金收購了這家公司。如果是在中國,大家就會花幾百萬美金把人一個個挖過來,那要便宜得多。但是如果那樣做的話,就不會有後來的 AlphaGo 了。

那麼 AlphaGo 之後大家還能做點什麼呢?谷歌又做了 AlphaGo 2 和 AlphaGo Zero,有些公司開始學著 AlphaGo 下圍棋,還有的公司選擇打撲克牌,這從某種意義上講,都是跟著別人的後面做事情。

真正有意義的事情是在 AlphaGo 之前你做了什麼?有沒有做什麼事情讓機器在某項任務上戰勝人類。在 AlphaGo 之前我們做了一件事情,2014 年,我們團隊從事人臉識別,在全球第一次讓機器的人臉識別能力超過了人的眼睛,像 AlphaGo 一樣,在某一個人類定義的單項任務上,機器超越了人類。

超越了人類就過了一條紅線,而過了這條紅線就可以在工業上進行應用了。但是在真正應用的時候,又發現了很多問題,過了紅線還是不夠用的,從實驗室到大規模產業化還有很長的路要走。

2014 年,我們用 20 萬人臉來對機器進行訓練做到了 98.5% 的準確率,而人是 97.5%;2015 年我們用 30 萬人臉進行訓練,達到了 99.55% 的準確率;2016 年,我們用 6000 萬人臉訓練可以達到了百萬分之一的誤識率;2017 年,我們用 20 億人臉訓練可以達到一億分之一的誤識率,而這樣的誤識率才可以真正地應用到各行各業,包括監控、金融、安防、手機等行業。所以,我們和高通簽署了全球 AI 戰略合作協議。

那麼除了人臉識別,我們現在還做什麼?由於時間關係,我從我們做的十幾個行業里選出一個來簡單介紹一下——視頻分析

下面這個技術是行為檢測:

這是里約奧運會的跳水比賽直播,大家可以看到過了 9 分鐘也沒有看到跳水的內容,要花一大堆時間看一些枯燥的內容介紹。所以,我們用計算機視覺分析的方法,可以從很長的一段視頻里把重點內容檢測出來,你就可以直接跳過沒有意義的部分,直接看這些有趣的、真正的跳水的鏡頭。

下面這個演示是基於內容的視頻搜索:

在電影中我們可以把各種各樣的片段搜索出來,比如說你想搜索武打動作片段,或者喜劇片段,我們可以直接把它搜索出來,或者你想搜索科幻的,我們可以把科幻的片段搜索出來。

下面這個演示是用自然語言描述來進行場景搜索:

我們用自然語言來描述一個電影中的場景,然後它就可以自動根據你的描述把這個電影片段搜索出來,比如,我們要搜 house of cards 中的一個片段,Claire 和 Frank 坐在藍色沙發上」,大家看到下面這段場景就出來了。

另外我們不但能把視頻分析出來,還能理解這個視頻,然後用自然語言描述出來。比如下面這些運動視頻,機器就可以像解說員一樣來描述運動場上發生的事情。

IJCV 是我們這個領域的兩大頂級雜誌之一,作為IJCV 的主編,我會在每年的 ICCV 和 CVPR 兩個計算機視覺頂級會議上,主辦 IJCV Night 晚會,邀請幾百位頂級學者參加。去年 10 月份,我們在威尼斯的 Lido 酒店舉辦了這個晚會。

上世紀的一部美國電影《美國往事》就是在這個酒店拍攝的,下面這個演示里我們把電影場景里的所有物體都檢測出來,演員是哪一個演員,他穿的是什麼衣服,這個場景是在餐廳里,所有的桌子、花、椅子全部能夠實時的自動檢測出來,這樣的技術在以前是非常難的,但是現在我們都可以做到了。

再回頭來看我們如何用這些技術來分析前面提到的電影《戰狼》和《羞羞的鐵拳》,我們通過分析這些演員的動作和他們之間的關係,可以分析出來在不同的場景之下,這兩個演員是誰,在做什麼,這個片段是什麼類的情節。

同時,我們可以識別每一幀情節分類,每一個鏡頭是打鬥場景還是戀愛場景。我們也可以把一個電影最精彩的鏡頭提取出來,大家可以挑選比如動作的精彩鏡頭、感情戲的精彩鏡頭、悲劇的精彩鏡頭等等。

圖 | 湯曉鷗在演講

那麼總結起來,我們在做什麼呢?我們是在教機器看電影,一開始我們是教機器來識別人臉,Google 是在教機器來下圍棋,而現在我們來教機器代替人看電影。這個感覺有點怪,我們讓機器來做下棋,看電影,玩遊戲這些有趣的事情,然後我們人類只負責給機器充充電,維修和保養。

我覺得大家聽了這個一定覺得很可笑。實際上所有的任務,都是我們人安排給機器做的,機器是按照我們的指令在做事情,不存在機器控制人類這樣的事情,AI 的真正目的是幫助人類,幫助我們提高生產效率。

最後給年輕人留下兩句話:

第一句,電影一定要自己親自去看。

第二句,AI 這個詞在中國拼音翻譯過來就是」愛」,所以談戀愛也要自己親自去談,否則你就不止」前任 3」了,很有可能」前任 4」、」前任 5」了。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

禾多科技創始人CEO倪凱:L3.5將如何重新定義自動駕駛

TAG:DeepTech深科技 |