當前位置:
首頁 > 最新 > 人工智慧的虛火燒出一地屍骨

人工智慧的虛火燒出一地屍骨

礪石導言:人工智慧的虛火越燒越旺,有狂歡的地方必有人渾水摸魚。很多初創公司普遍開始在自己的商業計劃書中加入很多機器學習等的技術與說辭,並斬釘截鐵地宣稱他們是一家人工智慧公司。儘管這些公司做的事情與人工智慧毫無關係,但是在融資上卻可能會有很大幫助。可以肯定的是,絕大部分在人工智慧風口自我包裝、搞到融資的公司,最後一定是不了了之,留下一地屍骨。

劉國華 | 作者

1

在好萊塢的科技大片中,人工智慧總被定義為一種有自我意識的機器,威脅著未來的人類生存。在《西部世界》、《機器公敵》、《機械姬》、《星球大戰》以及《超能查派》等知名科幻電影中,具備人工智慧的機器人或計算機總是富有感情、具備意志力和決斷力,能夠以自我意識實施行動。比如,在《超能查派》的人工智慧機器人「查派」就設定為一個自我覺醒的機器人。

在一系列機器人科技大片刺激中,人們對人工智慧的想像與期盼也隨之被激發出來。而在科技發展的現實中,我們也的確看到一些人工被機器取代的事實。

2000年時,高盛集團紐約總部的美國現金股票交易櫃檯有600名高薪的交易員。而今天只剩下兩名交易員,因為自動交易程序逐漸取代了其他交易員的工作,這就是機器替代人力的現實場景。越來越多的公司開始布局無人工場、自動化交易。甚至很多人工智慧專家開始幻想,有一天機器本身進行自我進化,進入所謂的「以人工智慧開發人工智慧」時代。

Google的AlphaGo不斷挑戰圍棋高手的成功,「人工智慧」這個辭彙不再是科技人士口裡的專有名詞,而是全民在街頭巷尾熱議的話題。很多專家紛紛表示,世界上90%的工作十年後都會被人工智慧所取代,這涉及到翻譯、新聞記者、保安、司機、交易員等工作。這給人們在空中畫了一個熱氣騰騰,看似味道鮮美的大餅。

在萬眾垂涎三尺的熱切期盼中,中國人工智慧在近兩三年中掀起了一陣陣高潮。根據投資界的統計,2017年中國人工智慧領域公開的融資案例就已經超過150起,其中不乏寒武紀(A輪1億美元)、曠視科技(C輪4.6億美元)、商湯科技(B輪4.1億美元+阿里15億元投資)這樣動輒上億美元的大手筆。來自IT桔子的數據則顯示,截止至2017年6月,我國創業投資機構共發生767項針對人工智慧的投資案例,半年產生的融資已經超過150億元,累積融資額攀升到635億元,佔據全球融資總額的33.18%。

尤其是從工業革命開始,經濟增長的根本動力一直是技術創新。蒸汽機、電力、內燃機等通用技術的出現,的確催化了許許多多創新和機遇的浪潮。人工智慧技術,必然也會總體朝著這個方向發展,但人們對AI也產生了許多不切實際的奢望。

瑞士神經學家Pascal Kaufmann認為,Google AlphaGo儘管在挑戰成功人類所尊崇的、最苛刻的戰略遊戲圍棋,但他堅持認為創造AlphaGo奇蹟的並不是「真正的人工智慧」,而僅僅是機器在遊戲規則之內容制定策略的能力。AlphaGo並不能應用到實際的生活中,甚至在其他的遊戲中,只是廢物一個。

2

1950年,年僅23歲,後被人稱為「人工智慧之父」的馬文·明斯基和他的同學埃德蒙一起,建造了世界上第一台神經網路計算機。一些人把這個時間看做是人工智慧的一個起點。

馬文·明斯基

就在同一年,被稱為「計算機之父」的阿蘭·圖靈在編寫的《曼切斯特電子計算機程序員手冊》一書中,提出了舉世矚目的「圖靈測試」。與此同時,圖靈還大膽預言了真正具備智能機器的可行性。

在圖靈預測的帶動下,當時很多學者心潮澎湃、激動不已,認為人工智慧的時代馬上就要來臨了。有個別的學者甚至明確預測:二十年內,人工智慧會做到人類能做到的一切。

6年之後的夏天,在達特茅斯大學舉行了一次人工智慧的頭腦風暴會議。當時全球最顯赫的專家們都聚集在一起,集中討論如何解決智能模擬的問題,並宣稱取得了一系列讓人熱血沸騰的成果。

在達特茅斯大學會議內容公布後,政府開始大手筆投資人工智慧領域,迎來人工智慧第一個春天。在學術界,樂觀的氣氛瀰漫滋長,在演算法方面出現了很多世界級的發明,包括當前AlphaGo演算法核心思想——增強學習的雛形(即貝爾曼公式)。

但終究樂觀的情緒不抵現實的骨感。研究人員經過十幾年的探索之後發現,實現人工智慧是非常困難的,短時間內根本不可能的。於是在上世界60年代末,相關的基金開始撤資,人工智慧迎來第一個寒冬。

1973年,萊特希爾報告較為客觀的評估了在當時的客觀情況,並對智能思考的機器的可能性做出了消極預測。該報告使得該領域研究的幻想宣布坍塌,人工智慧甚至成為整個時間段非常不光彩的事。

儘管在80年代,日本政府在支持人工智慧發展方面熱情高漲,這也迫使美國及英國政府感到了對抓不到前沿趨勢的危機感,客觀上支持了他們對人工智慧的投入。但是這些並沒有激起大面積政府和民間機構的新投資熱情。

到80年代中期,隨著蘋果、IBM、微軟等的崛起,人們發現之前所謂的初級人工智慧還不如這些個人電腦強大。到1987年,人工智慧的產物開始被很少人提及,這就是「第二次人工智慧之冬」的開始。而且,當時的美國國防部高級研究計劃局明確表明立場反對人工智慧的探究和投資。

這兩次人工智慧的冬天都基於一個事實:人工智慧的現實發展與人們的預期相差甚遠,專家給予的樂觀估計遠遠落後的現實,熱情被消磨之後就是冬天。

這種情況直到1997年才發生逆轉。這年,IBM開發的深藍打敗世界棋王,這才讓人工智慧重新回到人們的視野。之後,在二十多年的發展中儘管出現了很多人工智慧領域的學術突破,但是直到2012年年末才真的被大眾認識,人工智慧開始迎來又一個春天。

到2016年3月,Google AlphaGo與圍棋世界冠軍、職業九段的李世石進行的圍棋人機大戰,世人皆知。此後,人工智慧開始迎來狂歡。

3

有狂歡的地方必有人渾水摸魚。

於是,很多初創公司開始在自己的商業計劃書中加入很多關於機器學習、神經網路和其他形式的技術,宣稱他們是一家人工智慧公司。實際上,他們做的事情與這些技術基本上沒有一點關係。

我前些天遇到一家做兒童書包的公司,他們宣稱就是一家人工智慧公司。結果了解下來,就是在書包裡面放了一個可以定位的感測器。儘管這些公司做的事情與人工智慧毫無關係,但是在融資上卻可能會有很大幫助。

阿里巴巴的前CEO衛哲說:目前人工智慧的泡沫巨大無比,媒體吹捧,市場過熱。市面上很多公司號稱自己是「人工智慧」公司,但有九成的人工智慧公司都是「偽人工智慧」。

ReadMe公司的CEO格雷戈里·科貝格(Gregory Koberger)甚至在Twitter上告訴人們如何建立一個人工智慧創業公司的兩個步驟:第一步是僱傭大量廉價勞動力假扮成假扮人類的AI,第二步就是等著AI被發明出來後,再模仿出來。他甚至認為,這種做法已經是業界周知的秘密了,只是大部分看客都還蒙在鼓裡。

換句話說,一些創業公司所謂的人工智慧,比如一些機器語音對話,背後不是「人工智慧」,而是真正的「人工」;一些所謂的人工智慧翻譯,背後可能是很多人在翻字典。

早在2008年,一家號稱能將語音留言轉化為文字的Spinvox的公司,他們真實的工作就是海外電話中心的人工來完成的。據彭博社2016年的報道, X.ai和Clara公司員工每天都要花12小時假扮AI聊天機器人。2017年,業務支出管理應用Expensify承認,他們通過人工轉寫收據,而不像對外聲稱的那樣用「智能掃描技術」。

在這場造假的遊戲中,媒體與機構各有所求:媒體求得關注、吸引眼球,而公司或者機構則可以提升股票的價格,提升產品的銷量,獲得一輪又一輪的融資。

一旦人工智慧的外衣被揭穿,對他們實際影響也不大,他們早就做好了跑路的準備,而中小投資者才是真正的買單者。可以肯定的是,絕大部分在人工智慧風口自我包裝、搞到融資的公司,最後一定是不了了之。

世界頂級黑客凱文·米特尼克(Kevin David Mitnick)在2017年8月參加中國互聯網安全領袖峰會時,殘忍的表示:「我還沒有真正接觸過真正符合人工智慧的核心工具和技術,現在都還沒有真正的人工智慧產品,所有的AI都是假的。」

4

人工智慧的概念滿天飛,除了暗下以「人工」代替「人工智慧」的造假,還有大量把數據分析當做人工智慧的公司滿天飛。這些公司一般的演變路徑是:小數據分析公司——大數據公司——人工智慧公司,實際上他們除了名稱在演變外,實際上的工作幾乎沒有發生變化。

很多人錯誤地認為,一家公司的業務只要與數據有關,就可以被稱為人工智慧。其實區別人工智慧公司和一般數據分析公司的關鍵在於:人工智慧系統具有迭代性,分析的數據越多,系統就會變得越智能。比如,Google大力研發的自動駕駛系統是人工智慧,因為它可以根據車輛在路上的行駛里程來不斷完善自己。但如果只是根據數據來分析什麼時候送外賣最好,就不是人工智慧。因為前者會迭代和自我學習,而後者不會。

一般而言,一個人工智慧項目如果隔三個月去看,它在演算法上的進步只是代數級,而不是幾何級的,那麼它更像是普通演算法,就是偽人工智慧。強的人工智慧一定是進步神速,因為它本身會實現自我進化。

但實際上要實現這種自我進化,目前看起來還顯得相當艱難,即使目前拿最火熱的深度學習技術也讓人看不到很明顯的方向。2018年8月,在以「共享全球智慧,引領未來科技」為主題的世界科技創新論壇上,諾貝爾經濟學獎獲得者Thomas J. Sargent表示:當前的人工智慧其實就是統計學,只不過用了一個很華麗的辭藻,好多的公式都非常老。

被譽為「矽谷精神佈道師」的皮埃羅·斯加魯菲(Piero Scaruffi)是全球人工智慧及認知科學專家,他也認為:「人工智慧最大的問題是沒有常識,人們已經花了幾十年去嘗試解決這個問題,可能我們的方法用錯了。現在所有的重點都在深度學習,但深度學習不能獲取常識。深度學習只是收集許許多多的數據,基本上做的是統計工作。」

5

當然,並不是所有的公司都只是打著人工智慧的旗號,做著騙取資本的事情,而是實實在在在做一些推動人工智慧發展的工作。但是,一些人工智慧探索的方向仍然是值得警惕的。

比如,一些人工智慧似乎走向了一個不是那麼正確的方向:一味追求和人很像。如果真的很像了,又能怎麼樣呢?事實上,人越覺得輕而易舉的事情,機器越覺得困難,比如走路,比如平衡感,比如情感。而人覺得越難的事情,機器覺得越簡單,比如大型數據處理能力,記憶等等。所以,人工智慧的方向也許應該是替代那些人覺得難的部分,而非替代人覺得容易的部分。

人工智慧有兩種應用形態:一種是弱人工智慧,即只擅長單個領域,比如只會下圍棋的AlphaGo;另一種是強人工智慧,即各方面都很強。現階段,弱人工智慧比人強,強人工智慧比人弱,且非常不成熟。

人工智慧的好處,不是說他們比人聰明,而是他們的思維方式和人類不一樣,因為人工智慧的發展方向並不是強調它跟人類如何像,而是補充與增強人類智慧。人的思維方式只是具體的某一種思維方式,而世界上還有許多思維方式。凱文·凱利在此前的《科技想要什麼》一書中,就把科技描述成生命的第七種存在方式,就像人類已經定義的六種生命形態,植物、動物、原生生物、真菌、原細菌、真細菌一樣,科技也是一種具備自主進化能力的生命。

另外,人工智慧要真正實現助推人類的發展,必須還要具有跟人類情感交互的能力,否則就永遠是一件機器。人和人之間互動之所以有意義,是因為人類互動的百分之七八十都是情緒。

人和人之間之所以能夠感受到相互的感情溝通和交流,是因為我們大腦有一組叫做鏡像的神經元,它的作用就是當對方臉上出現或者快樂或者悲傷或者焦慮的各種表情的時候,你的臉上下意識的就會呈現出同樣的表情跟他來呼應。人工智慧儘管獲得了一些發展,但是在解決情緒方面還有很大的差距。如果情緒問題沒有進入人工智慧底層,人工智慧終究只是一個機器配置,無法獲得人類的交互。

因此,人工智慧需要情緒鏡像的技術,用攝像頭來捕捉人類的面部表情,再通過演算法來理解人類的情緒,然後以情緒與人類進行交互。

6

人工智慧一定是未來的方向,這點毋庸置疑。但是我們短時間,切記不可期望過高,否則可能又是一地的「屍骨」。

我們不要馬上就期待看到路上不需要人工駕駛的汽車。其實,我們離那個時代還很遠。坦率地講,當前的人工智慧領域就像是一杯搖晃很久的啤酒,既有真酒,更多是存在很大的泡沫。人工智慧就像早期的互聯網一樣,成為了圈錢的金字招牌。

曾在IBM研究院和沃森團隊工作了15年的Michelle Zhou把人工智慧分為三個階段:第一個階段是識別智能,更強大的計算機和更強大的演算法,可以從大量文本中識別模式和主題;第二個階段是認知智能機器超越模式識別,能夠從數據中做出推論;第三個階段是機器可以像人類一樣思考和行動。

目前我們還處在第一階段,所有的人工智慧都依賴人類提供數據,無論是計算機視覺還是語音識別都是如此。

至少到現在為止,很多宣稱是人工智慧的東西,也許叫做「機器自動」會更好。智能時代還遠沒有來臨。

即使那一天來臨,我們也要時刻警惕兩點:一是因為個別機構或群體對人工智慧的掌控,造成的整體社會權利的失衡。二是人工智慧的暴力傾向。

英國哲學家羅素曾說:物理學中的基礎概念是能量,而社會科學中的基礎概念是權力,對社會動力學規律的闡釋一定離不開權力。中世紀的社會活動家馬基雅維利從當時殘酷的社會現實出發,指出權力就其本質而言,與暴力、欺騙、殘酷和戰略侵犯密不可分,越能掌握這種工具的群體就會擁有越大的權力。一旦失去暴力、欺騙、殘酷和戰略侵犯等手段,就失去了權力存在的基礎。

作為未來基礎工具的人工智慧,由於內核只可能被極少數的群體掌握,去影響人們生活的方方面面,因而會使人類之間已然失衡的權力變得更加失衡。

另外,隨著人工智慧技術的進步,未來可能一個普通人也具有了廣泛製造暴力的能力。比如隨著面部識別、無人機導航等開源技術的傳播,使一些犯罪分子利用這些技術實施犯罪成為了可能。想像一下,如果一架自動飛行的無人機具備了面部識別能力,然後針對目標對象精準發動攻擊,世界將會如何呢?

7

儘管人類離人工智慧社會還很遙遠,但是人工智慧的發展還是帶來了一些恐懼。2018年3月,Google被披露與軍方合作,引起大量員工抗議,受到各路抨擊。作為回應,Google CEO桑達爾 · 皮查伊(Sundar Pichai)在2018年6月宣布了他們使用人工智慧的七項原則,以及四條底線。

這七項原則具體內容包括:對社會有益;避免製造或加劇社會偏見;提前測試以保證安全;由人類承擔責任,即AI技術將受到適當的人類指導和控制;保證隱私;堅持科學的高標準;從主要用途、技術獨特性、規模等方面來權衡。

四條底線是:對於那些將產生或者導致傷害的整體性技術,我們會確保其利大於弊,並將做好確保安全的相關限制;不會將AI用於製造武器及其它將會對人類產生傷害的產品;不會將AI用於收集或使用用戶信息,以進行違反國際公認規範的監視;不會將AI用於違反國際法和人權的技術開發。

這不應是Google一家公司的原則與底線,而是所有從事開發人工智慧公司的原則與底線。只有這樣,人工智慧才是造福人類的工具,而不是毀滅自己的工具。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!

TAG: |