當前位置:
首頁 > 新聞 > Yann LeCun、吳恩達等多位專家的2019年AI發展預測

Yann LeCun、吳恩達等多位專家的2019年AI發展預測

人工智慧技術既可能拯救世界,也有可能帶來一系列挑戰。其重點在於,如何正確使用。

關於這個話題,VentureBeat採訪了多位人工智慧領域的專家學者。以下是谷歌大腦聯合創始人、現Landing.AI公司CEO吳恩達、Cloudera機器學習總經理兼Fast Forward實驗室創始人Hilary Mason、Facebook AI Research部門創始人Yann LeCun以及埃森哲公司負責任人工智慧全球負責人Rumman Chowdhury博士,對於2018年人工智慧領域的觀察,以及對2019年發展趨勢給出的論斷與見解。

Yann LeCun、吳恩達等多位專家的2019年AI發展預測

打開今日頭條,查看更多圖片

總結來說,一方面人們開始越來越意識到AI能做什麼以及無法做到什麼,另一方面,越來越多的人意識到在推進技術發展的同時仍要堅守住負責任的道德規範。

吳恩達:2019年AI的發展重點是場景應用

Yann LeCun、吳恩達等多位專家的2019年AI發展預測

吳恩達是斯坦福大學的兼職計算機科學教授,他的名字在人工智慧圈子中幾乎無人不知。首先,他是谷歌大腦的聯合創始人,在2017年離開了谷歌團隊之後還出任了百度的首席人工智慧科學家。隨後,他又創立了Landing AI公司,主要業務是幫助企業客戶將人工智慧整合至自身運營體系當中。

在採訪中,他表示自己在2019年比較關注的目標是人工智慧能夠在技術或者軟體企業之外,被引入到更多應用場景中。他強調,人工智慧技術最大的潛力絕不僅限於軟體行業。

「我認為新的一年(2019年)大部分重要事件都將出現在各種應用場景當中。除了谷歌、百度、Facebook以及微軟等科技巨頭之外,包括Square、Airbnb以及Pinterest等在內的企業,也紛紛開始利用人工智慧技術創新業務。我認為,AI的下一波價值創造點將更集中在製造或農業設備企業,甚至是醫療保健公司。」吳恩達表示,「雖然目前人工智慧的實際應用還存在著嚴重阻礙,但在我看來其中一部分問題在某些特定層面已經取得了重大進展。」

同時,吳恩達還特意指出,自己很高興人們終於不再糾結於機器人殺手或者AI滅世論,而能夠真正談點有營養、有技術含量的話題。

著眼於新的一年,吳恩達期待看到人工智慧和機器學習兩大特定研究領域的進展能夠給整個人工智慧產業帶來推動。

一方面,通過利用較少數據就能確保AI得出準確的結論(這稱為「少樣本學習(few shot learning)」)。吳恩達表示:「第一波深度學習的發展動力主要源自大型企業,他們擁有大量可用於神經網路模型訓練的數據。但這已經屬於傳統方法,如今越來越多人正在嘗試利用較少數據達成比較理想的效果。我非常期待看到僅僅1000張圖像就能建立起相對準確的圖像識別能力。」

另一方面,是計算機視覺領域的進一步發展。以醫療影像為例,雖然目前計算機視覺系統已經具備比人類放射科醫師更為強大的圖像識別能力,但其缺點就是靈活性較差。吳恩達解釋說:「比如對於低端X光機拍攝的較為模糊的圖像,或者由於操作人員錯誤指導致圖像角度不正等情況,人類醫師要比演算法模型更具經驗和適應性。因此,我認為還需要進一步研究以提高演算法在更多場景中的泛化能力。」

Hilary Mason:容器化部署對多套AI系統管理具有重要意義

Yann LeCun、吳恩達等多位專家的2019年AI發展預測

在Cloudera於2017年收購Fast Forward Labs之後,Hilary Mason出任了Cloudera的機器學習總經理。如今,Fast Forward Labs保持獨立運營,主要負責提供機器學習技術應用報告,並為客戶提供未來六個月到兩年之間的技術發展建議。

回顧2018年,最令Mason感到驚訝的人工智慧技術突破主要是「多任務學習」。如今,研究人員可以訓練單一神經網路,使其在觀察圖像中的物體的同時應用多種標籤。

但同時,Mason還指出,有必要為人工智慧方案建立某種道德約束框架。Mason表示:「在新的一年當中,那些不關注這個問題的企業以及個人,都將面臨濫用人工智慧所帶來的實際後果或者責任追究。我希望倫理道德問題在數據科學與人工智慧的實踐發展當中,能夠成為一種默認考量條件,技術人員與商業領袖在創建AI產品時也應當充分考慮到道德以及偏見問題的影響。」

此外,隨著越來越多AI系統成為企業業務運營體系中的重要組成部分,Mason預計,作為這波浪潮的中堅力量,產品經理與產品負責人將在人工智慧領域做出更多貢獻。她進一步表示:「我希望這個群體能夠像使用電子表格那樣簡單輕鬆地實現AI建模,我們也希望他們至少掌握一定程度的能力,從而在自己的產品當中發現可以利用人工智慧技術加以改善的部分。」

如今,人工智慧民主化的理念已經得到相當一部分企業的重視與認可。包括Kubeflow Pipelines、AI Hub等谷歌雲AI產品以及CI&T智能設備在內的眾多實際產品,都在努力推動AI系統在企業內部的廣泛普及。

Mason同時認為,未來將有越來越多的企業需要建立對應的組織架構,從而實現對多套人工智慧系統的管理。

以在DevOps變革當中大家所面臨的挑戰為例,以往對單一系統的管理往往可以通過手動部署的自定義腳本實現;但要想管理幾十套系統,就必須引入cron作業。而如果面對的是成百上千套系統,要實現嚴格的安全性、治理能力與風險管控,就需要更專業且更為強大的工具。

Mason強調了以容器形式部署AI的重要意義。她相信這種趨勢將在未來幾年內持續升溫,進而幫助更多企業立足雲端或者本地環境部署更多AI解決方案。

最後,Mason還總結稱,人工智慧業務將繼續保持發展,並且相關實踐將在整個行業內得到普及——而非由個別公司嚴格把控。「目前,當一位數據科學家或者機器學習工程師跳槽到另一家公司,其工作內容有可能完全不同,比如會使用不同的工具、滿足不同的需求、適應不同的報告結構等等。但我認為在新的一年中,這種差異將逐步轉化為一致性標準。」她解釋說。

Yann LeCun:AI系統要逐漸學會建立起因果關係認知

Yann LeCun、吳恩達等多位專家的2019年AI發展預測

Yann LeCun現任紐約大學教授、Facebook公司AI科學家,以及Facebook AI Research(簡稱FAIR)部門的創始董事。該部門曾先後創建了PyTorch 1.0與Caffe2,以及其它一系列AI系統——包括Facebook用戶每天使用數十億次的文本翻譯AI工具,以及懂得如何下圍棋的先進強化學習系統等。

其中,LeCun認為,FAIR之所以能夠取得這樣的成績,應當歸功於對機器學習及其底層技術與數學奧秘的深入應用,同時還有賴於其中的開源策略。他解釋稱,「當有更多人願意將自己的研究內容和技術向外輸出時,整個領域才能得到更快的發展。大家如今在人工智慧領域看到的進步速度,在很大程度上正是源於有更多的人以遠超以往的速度與效率進行更為開放的研究工作。」

在道德問題方面,LeCun表示很高興地看到人工智慧社區在考量自身工作的道德倫理影響,以及對偏見決策危險性的認知方面取得的進展。他指出:「事實上,目前業界已經就此達成共識,認為這些問題確實值得高度關注。」「雖然目前這類問題還不屬於需要緊急解決的核心挑戰,但這是遲早的事,我們需要在其實際發生之前做好預防工作。」

與吳恩達一樣,LeCun希望更多AI系統能夠在靈活性層面更上一層樓,即在無需大量原始輸入數據或者準確輸出條件的前提下建立起強大的AI系統。他指出,要構建出能夠通過觀察真實環境進行學習的教學機器,行業需要採用自我監督學習或者基於模型的強化學習技術。

「目前,我們已經在這一領域取得了進展,比如開始通過弱監督或者自我監督學習實現語言翻譯與圖像識別,這些也開始在Facebook的服務當中發揮作用。」

著眼於未來,LeCun希望人工智慧系統能夠逐漸學會在不同事件之間建立起因果關係認知。這不僅僅需要通過觀察進行學習,同時也要建立真正的理解能力——例如如果人們使用雨傘,則可能代表著外面正在下雨。

他表示:「這一點將非常重要,因為如果大家希望一台機器能夠通過觀察世界來學習並改進自身模型,那麼它必須有能力了解其能夠以及無法改變環境中的哪些條件。舉個例子,如果您在一個房間之內,面前擺著一張桌子,上面放著一個像是水瓶的物體,那麼大家肯定會意識到自己可以推動水瓶,因為它相對較輕;而我們很難移動桌子,因為其又大又重——這樣的判斷就與因果關係有著緊密的關聯。」

Rumman Chowdhury:更多行業與技術監管標準將出台

Yann LeCun、吳恩達等多位專家的2019年AI發展預測

Rumman Chowdhury博士目前擔任埃森哲公司應用智能部門的常務董事,主要負責任人工智慧項目。

Chowdhury表示,在過去的一年中,與人工智慧威脅相關的問題得到更為科學的討論——而不僅僅局限於《終結者》電影中由智能機器接管全球的極端場景。她指出:「認知水平的提高使得隱私與安全意識成為新的關注重點,另外人們也開始思考人工智慧在塑造我們自身以及後代方面可能發揮的作用。」但同時,她還強調自己希望看到整個AI社區更進一步,從道德口號轉向實際行動。

在這方面,她提出了一系列值得關注的問題,比如:如何在AI與物聯網支持型監控體系當中找到「正確的」平衡點,從而在獲得安全收益的同時抵制一切懲罰性監控,或者可能加重現有種族歧視問題的執行方式;如何設計先進技術收益的再分配機制,從而確保不會進一步增加本來就已經非常嚴重的富貧差距;如何設計兒童對人工智慧的接觸水平,從而引導他們「熟悉AI」但又不致被AI洗腦或者同化;如何利用人工智慧實現教育的擴展與自動化,同時繼續確保人類的創造力與獨立思考能力等等。

在新的一年當中,Chowdhury預計全球範圍內將圍繞人工智慧技術出台更多政府審查與技術監管要求。

她指出:「在2019年,我們必須努力為已經存在的問題找到答案——當技術成為一種具有特定背景的多功能工具時,我們該如何規範這些技術?我們要如何制定合理的監管措施,從而在制約大型企業(即有能力承擔合規成本的組織)的同時不致扼殺初創企業的創新空間?我們應該立足怎樣的層級進行監管?是國際、國內還是特定區域?」

而為了實現這一目標,她認為人們需要擺脫人工智慧行業中常規的思路——即軍備競賽般的粗暴爭先。人工智慧並不是簡單的力量來源,不應採取「如果我們不搶先實現,那麼敵人就會佔據主動」這樣的思維方式。

她指出:「我希望監管機構、技術專家以及研究人員們能夠意識到,我們的人工智慧競賽不僅僅關注計算能力與技術敏感性。我們同時也有責任以更公正、更公平、更平等的方式重建世界,這是擺在我們面前的絕佳機遇。」

在消費級層面,她認為2019年人工智慧方案將出現在更多家庭環境當中。比如,很多人已經習慣了使用Google Home以及Amazon Echo等智能揚聲器,外加其它各類智能設備。在這方面,她總結稱:「我猜大家跟我一樣,都很期待機器人管家的實現。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技行者 的精彩文章:

CES2019:什麼是真的5G?
如何用區塊鏈技術拯救巴拉圭森林?

TAG:科技行者 |