當前位置:
首頁 > 最新 > 圖靈獎得主朱迪亞·珀爾:AI現在的重點是曲線擬合,而不是智能

圖靈獎得主朱迪亞·珀爾:AI現在的重點是曲線擬合,而不是智能

來源:diginomica

作者:Kurt Marko

智能觀 編譯

隨著圍繞人工智慧價值爭論的繼續,人工智慧的冬天這一風險是真實存在的。我們需要確定什麼是真實的,什麼是想像的,以便當你看到下一篇關於驚人突破的新聞報道時,可以有一個合理的判斷。

毫無疑問,人工智慧技術的熱潮,推動了許多軟體領域取得了不可思議的進步。

語言翻譯、圖像、場景識別和會話UI等曾是科幻小說夢想的成就,現在已經成了現實。

然而,讓人們越來越感到沮喪的是,那些軟體的進步,並不是真正「智能的」。

儘管使用AI標記技術的軟體在大多數軟體類別中產生了巨大的進步,但學者和懷疑論者都觀察到,這樣的演算法遠遠不能滿足智能化要求。

智能的定義

關於智能定義的爭論可以追溯到希臘哲學家,他們主要關注的是人類與動物王國的區別,而不是與機器。亞里士多德有一句名言:「受過教育的人的標誌,是有能力接受一種思想而不接受事物本身。」他幾乎沒有想到他的格言同樣可以用來區分生物智能和人工智慧。

我們的機器仍然不能獨立地提出一個想法或假設,對他人進行測試,並基於推理和實驗來決定接受或拒絕其有效性,即遵循科學方法的核心原則。

雖然有些形式的人工智慧,比如對抗型網路,可能會利用相互對立而獲得最佳的結果,但很少有人會把這種演算法推理稱為「智能」。

相反,它是一種更有效的實現既定目標的方法,通過使用一個公共數據集,讓兩個神經網路交叉工作,以獲得比單獨使用任何一個更精確的模型。

人類和機器之間關鍵的智力區別,在於確定目標和推理實現目標的能力不同。這也是區分因果關係的能力,能夠理解儘管兩件事經常發生在很近的地方,但並不意味著一件事會導致了另一件事。關聯因果謬誤是公共話語中常見的邏輯錯誤之一。

人工智慧: 是學習還是描述?

人工智慧研究人員正在討論的一個新問題是,當前的機器和深度學習技術究竟是一種全新的演算法推理形式,還是僅僅是描述性統計和曲線擬合等長期數學技術的延伸。

在後者陣營中,頗有影響力的計算機科學教授、圖靈獎得主朱迪亞·珀爾(Judea Pearl)的新書《因果科學》(the science of cause and effect)引發了一場關於人工智慧未來以及深度學習是否會導致接近一般人類智能的討論。

珀爾在最近的一次採訪中提出了一些犀利的見解。他在採訪中闡述了自己書中的觀點和對人工智慧軟體現狀的看法,包括當前人工智慧無法執行因果推理是一個嚴重的缺陷。他對深度學習的評價是毫不留情的,也是有啟發性的(強調補充)。

「在我深入研究深度學習的過程中,我發現他們都停留在聯想層面。曲線擬合。這聽起來像是一種褻瀆,說深度學習的所有令人印象深刻的成就僅僅是擬合數據的曲線。從數學層次結構的角度來看,無論你多麼熟練地操作數據,以及在操作數據時你讀進了什麼內容,它仍然是一個曲線擬合的練習,儘管非常複雜和重要。

「從本質上講,儘管深度學習演算法具有大腦的靈感,但它們也可以算作另一種強大的數據分析工具,尤其是擅長處理大量非結構化數據。

「然而,深度學習是一種非常通用和強大的曲線擬合技術,它可以識別以前隱藏的模式,推斷出趨勢,並預測出各種問題的結果。曲線擬合方法在表示給定數據集方面的一個風險是過度擬合,即演算法不能識別出數據中的正常波動,最終會被干擾所迷惑。」

珀爾承認,深度學習的成功甚至讓該領域的專家都感到驚訝,但他擔心,這可能會讓研究人員陷入一種概念上的窠臼,並危及一般形式的人工智慧的進展。

「我很感動,因為我們沒有想到這麼多的問題可以用純曲線擬合來解決。事實證明他們可以。但我問的是未來——接下來呢?」

人工智慧研究人員正與他們的深度學習觀點所界定的派繫結盟,其中最堅定的支持者不願接受任何批評。珀爾以這種方式描述了當前的環境。

「人工智慧目前在分裂。首先,有些人陶醉於機器學習、深度學習和神經網路的成功。他們不明白我在說什麼。他們想繼續保持那種曲線。但當你和那些在人工智慧領域做過統計學習以外工作的人交談時,他們馬上就會明白。在過去的兩個月里,我讀過幾篇關於機器學習的局限性的論文。」

珀爾認為,除非演算法和由它們控制的機器能夠推理因果關係,或者至少概念化差異,否則它們的效用和通用性永遠不會接近人類。

他說,除非機器人能夠模擬人類的直覺,否則不可能與它們進行有意義的對話,這就要求機器人具備理解因果關係以及可能採取的其他行動和結果的能力。簡而言之,我們又回到了亞里士多德的名言上。

雖然珀爾可能是少數人,但他並不是唯一一個認識到人工智慧需要超越深度學習,才能製造出像人一樣思考的機器的人。

麻省理工學院(MIT)研究人員發表的一篇論文指出,創建類人的學習和思考的機器需要他們能夠構建出世界的因果模型,能夠理解和解釋他們的環境,而不僅僅是使用模式識別來解決問題。

該論文還認為,這樣的系統必須建立在物理(物理學)和社會(心理學)科學的基礎上,才能具備對世界進行直觀推理的能力,從而使機器能夠「迅速獲取知識,並將其推廣到新的任務和情況中」。作者以對人工智慧研究人員的勸誡作為結尾。

「不要僅僅建設一個識別手寫字元,並使用Frostbite引擎或Go語言的系統,我們建議深度學習和其他計算範式的目標是使用儘可能少的訓練數據以完成訓練任務(因為人們需要),同時評估超出模型訓練任務之外的一系列類似人類的模型。」

這種通用人工智慧(AGI)是反烏托邦小說的素材,也是科技名人埃隆?馬斯克(Elon Musk)和比爾?蓋茨(Bill Gates)的警告。最壞的情況不太可能很快實現,也可能永遠不會實現,如果像珀爾所擔心的那樣,研究人員不斷改進現有的技術,而不去擴展他們的概念視野,結果就會如此。

我的看法

雖然我經常使用「人工智慧」這個詞,但它總是有些勉強,不符合約定,沒有說服力。

就像物聯網和雲一樣,是同樣被濫用和不精確的一個辭彙,人工智慧是一種被廣泛理解的技術的簡寫,它越來越強大,但從根本上與人類的智慧和理性不同。

雖然我經常使用今天所謂的機器學習和深度學習軟體的那些令人印象深刻的應用,但我已經認識到,稱它為「智能」有點誇張,也許「適應性」和「自我優化」是更好的術語。即使這些也有警告,因為模型需要對參數和結構進行大量的人工調整,正如我在這裡和其他場所所討論的。

顯然,科技行業需要對人工智慧技術的現狀有一個集體的認識。

是的,應該慶祝它的成功,但要承認,在我們擁有可以被合法地稱為「智能」的軟體之前,需要對此進行更基礎的研究。

儘管珀爾已經提供了必要的數學體系,可以使用貝葉斯網路來描述因果關係(他稱之為「Do-Calculus」),但要教機器因果關係,仍有很多工作要做。

同時,使用各種機器學習工具的用戶必須意識到它們的局限性,不能從特定問題和數據集的結果中進行分類和推斷。

https://diginomica.com/2018/06/04/ai-curve-fitting-not-intelligence/

—完—

親愛的朋友:

想了解人工智慧,首先應該理性的弄清楚其定義,清楚其能做什麼,不能做什麼。才能讓我們在爆炸的信息中有自己的判斷,不至於妄自菲薄。

有在巨頭企業工作的朋友曾調侃,現在的人工智慧真的是「人工」的「智能」,有多少人工,就有多少智能。

路漫漫但可期......

希望本文能對你有一點啟思,歡迎留言探討。

祝安!

智能觀 一米

2018-6-15 於北京中關村

想知道AI加教育領域有哪些最新研究成果?

想要AI領域更多的乾貨?

想了解更多專家的「智能觀」?

請在對話界面點擊「找找看」,去獲取你想要的內容吧。

聲明

編譯文章旨在幫助讀者了解行業新思想、新觀點及新動態,為原作者觀點,不代表智能觀觀點。

關於我們

我們關注AI+教育。致力於提供高附加值的知識,以幫助每一位老師和我們的讀者不斷學習並提高技能。

我們努力讓發表的每一篇文章都具有最佳質量,以滿足讀者的需求。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 智能觀 的精彩文章:

TAG:智能觀 |