AI 模仿人腦究竟靠不靠譜?
【CSDN編者按】8月23日,李彥宏在首屆中國國際智能產業博覽會上,曾發言稱,「通過研究人腦工作,來讓機器像人一樣思考,是行不通的」。
那麼,人類究竟是否可以,把AI訓練得像人一樣思考和積累經驗呢?今天這篇文章,將會通過幾個小實驗,來研究下AI模仿人類行為的能力,到底可以達到什麼地步。一起往下看吧!
許多人認為人工智慧(AI)是個「黑盒子」,其實這麼說也沒錯。AI的最大問題之一,就是我們很難理解它解釋數據的方式。
一個小遊戲
在進一步研究之前,讓我們先來做個小遊戲。我給你展示一系列抽象的圖片,它們屬於分類A或B中的某個。
你認為下面的圖像屬於分類A還是分類B?提示:沒有分類C。
我們稍後再說結果。我們來看看更多的例子。
現在你能判斷它屬於A還是B了嗎?
答案是……A!
選了B也不要難過,你不是唯一一個,選擇了B的人。我問了整個屋子裡所有的工程師和開發者,答案大概是一半一半。所以……為什麼答案是A?
因為我說了答案是A。
答案就是A,不用跟我抬杠,但如果你不同意,那就說明我這個訓練師當得不好。
作為訓練師,我知道A代表紅圈。所以任何中間有紅圈的都是A。我也知道B是橙色的圈。其他的圖像都是無關的。所以,只需要找到一組圖像中的特徵,但非常難。
在AI系統中,我沒辦法把組成A的圖像的規則,用語言描述出來。我只能給它提供大量圖片,期待它能發現規律。
而你,作為人工智慧,也沒辦法,告訴我為什麼你選了B。我只能不斷地給你數據,直到你給出正確結果。
蘋果還是橙子?
下面是同樣的一組圖片,只不過沒那麼抽象了。如果我問你同樣的問題,任何人都會立即回答,A是蘋果而B是橙子。
這個問題太過簡單,許多人甚至認為是腦筋急轉彎。我們都知道,手和背景中的一切,都是無關信息,因為我們人類從出生開始,就在學習這些東西。但人工智慧並不知道。對於它來說,圖像都是抽象的,它並不知道你關注的是什麼。
我們來看另一個場景,這個場景能演示,我們可能給了AI系統錯誤的信號。我們有一些橡樹的樣例(我住的地方有點陰天)。
下面是一些棕櫚樹(這些是在陽光明媚的沙灘上的)。
下面這張圖是棕櫚樹,但光照環境與橡樹圖片更相似。那麼,我們該關注哪些因素?光照?還是樹的形狀?模型很難做出判斷。
Confidence:
-Palm.75
-Oak.60
從這個例子中可以明顯看出,我們無意間給AI,留了另一種模式去學習。但實際情況遠沒有這個例子明顯。
我們怎樣才能知道AI關注了什麼?
我們可以在圖片上,放一個矩形框,然後記錄下自信值的變化。如果自信值降低,那麼遮住的那片,很可能是重要區域。
哪張圖更能猜出這根線是USB線?
第一張圖完全蓋住了介面,因此幾乎沒辦法猜出,所以我們認為矩形框蓋住的部分是重要的。但在第二張途中,矩形框完全沒有影響我們,猜測線纜類型的能力。因此,可以安全地標記這片區域,為不重要的。
我們可以繼續在圖片上放置矩形,來建立圖片重要性的熱區圖。
可以看出,模型關注的是介面的尖端,這很好。它關注了我們希望它關注的部分。
我們來看看一個訓練得不太好的模型。
Confidence:
-USB.76
模型正確地預測出,線纜是USB,自信值為0.76。這個結果可以接受,特別是在照片距離較遠、質量也不高的情況下。
但是,仔細檢查後發現,模型似乎關注了錯誤的地方,而不是我們希望的線纜一端。
模型似乎過分關注了線纜本身和手指。為了提高準確度,我們可以提供更多線纜和手的圖片,作為反面訓練集。
我們不需要大量的通用數據,來訓練模型直到模型變好。利用這些信息作為輔助,可以省下大量時間和金錢。
實驗感想
哇,這太棒了!但我不想花精力去實現。但好消息是,你可以在我的GitHub上,找到完整的iOS應用(https://github.com/bourdakos1/visual-recognition-with-coreml)。
建立自己的模型很容易,但建好模型並不代表工作結束了。機器學習最重要的部分永遠是輸出好的數據。
我們可以讓基礎的底線,採用類似的姿態、光照條件,並採用穩定的照片對模型進行訓練,得到好的模型。之後,可以使用工具和直覺,看看AI的思考過程。
原文:https://hackernoon.com/understanding-what-artificial-intelligence-actually-sees-7d4e5b9e648e
作者:Nick Bourdakos,IBM Watson的計算機視覺專家。
譯者:彎月,責編:胡巍巍


※為什麼鮑爾默時代的微軟會一敗再敗?
※面試了 400+位工程師後有這些發現!
TAG:CSDN |