當前位置:
首頁 > 科技 > 首家支持Google Lens的博物館即將到來

首家支持Google Lens的博物館即將到來

2017年I/O大會,Google發布一款識人又識物的新產品。

你只需要對著別人的名片一掃,所有信息就能存進通訊錄。

你只需要對著景物一掃,就能獲得當前景物的所有信息。

當你在遊覽時,它還能當你的隨身翻譯、導遊……

更重要的是,這款產品打破了智能手機的檔次局限,無論是高端旗艦還是低端入門,只要搭載的是智能系統,任何手機都用得上它。

這個在當時有著神仙功能的新品,就是我們在往後2年I/O活動都能看到的「Google Lens」,如今這個產品經過2年發展,已成為識物工具中的佼佼者。

而隨著今年Google在這款工具里加入AR和朗讀功能後,有著124年歷史的笛洋美術館(de Young museum)也在近日宣布,將全面支持遊客用Google Lens遊覽展館。

這也是世界第一家支持Google Lens的美術館/博物館。

(Source:de Young museum)

在笛洋美術館內,遊客可以通過Google Lens識別展品,系統在進行識別後會推送當前作品的作者、歷史等相關信息,遊客可以在館內通過這個功能自由獲取想了解的內容。

(Source:Google)

更有意思的是,除了識別作品,遊客還可通過Google Lens識別特定物品,成功後系統會播放作品相關的AR圖像或視頻內容。

通過這種方式,遊客能獲得面前這幅作品以外的信息,比如作者介紹作品的創作經歷等,讓遊客通過具體且優雅的方式獲得知識內容,就像和藝術家面對面交流。

不過,AI識物能在未來取代傳統人類導航,成為遊客獲得新知識的主要途徑嗎?這個想法可能不錯,但現在似乎還有點早。

強大的AI人工智慧讓Google Lens成為世界數一數二的識圖工具,越來越多應用途徑,也讓這款工具走出實驗室和PPT,成為用戶了解新事物的另一種途徑。

(Source:Google Lens)

但這種機械式的嚮導能取代人力成為未來遊覽的發展主流嗎?筆者認為「取代」可能說得有點早了,而且在短期內,AI導航不會取代人類成為主流。

首先不否認AI的兩個優勢:全天候運行和可延展性。

相比於人類導航,AI能24小時全天工作,同時通過自學習能力,AI能在執行任務時不斷學習,且在網路的幫助下,AI並不是一個大腦在學習,而是伺服器主腦和終端「大腦」的信息互通,進而組成一張存儲特徵的智能網路。

表面來說,比如筆者用手機掃描面前的杯子,系統會記錄物體的特徵信息,當其他用戶掃描類似的物體時,AI會特徵識別和結果篩選,快速得出結果。或當筆者第一次掃描這物體時,AI會先記錄特徵,當筆者第2次掃描時,AI會繼續增加特徵,進而全局提升識別的速度和準確率。

神經網路的自學習能力能讓AI的識別效率接近人腦,甚至有不受情緒和精神的影響,可能還超越人腦,但能得出準確無誤的結果,前提是需要大量訓練。

(Source:COCO)

AI能在短時間內得出識別結果,實際上依賴研發團隊在功能推出前的各種訓練工作。譬如在Google的TensorFlow API中,他們會通過COCO資料庫的90大類、共30萬張圖像對AI做識別訓練,通過圖像提升AI的識別能力;但即便有大量的訓練信息為基礎,AI也並非天下無敵。

The Verge近日《人工智慧難以識別低收入地區的日用品》文章,就探討AI識別的基礎,並下了「AI訓練不平衡」觀點。

研究人員發現,物體識別演算法在識別月收入50美元的家庭物品時,結果的誤差大約會比超過3,500美元的物品增加10%,而且不同地區物品的準確率也差異甚大,比如演算法在識別美國物品方面會比索馬利亞和布吉納法索的物品提升15%~20%準確率。

另外,這篇文章有意思的論點在於,由於AI識物在訓練時大多都是在發達地區訓練,因此對於非發達地區的物品,AI識物會出現識別失效情況,這種不平衡的現像很可能影響未來自動駕駛在非發達地區的發展,因為自動駕駛需要依賴感測器和AI識別。

同一個Soap(肥皂),不同的結果。(Source:The Verge)

所以儘管AI在某些方面比人類表現出色,但前提需要大量的數據支撐,對於有變數的物品,人腦學習和處理會比AI優秀。面對博物館的固定展品,AI能帶來低成本、快捷的體驗,但應對交互和資料庫沒有的物品,人類導航仍有優勢。

不過AI要取代人力,真正要克服的不是知識量,而是交互情感。

AI識物能提供詳細的知識傳播,但卻不具備人類最可貴的交互交流。雖然AI識物方便參觀者通過手機審查展品詳細信息,但這只是機械性獲得千篇一律的內容,並非人與人交流。這種區別就像網路授課和面對面課堂,獲得的信息不變,但若要提問資料庫沒有的知識,誰能解答呢?

當然,面對情感這個大問題,不少廠商也正通過語音優化讓AI貼近人類發聲,比如Google Duplex在語音加入仿人類的語氣和停頓,「唔」、「哦」這些助詞讓AI說的話更像真人而不是機器人;蘋果也在iOS 13通過TTS對Siri進行多語音拼合優化,讓Siri的發音更自然。

總體而言,雖然目前AI有強大的學習能力和識別效率,但還有知識的提供途徑,AI當下仍處於輔助為主的發展階段,擁有情感和交互的人力依然有主流優勢。

不過不可否認的是,在網路技術推動下,AI已踏上高速發展道路,越來越貼近真實人類,AI若干年後能提供新知識給我們,並非不可能。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 十輪網科技 的精彩文章:

斯坦福大學提出大膽的氣候變化解決方案:將甲烷轉化為二氧化碳
被消失的漁獲,數千隻阿拉斯加花魁鳥餓死

TAG:十輪網科技 |