語音識別看似神通廣大 但它真的聽得懂方言么?
不管是智能家居還是車載系統,語音識別幾乎已經成為標配。今年拜亞馬遜Alexa所賜,大部分智能家居設備都可以進行最基本的語音控制,可它的普適性真的有如此之高么?一位來自美國的消費者最近就在投訴亞馬遜Alexa:它並不能識別自己老媽的口音。
「這些軟體似乎聽不懂我在說什麼。」
面對母親的抱怨,這位美國的消費者決定向亞馬遜反應這一問題。這樣的體驗似乎會讓人想起和Siri一些不愉快的回憶,儘管蘋果在每次發布會上都似有似無的提到一句「我們又提升了Siri的識別率」,但實際效果正如大家想的那樣,亞馬遜Alexa也面臨這樣尷尬的問題。
究竟語音助手的革命什麼時候到來?可能最先必須解決的就是口音問題。先不論英語語種國家究竟有多少口音問題,身為中國人對口音真的不能再熟悉。即便現在在大力推廣普通話,但對於上了年紀的人而言想要改變他們的口音真的是一件很難的事情,可往往最需要語音助手的人群正是他們,無形中成為一對難以克服的矛盾。
Google Home
正因為如此,國內廠商在搭載語音助手時會考慮到方言的搭載,滬語,廣東話,川普等等都可以說,識別率也有一定的保證,但對於全國,甚至全世界不同地區的口音而言還是小巫見大巫。
那麼到底人類什麼時候才能攻克語音助手的難關?根據專家的意見,最早也要到2020年,才會有一半的普及率。屆時包括互聯網搜索在內,可能一半的搜索類需求都會通過語音執行。Google Home和亞馬遜Alexa就是要解決這方面的難題。Echo被稱為亞馬遜的王牌是有原因的,在中國市場以外它真的賣得非常好。
實際上造成目前語音助手遭遇瓶頸的重要原因還是各家公司的音頻數據並不共享,亞馬遜想要弄到蘋果Siri的識別音頻,除非蘋果開通商業購買,否則根本不可能。其中,音頻採樣又是一個複雜且費時費力的過程,即便有資料庫的支持也無法承載大量人口/人種造成的差異。
「就像和一個小孩子說話。」
在語音助手搜索錯誤時,用戶要不厭其煩的反覆重複剛剛自己說的話,就像是對著一個還沒學會語音的小孩子說話一樣。也正因為如此,才給了研究人員一個啟發:或許深度學習能夠成為語音助手下一個突破口?


TAG:愛活網 |
※雷神從什麼時候開始看鋼鐵俠不爽的?還記得那個語音識別助手嗎?
※深入淺出話智能語音識別
※圖像識別攻擊還沒完全解決,語音識別攻擊又來了!
※在「樹莓派」上玩兒轉語音識別,就這麼簡單!
※語音識別技術如何突圍?搜狗走了一條音視覺結合之路
※依圖做語音了!識別精度創中文語音識別新高點
※語音識別技術到底有多難?
※Siri 語音識別的小心機:你在哪裡,就能更準確地識別那附近的地址
※語音識別技術簡述
※解密:依圖如何一年實現語音識別指標超巨頭玩家
※語音識別+歌聲合成,思必馳的新產品想讓普通人「讀詩成曲」
※語音識別技術在電子病歷中應用的難點及對策
※劉聰:聽懂方言的AI,科大訊飛中文語音識別背後推手
※語音識別技術簡史
※智能音箱語音識別和語義理解體驗報告
※對話搜狗陳偉:機器同傳關鍵是做好語音識別、機器翻譯的中間環節
※小度智能音箱:連續語音識別,人機尬聊?不存在的!
※阿里開源自研語音識別模型了,會有什麼影響?
※手機也能更懂你,AI智能語音識別,讓Find X體驗更便捷!
※是誰在說話?谷歌多人語音識別新系統錯誤率降至2%