當前位置:
首頁 > 科技 > 蘋果為Siri引入機器學習技術 不再認錯主人

蘋果為Siri引入機器學習技術 不再認錯主人

日前,蘋果在自家機器學習刊物《Apple Machine Learning Journal》上發表最新一篇文章,主要是關於用戶在 iOS 設備上激活「嘿Siri」功能時的人性化過程。這篇文章似乎也意味著,未來 iOS 系統將配備更高級的 Siri 智能私人助理,至少能夠利用機器學習特性來非常精確識別設備的主人。

「嘿Siri」功能在 iOS 8 的 iPhone 6 首次推出,如今在所有蘋果設備上,「嘿Siri」口令可激活設備上的智能私人助理。當然了,6s 之前仍需要先將設備插入電源才能使用,而目前的新 iPhone 和 iPad,「嘿Siri」都已支持全天候時刻待命,無需亮屏也無需接通電源充電狀態下就能使喚。因此,口令激活後用戶可跟進詢問或執行相關語音命令,例如詢問「今天天氣如何?」之類的問題。

在這篇機器學習期刊的新文章中,蘋果 Siri 團隊講述了引入「說話人識別系統(Speaker Recognition System)」的技術方法,聲稱為了給用戶創造更人性化的設備,自家團隊打造了「深度神經網路」,而此舉將為 Siri 的迭代更新打下了基礎。簡單的說,蘋果基本上確認的事實是:未來的 iOS 系統版本中,機器學習技術將會被引入 Siri 智能私人助理,用於識別設備所有者的聲音。

蘋果 Siri 團隊表示,最初他們選中「嘿Siri」這個短語,就是因為這是非常「自然」的措辭。但也正是因為如此,「嘿Siri」常常被不經意間激活,因而帶來了不少麻煩。蘋果列舉了三種情況,包括:「當用戶說出類似的短語時」,「當其他用戶說『嘿Siri』時」,以及「當其用戶說類似的短語時。」根據 Siri 團隊的說法,最後一種場景下的「錯誤激活最惱人」。

為了減少 Siri 被意外地、錯誤地激活,蘋果引入了說話者識別研究領域的技術。重點在於,Siri 團隊稱他們關注的是「誰在說話」,而不是「說了什麼」。蘋果表示,說話人識別技術的目標是確定語音發出者的身份。「我們感興趣的是『誰在說話』,而不是語音識別的問題,最終目的是確定『所說的是什麼』。」

Siri 團隊表示,說話者識別技術目前所面臨的其他挑戰是,如何在混響(如:大房間)和嘈雜環境中獲得更高質量的表現。未來通過機器學習,Siri 語音助理將被訓練用於識別用戶在廣泛環境中飛聲音,如在車裡、廚房、咖啡店或類似的公共場所。Siri 還會學習識別各種情境下用戶發出的聲音狀態,包括正常的聲音,很高、很亮的聲音,或者早上起床昏昏沉沉時的聲音等等,而不局限於最初重複錄入的幾聲「嘿Siri」。

最近,Siri 隱私漏洞的問題備受關注。因為該漏洞下,任何人都可以通過 Siri 來讀取設備主人的通知,只要按住 HOME 鍵或 iPhone X 上的側邊按鍵幾秒,呼出 Siri 後,喊它「幫我讀一下通知」,它就會直接讀出鎖屏上的隱藏消息內容,無論是同事還是家人,甚至是路人都能執行相同的操作,而且是在設備鎖屏的情況下。

很顯然,蘋果將機器學習技術用於 Siri 幫助識別設備主人的方案,將能解決了 Siri 面臨的隱私問題。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 威鋒網 的精彩文章:

又有希望了 紅色iPhone 8/X或於本月上架!
新iPad值不值得買

TAG:威鋒網 |