人工智慧時代如何培訓機器同傳
作為曾經的人肉翻譯我留意到,騰訊的同聲傳譯據說初戰失利,很多地方出現了亂碼式翻譯,比如整個屏幕上一再重複沒有意義的單詞。另外,「Yes,please」被譯成「是的,求你了」,這樣的文體不當也被傳為笑談。很多曾擔心下課的同傳一看這效果,覺得放心了。
不過我覺得,大家不要過早唱衰機器同傳。從同傳失誤的相關報道上我看到,大部分問題出在語音識別上。總體上來說,這個領域的發展是有目共睹的。如今大家都習慣了通過Siri或者「谷歌助手」等方式操作自己的手機,讓其撥打電話、搜索信息、輸入文字。人的語言識別越來越準確,越來越普及。
和人一樣,機器也需要「訓練」。輸入者稍微改變自己的說話方式,包括降低語速,甚至是把話筒距離調整得更恰當一些,識別的準確率會提高很多。早些年,我第一次使用語音轉文字的軟體Dragon Naturally Speaking的時候,第一個任務是「訓練」該軟體。該訓練過程讓軟體接受我的發音方式,並通過我自己的糾正讓機器了解什麼語音對應什麼文字。騰訊的同傳據說在騰訊年會上使用過,效果不錯,那為什麼這次露怯了呢?我猜是因為後者的使用環境下,機器缺乏必要的「訓練」。如果在流程上進行改造,比如針對開會的發言人事先進行一些識別和糾錯,準確率會提高很多。另外,語音識別也需要良好的聲音環境,雜音和背景聲音對於效果的干擾很大。大型會議上,語音識別系統能否採集到最佳的語音也是問題,這方面技術上完全可以調整和改良,這一點我信心十足。
另外,人的選擇和人機交互都非常必要。不能把事情交給機器翻譯後,人撂挑子。現在,我已經能夠熟練地使用谷歌文檔的語言輸入功能。我也發現,Youtube的錄像能夠自動添加配音文字,即便對於我這個外國人說的英語來說,識別的準確率也還是不錯的。不過,我無法想像把一切都交給這些工具,繼而完全依賴它。理想的情況,是以機器為幫手,先解決掉它能做的粗活重活臟活。人應有智慧去識別什麼是機器擅長,什麼是人的特長,然後人與機器合理地分工合作。比如在語音輸入上,我習慣在看書摘錄的時候使用語音輸入,因為我只是照著念而已。在寫作本文的時候,我往往是邊想邊寫,中間有所停頓,這時候就使用打字輸入的方法。同理,那種大型、嘈雜的會議環境,不總是適合機器同傳,那麼是不是在個別發言時效果更佳?總體來說,在什麼樣的環境下,機器同傳最為出彩?
機器同傳的研發者,不應只考慮怎麼取代人肉同傳,而應利用機器的語音識別功能,改良相關流程,比如取代傳統同傳頭痛的記憶和速記。機器同傳的結果,如果準確率能夠接受的話,將能夠幫助人類同傳更好地溝通,解放出人類同傳的生產力,讓其從事文字的精雕細琢,也釋放同傳過程中的驚人壓力。人類同傳也不能熟知講話中所有術語、詩詞、引用,強大的資料庫不是人類的特長,是機器的特長,這方面可以交給機器去做。機器幹完自己要乾的事,人類會踩在巨人的肩膀上,站得更高、看得更遠。
在機器同傳上,我們必須擺脫是機器翻譯還是人工翻譯的錯誤思維,而是進入人類專業人員利用人工智慧增強翻譯的思維。機器同傳應該有能力讓人類同傳做更出色的同傳。設計機器人去取代人,不能把技術和人的優勢各自盡情發揮,反而造成對技術和人的雙重浪費。對機器同傳技術進行改進的同時,也需要意識到,人類對於技術的應用能力之多寡,也會對技術的成效產生深遠影響。
而今,關於人工智慧的討論方興未艾,很多討論的焦點是人工智慧如何取代人工,比如某銀行放棄所有大堂經理和人工櫃員,憑藉人臉或者身份證識別完成所有操作。在一個人口大國,取代人的方向是不可取的,社會應該反思「無人超市」、「無人銀行」這樣的思路。更需要思考的,是學習如何利用人工智慧,讓人在現有的職位或是新創造出來的職位上更強大、更優雅、更從容。機器如果不能讓人更像人,而只能進行拙劣的模仿、效果讓人抓狂,這種人工智慧的走向就是死胡同,這種研發是不值得的,應該下課。Yes,please.是的,求你了。


※她家玄關背後藏著衣帽間?這樣Freestyle設計太贊了!
※兩會TALKS:世界級黃金海岸帶來了!@廣東人,有你老家嗎?
TAG:南方都市報 |