當前位置:
首頁 > 科技 > 我是中國人,為啥學外語?

我是中國人,為啥學外語?

語言,是人類通識學習項目中最為折磨、麻煩、高成本、難進步的一類。無論你是去問那些報課外班的中學生,還是被四六級卡得痛不欲生的大學生,或是在工作中看到小語種材料發暈的職場人,他們的腦海中絕對迴響過那句順口溜——「我是中國人,不愛學外語,外語不及格,說明我……」

因為早期處於孤立、分散狀態,人類也因為自然環境、生產生活、思維習慣的不同,形成了各自的部落、民族,進而催生出了特定群體的文化形式,最典型的結晶,就是作為交際工具的語言,和社會意識形態的宗教。

根據公開資料,目前全球單是存在文字的語言就有約2000種。

這些本身為了人類溝通而存在的「工具」,在人類進入現代文明階段使用起來還算方便。但隨著信息技術的發展,世界各地之間的時間和距離維度,已經趨近於消失,這個時候文化隔閡的影響就凸顯出來了。

我們再來看「世界語言」英語,目前已經被67個國家當做官方語言。中國人對於學習英語的熱衷也是出了名的,但經過這麼多年的推廣,中國人的英語水平如何呢?根據英孚教育去年年底發布的《2017英孚英語熟練度指標(EF EPI)》,中國英語熟練度水平依舊是「低熟練度水平」。在這份榜單的80個國家中,真正達到「高熟練度水平」的國家也只有21個。

即便是感覺人人都會說英語的美國,實際上也有25%的學生在家裡會說英語以外的母語,而年齡放寬之後,大約有40%的美國人不會在家裡說英語。這種同一個國家、不同民族、不同祖籍的人們所構成的多語種環境,已經十分普遍。

地球人,交流起來就是這麼難。

一個人,能學會所有語言么?

既然英語還不夠用,那麼就多學幾種語言唄?現實中的確存在這樣的人,他們的特點就是能掌握很多種語言,他們甚至有一個專門的名字——「多語言使用者」(ployglot)。

以世界上最有名的多語言使用者的賴比瑞亞籍黎巴嫩人,齊亞德·法扎赫(Ziad Youssef Fazah)為例,他對外宣稱自己可以說和讀58種語言(包括粵語),並且被記入了吉尼斯世界紀錄。

但在一檔電視節目中,數位不同語言的人分別用母語向他發問。其中一位中國人問他:「在月球上,能夠看到唯一的地球上的人造工程是什麼?」他轉過頭來複述了一次問題,但並沒有給出答案,很明顯是沒有聽懂。另外一位用俄語問他「今天是星期幾?」,他同樣沒有回答。

「吉尼斯紀錄擁有者」都做不到,那普通人就更加沒希望了。

這也是因為語言並不是一個獨立的東西,它實際上是架設於文化之上的表達,而想要把一種文化背景的表達「完美」翻譯成另外一種文化,就意味著翻譯的人必須同時極度熟悉兩種文化,最好曾生活在兩種文化其中。

按這個思路推理,你總不可能每個人把地球的文化全部熟悉一遍。


讓所有語言都變成「地球語」

既然人不可能掌握所有語言,那麼能不能換個思路,為啥一定要學外語呢?能不能不學呢?或者把這件事交給別的工具去做呢?

作為一項歷史悠久的技術,人工智慧在近年來取得了突飛猛進的發展,其中一個體現就是機器翻譯的速度和準確度。英國17世紀的詩人兼翻譯,約翰·德萊頓曾這樣描述理想的翻譯:

翻譯不一定需要每個字詞對應,因為每種語言有著自己的特殊背景,翻譯的人更重要的是選擇一些不會破壞原意的表達。這就好比一個畫家用自己的畫筆記錄下的真實場景,畫家自己有權利改變畫面的風格和特徵。

這也是為什麼人類翻譯在學習語言之餘,還需要通過工作積累大量的經驗,進而形成自己對於語言理解和還原的能力和風格,人工智慧也在逐漸實現這一點。

以國內某領先的人工智慧翻譯公司為例,他們半年前的隨身翻譯產品,已經可以支持33種語言的翻譯。同時它也能夠支持4種最常見的中國方言:東北話、四川話、河南話、粵語。而他們網上的服務,更可以在幾分鐘內將數十分鐘的錄音處理為文字,準確率還相當高。

在魔法般的外表之下,人工智慧翻譯的原理其實也很簡單——計算機先通過大量數據學習如何將錄音變為文字,如何將文字翻譯過來,最後讓計算機學習如何像人類一樣發聲。然後在用戶需要翻譯的時候,先把人類的錄音從本地發到雲端,雲端進行識別、翻譯等處理,然後再將數據回傳到客戶端,並且最終轉變成用戶聽到的人聲。

這一系列環節中,都是通過網路來聯通的,同時也極度依賴雲端的人工處理運算能力。即便是現在最先進的技術,整個反應時間仍然將達到秒級。這個速度對於人類來說實在是太慢了。

想像一下,你好不容易在國外的大馬路上攔下一個好心人幫忙,結果掏出翻譯器發了一句語音,你能看到的只有無盡的「Loading」,你只能繼續請求好心人再等等,要多尷尬有多尷尬。

5G+AI,創造真正的「地球語」

沒錯,5G將會是上面這種尷尬場景的最好解決方案,當然也少不了AI的幫忙。

按照高通的設想,未來的翻譯設備完全能夠在你說出自己母語的一瞬間,瞬間將其翻譯、發聲為另外一種母語。翻譯設備甚至能在屏幕上模擬出你的臉,臉的動作跟翻譯之後的新語言對應。

但完成這個設想需要一些必不可少的組件,首先就是晶元。高通打造的驍龍晶元將會是完成這個任務最好的選項。

在有了晶元之後,人們可以在驍龍之上開發軟體,然後開發人員就能夠將訓練之後得到的人工智慧演算法放入到軟體當中。在這個環節中,演算法的地位就像燃料一樣。通過把演算法和引擎結合,無論是音樂還是打電話,我們都能夠在終端設備本地進行翻譯。

這就保證了整個交流和翻譯都是實時進行的,就跟我們平時母語的交流一樣。當然為了實現這種實時性,5G連接對於交流終端的作用也不可忽視。

當然有人肯定會問了,如果機器真的能夠在翻譯、同傳、交傳上取代人類,那麼現在職業是翻譯的人類怎麼辦呢?這個問題的答案其實也很簡單,既然人工智慧這種工具已經能比人類更高效地完成不同語種交流的任務,那麼人類完全可以抽出這部分精力,去做更加富有創造力的事業。

這並不是對於人類的威脅,而是技術必然會帶來的社會升級與變革,最終的結果只可能是人類的生活更加簡便而愉悅。這種人力的「釋放」,也是技術最大的價值所在。讓工具回到工具,讓人不再被當成工具。

比如在美國這個多語言國家,不少教育家和學者已經開始暢想:當語言不再是壁壘的時候,來自歐洲、南美、東亞等不同地區的學生,可以自由交換意見和想法,而不必再去了解對方獨特的語言文字,這樣的場景「令人感到興奮」。5G,可以使教室成為真正的連接中心。

按照目前的時間表,5G將在2019年商用,而高通正在引領5G商用的加速到來,這個時間點或許將再次提前。屆時人們跨語種的交流,也將因為5G的到來而發生翻天覆地的改變。

到那一天,地球人說的話,都是地球語。

本文轉自微信公眾號:Qualcomm中國(ID:Qualcomm_China)。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 虎嗅APP 的精彩文章:

圖靈獎得主Martin Hellman:保持傻勁兒讓我成功
【虎嗅晚報】金立上演「樂視門」,追債上門與老闆跑路

TAG:虎嗅APP |