當前位置:
首頁 > 科技 > 語音助手涉嫌操縱言論 為什麼我們需要基於區塊鏈的人工智慧

語音助手涉嫌操縱言論 為什麼我們需要基於區塊鏈的人工智慧

語音助手涉嫌操縱言論 為什麼我們需要基於區塊鏈的人工智慧

亞馬遜Alexa語音助手有操縱人們言論的嫌疑

傑里米·艾普斯坦(Jeremy Epstein)的女兒只有九歲,但她比家裡任何人都要熱衷於科技產品。一天晚上,她領著艾普斯坦體驗了亞馬遜Alexa語音助手的新技能。

「Alexa,開始對話。」

她一聲令下,Alexa立刻切換成了一個新的會話機器人——一個由華盛頓大學研究團隊開發的、不久前剛剛斬獲「Alexa大獎賽」的會話用戶界面人工智慧(CUI AI)。據稱,它能夠根據上下文語境與用戶就不同話題進行深入交流。

剛開始,這個會話機器人所展現出的能力可圈可點,但當他們的聊天話題轉向科技熱點時,這個機器人向艾普斯坦父女二人拋出了一個問題:

「你們知道什麼是網路中立性嗎?」

語音助手背後究竟是誰在說話

從這個問題開始,艾普斯坦與人工智慧的對話體驗開始轉為不適:這個會話人工智慧引用了不少來自網路上的文章來闡明它「對網路中立性原則的理解」,美國聯邦通信委員會(FCC)、Ajit Pai(FCC 現任主席)、網路中立性等話題均有提及。而問題在於,所引用的四篇文章都旗幟鮮明地站在了「反對廢除網路中立性原則」這個觀點上。

作為時下美國國內的熱門話題,不同群體對 FCC 廢除網路中立性一事都有著自己的看法,這本身無可厚非。但艾普斯坦認為,在類似亞馬遜智能語音助手這樣的平台上,人們或多或少應該得到一份應有的「消停」——這些智能語音助手的語氣是那麼中正平和,不經意間就能對那些不太了解網路中立性話題的人造成誤導。

艾普斯坦不禁對此感到擔憂:亞馬遜是否在通過這種手段操控用戶在此類熱點事件中的觀點、想法甚至是言行呢?

我們對 AI 的信賴有些過頭了

艾普斯坦並不是在杞人憂天。人工智慧飛速發展的當下,他所擔憂的問題其實十分尖銳。亞馬遜、谷歌這類公司在大數據和人工智慧技術上的優勢值得每一個用戶警惕。

「分析過的數據組數量級越大,出現錯誤的幾率就越小。」

16年前,當兩位微軟研究人員發現這個今天看來顯而易見的結論時,他們並不知道這句話會在人工智慧和大數據領域引發多大的波瀾。大數據時代的競賽,自 2001 年這個結論誕生的那一刻起正式開始。

這場競賽的規則異常簡單——誰能收集、儲存和分析更多的數據,誰就能夠佔據上風。在這樣的規則下,Facebook、亞馬遜、網飛和谷歌成為了大洋彼岸人工智慧與大數據的主要玩家,百度、阿里和騰訊則統領著國內的大數據市場。

可以毫不誇張的說,大數據時代也因此成為了富人、科技巨頭和跨國公司的時代。只有他們有實力進行大規模的數據採集、儲存和分析整理,並在此基礎上建造各種各樣基於大數據訓練的人工智慧模型;除此之外,也只有他們才有能力為當前人工智慧市場緊缺的人才提供 30 到 50 萬美元不等的年薪。

當這些公司用大量財力和人力堆積出來的人工智慧模型嘗試投入實際應用時,公眾就必須將數據送入一個個可信度未知的「黑匣子」當中了。這裡,我們不妨從現存人工智慧的一般工作原理來闡明這個問題。

對一個人工智慧模型而言,以下三個層面尤為關鍵:

·數據儲存

·演算法/機器學習引擎

·AI 交互界面

如果我們任由這些數據中心化的大公司開發的人工智慧提供信息甚至進行決策時,也就意味著我們必須百分之百信任:

數據的完整性與安全性——所收集的數據是否準確可靠、是否容易被篡改和竊取?

人工智慧背後的機器學習演算法——演算法是否存在錯誤或缺陷、演算法執行過程是否被審查?

我們最終所能接觸到的人工智慧交互——最終所輸出的信息是否為機器學習演算法的準確反饋、演算法能否通過人工智慧交互界面準確無誤地捕捉新信息?

將這幾點代入文章開頭的場景,你或許會問:思考這些問題對於一個與科技產品對話的九歲孩童來說似乎沒什麼大不了的?但當事件的主人公變成一位非裔美國人的刑事被告人,結果也許就生死攸關了。

語音助手涉嫌操縱言論 為什麼我們需要基於區塊鏈的人工智慧

非盈利調查機構ProPublica從警方拿到 1.8 萬COMPAS評分數據,得出了「黑人更容易犯罪」的報告

據《紐約時報》和《連線》雜誌的報道,美國多地法院所使用的COMPAS機器學習系統都出現了為黑人判處更長監禁刑期的現象——人工智慧的確能夠做出一些帶有種族歧視的決定,制定這些決策的細節一般人無從獲知、負責開發這些人工智慧的科技公司也並不會做過多解釋,畢竟封閉和不透明是這些大公司保持競爭優勢的主要方式之一。

那「區塊鏈人工智慧」能解決問題嗎?

區塊鏈人工智慧,首先也就意味著將個人數據放進行區塊鏈商品化管理。我們不妨以區塊鏈數據公司 Ocean Protocol 為例來說明這個問題。

Ocean Protocol指出,2016 年,全球共產生了16ZB(17529186044416 GB)數據。由於數據中心化,只有少數大公司才能對這些數據進行收集、整理和分析,因此這16ZB數據當中,僅有1%得到了合理利用並投入人工智慧模型訓練。

原因上面提到了:數據中心化的前提下,數據的使用方式也缺乏透明度,當數據提供者無法對自己的數據進行有效管理時,很多人都選擇不再進行數據分享。

Ocean Protocol 這家公司要做的事情就是,將用戶數據打包扔進區塊鏈網路——當這些數據被人工智慧開發人員、研究機構或其他組織所使用時,數據上傳者就會收到使用方提供的一定數量的加密數字貨幣作為補償。這種思路主要帶來的好處有三點。

一是數據透明化,每一份數據的上傳者、使用流向和成果都有跡可查;二是用戶對數據擁有所有權和自主使用權;三是加密數字貨幣帶來的有償鼓勵機制。

到頭來,提供數據的用戶能將自己產生的數據變現,人工智慧從業者能夠獲得與谷歌、亞馬遜等大公司同樣的甚至更為準確的模型訓練數據——更重要的是,區塊鏈中的大數據更加透明、有效,最終訓練出來的演算法模型出錯幾率會更小。即便真的出了問題,各方也都能知道問題究竟出在哪一步。

如此一來,區塊鏈勢必會促進更乾淨、更有組織的個人數據市場的建立,而在人工智慧訓練和發展的各環節中,這也只是區塊鏈能夠觸及到的其中一環而已。

當人工智慧模型的原始數據、基本演算法和最終交互都與區塊鏈技術發生碰撞時,數據的可用性提高了,演算法的審計跟蹤流程透明了,人工智慧交互也能從信任的「黑匣子」中得到釋放,並不算促進更多、更好的新數據反饋至整個流程中用於進一步優化。

&nbsp

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 電腦報新聞客戶端 的精彩文章:

李彥宏登《時代》封面:他正幫中國在21世紀贏得勝利

TAG:電腦報新聞客戶端 |