當前位置:
首頁 > 科技 > 機器學習有毒!被指讓科學家更自欺欺人,給科學界帶來危機

機器學習有毒!被指讓科學家更自欺欺人,給科學界帶來危機

乾明 編譯自 BBC

量子位 報道 | 公眾號 QbitAI

機器學習技術,正在佔領科學界,成為核心研究方法。

但在這股浪潮背後,有成千上萬的科學家,正在用它來產生誤導性的結果。

這一結論,來自休斯頓萊斯大學的副教授Genevera Allen。

她說,科學家們大量使用機器學習系統,導致了一場「科學危機」。科學家們如果不改進技術,將會浪費大量的時間和金錢。

科學研究危機

最直接的問題,在於機器學習軟體識別的模式,只存在於數據集中,而不是面向真實的世界。

如果沒有人使用不同的數據集去復現模型,很難發現使用機器學習技術得出的結論是錯誤的。

隨著機器學習在科學研究中應用愈加廣泛,相關的研究越來越難以復現。一項分析表明,世界上85%的生物醫學研究都是白費力氣。

其次,機器學習系統和大數據集的使用加速了科學危機。這場危機已經持續了20年,根本原因在於,研究的實驗設計不夠好,無法確保科學家們不會自欺欺人。

最後,回到機器學習本身上,機器學習是專門為在數據集中發現有趣的東西而開發的。不管數據怎樣,只要應用到數據中,就會發現相應的模式,具體模式怎樣,也無法保證。

為了解決這個問題,她正在和研究團隊開發下一代機器學習和統計技術,這種技術不僅可以分析大量數據,找出結果,還可以給出結果的不確定性以及復現的可能性。

鍋該由機器學習背嗎?

Allen在美國科學促進會(AAAS)年會上發表了自己的觀點,BBC報道之後,在AI圈引發了廣泛的討論。

Facebook的機器學習科學家Edward Grefenstette評論稱,這篇文章的確反映了機器學習存在的問題。因為對機器學習的炒作和大肆宣傳,使用機器學習做研究的科學家,都只是關注研究中使用了機器學習技術,反而不太關注科學研究應有的標準了。

也有人指出,機器學習與科學研究相反,是基於數據發現模型,而不是基於模型,尋找數據去否定或驗證模型,很容易理解它為什麼會導致不可復現的模型出現。

這些觀點雖然有不少人贊同,但隔空之間,也有不少反對之聲。不少人認為,這個鍋不應該由機器學習來背。

前谷歌大腦員工研究員Denny Britz說,這不是機器學習的問題,而是使用機器學習的人的問題。

另外一種說法是,科學研究難復現,這是一個長期以來一直存在的問題,機器學習不應該背鍋。

對於這件事,你怎麼看?歡迎在留言區與我們互動。

作者系網易新聞·網易號「各有態度」簽約作者

加入社群

量子位現開放「AI 行業」社群,面向AI行業相關從業者,技術、產品等人員,根據所在行業可選擇相應行業社群,在量子位公眾號(QbitAI)對話界面回復關鍵詞「行業群」,獲取入群方式。行業群會有審核,敬請諒解。

此外,量子位AI社群正在招募,歡迎對AI感興趣的同學,在量子位公眾號(QbitAI)對話界面回復關鍵字「交流群」,獲取入群方式。

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

喜歡就點「好看」吧 !


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

手把手教你用Python玩轉時序數據,從採樣、預測到聚類
AI時代,陪孩子玩什麼遊戲?

TAG:量子位 |