當前位置:
首頁 > 最新 > 美媒介紹IARPA機器學習研究現狀

美媒介紹IARPA機器學習研究現狀

1月4日,美國GCN雜誌發表文章,題為《機器學習:好、壞、丑》,對IARPA持續開展的機器學習研究現狀進行了介紹。

美國情報高級研究計劃局(IARPA),成立於2006年,旨在推動美國各情報機構的研究與創新工作。自成立之初便開始機器學習的研究,機器學習一直是其優先順序較高的研究領域。早期成果包括「生物測定學發掘科學與技術」(BEST)項目,其研發的面部識別工具,現已被廣泛採用。例如「阿拉丁視頻」項目,可識別視頻流中的動作。IARPA還開展了其他側重於自然語言處理的項目。這些項目為在複雜應用中使用機器學習奠定了基礎,例如根據黑客論壇中的聊天記錄和市場上的惡意軟體價格來預測網路攻擊,預判軍事行動和恐怖主義,以及通過衛星圖像生成建築物或整個城市的精確三維模型等。

同時,IARPA還在研究如何改進機器學習的基礎架構:神經網路。IARPA工作人員認為,目前IARPA在機器學習上還不及神經科學。為了縮小這一差距,IARPA正在開展「皮質網路的機器智能」(MICrONS)項目,尋求對大腦的演算法進行逆向工程。項目第一年,MICrONS開發了關於動物大腦中負責學習的電路接線圖的數據集,相比典型機器學習系統,不僅需要學習的案例較少,而且耗能更低,僅需典型計算機能量的百萬分之一。

IARPA還在研究量子計算對機器學習的意義,該研究目前處於早期階段。量子計算分為兩種,一種基於量子門,距離成為可用技術尚需時日;另一種是量子退火,通過解決優化問題,可在較短時間內有效提高機器學習能力。據悉,這項研究較新,目前剛剛起步。

所有這些項目都依賴高質量的數據對程序進行「訓練」。任何構建依賴於機器學習的應用程序的開發者,都必須首先了解如何使用該程序,並確保訓練數據在應用範圍和統計學上的代表性。這種訓練在解決機器學習的負面問題時尤為重要,即欺騙行為或敵對的機器學習。欺騙行為會更改圖像中的少量像素,使圖像識別系統被誤導,進而錯認對象。日前,已有研究者研發出欺騙圖像識別系統的工具,如麻省理工學院的研究人員最近打造了一個系統,系統將槍的圖像誤認作直升機。

GIF

麻省理工學院的系統攻擊谷歌演算法後造成的識別差異

目前,IAPRA關於系統如何應對欺騙的研究仍在進行中。訓練時讓機器學習系統對付敵對的案例,可讓它們學習如何發現這種欺騙。另一對抗策略是模型平均法,即不使用神經網路方法,但擁有一個神經網路和支持向量機(SVM),也不易受到此類攻擊。

來源:美國GCN雜誌/圖片來自互聯網

中國國防科技信息中心 於雪

如需轉載請註明出處:「國防科技要聞」(ID:CDSTIC)

覺得不錯,請點贊

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

Python與機器學習

TAG:機器學習 |