深度學習 Deep Learning—深度學習中常用的術語
寫在前面
深度學習是機器學習研究的一個新領域,在人工智慧應用(如圖像識別,自動駕駛汽車以及最近的AlphaGo vs Lee Sedol比賽)中發揮了強大的作用,吸引了媒體大量流量。最近,深度學習技術已經成為解決傳統自然語言處理問題(如情感分析)的熱門技術。對於剛學習深度學習的人來說,整理了幾個常用術語和概念,希望能夠幫助理解。
感知器
神經網路(NN)也被稱為人工神經網路(Artificial Neural Network)在人腦中,神經元是處理和傳輸信息的細胞。感知器可以被認為是生物神經元的超簡化版本。一個感知器將採取幾個輸入,並稱他們產生一個單一的輸出。每個輸入都根據其在輸出決策中的重要性加權。
人工神經網路
人工神經網路(ANN)是受生物神經網路影響的模型,如生物體的中樞神經系統,最明顯的是大腦。人工神經網路是處理設備,如演算法或物理硬體,並在哺乳動物的大腦皮層上進行鬆散建模,雖然規模相當小。稱之為人腦的簡化計算模型。
反向傳播
神經網路通過訓練學習,使用稱為反向傳播的演算法。為了訓練一個神經網路,首先給它一個產生輸出的輸入。第一步是教導神經網路輸入的是正確的還是理想的輸出。然後,人工神經網路可以採取這個理想的輸出,並開始調整權重,以在下一次接收到類似的輸入時產生增強的,更精確的輸出(基於它們對整體預測的貢獻程度)。這個過程重複許多次,直到輸入和理想輸出之間的誤差範圍被認為是可接受的。
卷積神經網路
卷積神經網路(CNN)可以被認為是使用相同的神經元的眾多相同的複製品神經網路。這樣做的好處是,它使網路能夠學習一次神經元,並在很多地方使用神經元,從而簡化模型學習過程,從而減少錯誤。這使CNN在物體識別和圖像標記領域特別有用。CNN學習越來越抽象的輸入與每個卷積的表示。在對象識別的情況下,CNN可能會從原始像素數據開始,然後學習高度區分的特徵,如邊緣,其次是基本形狀,複雜的形狀,圖案和紋理。
循環神經網路
遞歸神經網路(RNN)利用順序信息。不同於傳統的神經網路,假定所有的輸入和輸出都是相互獨立的,RNNs依賴於先前的計算和以前的計算。RNN可以被概念化為隨著時間展開的神經網路。在常規神經網路中,如果有不同的圖層,則可以在RNN中的每個時間步將同一圖層應用於輸入,即使用輸出即前一個時間步的狀態作為輸入。RNN中的實體之間的連接形成一個有向的循環,創建一種內部存儲器,幫助模型利用長鏈依賴關係。
遞歸神經網路
遞歸神經網路是一個回歸神經網路的一般化,並且通過施加固定和一致的權重集的重複,或遞歸地,在該結構中產生。遞歸神經網路採取樹的形式,而複發是一個鏈。遞歸神經網路已被用於自然語言處理,用於諸如情感分析之類的任務。
監督的神經網路
監督神經網路來產生一個理想的輸出,它以前一定是這個輸出。它在預定義的數據集上被「訓練」,並且基於這個數據集,可以 根據它接收到的輸入產生精確的輸出。因此,你可以說它在學習中受到了監督,例如給出了問題和理想的答案。
無監督的神經網路
這涉及為程序或機器提供未經過培訓的未標記數據集,目的是通過聚類自動發現模式和趨勢。
漸變下降
漸變下降是用於查找函數的局部最小值的演算法。通過最初猜測解決方案,並使用該點的函數梯度,我們引導解決方案在梯度的負方向,並重複這種技術,直到演算法最終收斂在零點 - 局部最小點。我們基本上是下降到誤差面,直到到達山谷。
文字嵌入
類似於繪畫可能是一個人的代表,一個詞嵌入是一個單詞的表示,使用實數值。詞嵌入可以被訓練並被用於導出其他詞和其他關係之間的相似性。它們是以計算機可以理解的格式表示單詞的語義和句法信息的數字安排。通過這個過程創建的單詞向量表現出有趣的特徵,幾乎看起來像聽起來像魔術一樣。例如,如果我們從國王的矢量中減去曼的矢量,結果將幾乎等於從皇后中減去女人的矢量。更令人驚訝的是,從跑步中減去跑步的結果幾乎等同於看到減去看到的結果。這些例子表明,該模型不僅在一定程度上學習了這些詞的意義和語義,而且還學習了語法和語法。
結語
用通俗語言的來解釋一些非常技術的學習術語。希望這可以幫助您解決在開始深入學習時遇到的一些棘手問題。
本文參考
Bigdata
Wikipedia
Stackexchange
stanford


TAG:大大里 |