當前位置:
首頁 > 最新 > 來「漲姿勢」啦!人工智慧領域技術知識大講堂

來「漲姿勢」啦!人工智慧領域技術知識大講堂

前言

相信很多小夥伴們對人工智慧領域非常的感興趣但對需要掌握的技術知識非常匱乏,想要系統地了解人工智慧的專業技術知識卻又不知道如何下手。別著急,這次小編給大家帶來了滿滿的乾貨,帶領大家一步一步認識人工智慧領域都有哪些前沿的技術,那我們就先從機器學習入手吧!

人工智慧之機器學習知識體系

1.機器學習定義

學習是一個特定目的的知識獲取和能力增長過程,其內在行為是獲得知識、積累經驗、發現規律,其外部表現是改進性能、適應環境、實現自我完善。(實質:「變化」)

具有學習能力的自主智能系統應包括:感知機構,學習機構,執行機構和評價機構。

感知機構類似於人的眼、耳、鼻等感覺器官以及大腦中的感知部分,用於從外部環境獲取執行機構運行所需的輸入信息以及學習機構所需的對於執行機構性能的評價信息。

執行機構類似於人的四肢、嘴巴等執行器官以及大腦中的行為部分,用於解決問題,從而對外表現智能,其特點是可以影響和改變環境,比如文字識別系統中確定並給出待識別文字類別的部分、下棋系統中確定並執行下棋步驟的部分、自動汽車駕駛系統中控制車輛運行的部分。

評價機構用於對執行機構的執行效果進行評價,並將評價結果反饋給學習機構,作為學習的依據。顯然,這是學習的基礎。只有在得到這種反饋的前提下,學習才會是有效的,才能使機器變得越來越好。

學習機構是體現系統學習能力的核心部分,以該部分為中心,智能系統的學習過程可概述如下:首先智能系統在對外界環境進行感知的基礎之上,調用執行機構完成相應的智能功能,比如分類、下棋、開車等;然後評價機構從環境中獲得對於機器執行效果的評價結果;最後學習機構根據該評價結果對執行機構進行改變,以使其能夠更好地解決問題,獲得更好的執行效果,表現出更好的性能。如前所述,學習的實質是「變化」,因此在設計學習機構時,首先要考慮的問題是執行機構中可變的部分是什麼,從此點出發思考和實現學習方法。

2.機器學習方法

記憶學習(監督學習)

將記憶作為學習手段,通過逐個記住輸入與輸出之間的映射關係來實現求解,顯然,這種記憶結果是函數的一種離散表示形式。

例:下棋(極大極小演算法)

決策樹學習(監督學習)

主要用於解決離散的輸入與輸出映射問題,即對離散函數進行估計,其中離散函數的表示形式為隱式的決策樹(decision tree),一種樹型的數據結構。

例:異或運算決策樹

貝葉斯學習(監督學習)

設d 表示某一輸入數據,h 表示某一輸出結果,則二者之間的統計映射關係可表示為條件概率P(h|d)。從當前觀察到的不同類輸出數據中歸納出各類別數據所服從的統計規律,利用這些統計規律對P(h|d)的絕對大小或相對大小進行推算。

支持向量機(監督學習)

支持向量機(Support Vector Machines),通常簡稱SVM,屬於判別學習方法,是目前判別學習中的典型代表之一。SVM 的學習對象是關於確定變數的線性判別函數:

二維情況下,線性函數的圖像為一條直線;三維情況下,為一個平面;在更高維情況下,則可視為是一個超平面(hyperplane)。該超平面是由其中的參數w,b.決定的,因此可認為w,b代表了超平面。SVM 的學習目標就是找到一個能對線性判別函數的不同輸出進行最優區分的超平面,而其對最優超平面的定義則是距離正樣本和反樣本都最遠的超平面,以使得在對訓練樣本有效分類的前提下獲得最好的泛化能力。

聚類(非監督學習)

非監督學習的特點是訓練數據中只有輸入數據,沒有輸入對應的期望輸出。因此其學習對象是輸入數據中隱含的規律,包括數據的分布規律、數據分量之間的關聯規則等。

在定義聚類優化目標時,基本準則是簇內數據相似、簇間數據不相似,於是核心問題就成為如何來度量數據之間以及簇之間的相似性了。通常採用距離或相關係數來度量其相似度。

(1)距離(distance)

(2)相關係數(Correlation Coefficient)

K-Means

自學習(半監督學習)

自學習(Self-training)方法利用當前已學習得到的函數對未標註數據處理,確定未標註數據的輸出結果,即對於未標註數據進行了自動標註,從而擴充了標註數據集。這樣便能利用新增的標註數據繼續對函數進行學習。在對未標註數據進行自動標註時,不能保證結果一定準確。而如果數據的標註結果有誤,則繼續在此基礎上學習反而會造成學習效果的下降。因此通常需要對於未標註數據的自動標註結果給出可靠度,只有可靠度較高的自動標註結果才能被用於函數的再學習。

互學習(半監督學習)

互學習(Co-training)方法利用不同信息之間的互補性來達到互相學習的目的。具體地說,對於每種信息,我們分別構建一個函數來解決一個共同的問題。對於該函數的學習,我們首先利用少量標註數據學習得到初始的函數。然後在面對未標註數據時,我們利用其他信息對應的處理函數來確定未標註數據的標註結果,進而利用新增的標註數據對該函數進行繼續學習。

強化學習

強化學習給出了對輸出結果正確與否的評價,通常是以獎懲的形式給出,即如果輸出是對的,則給予獎勵;否則給予懲罰。這種獎勵和懲罰落實到演算法上,可以用不同符號的數值來表示,數值的符號反映是獎勵還是懲罰,數值的大小反映獎勵或懲罰的大小。這種反饋使得機器明確了輸出的正確與否,但並不清楚理想的輸出結果是什麼。由機器自己在此基礎上根據趨利避害原則調整其執行策略,以期獲得儘可能多的獎勵以及儘可能多地避免懲罰。

強化學習通常不是一次學習完成,而是伴隨機器運行過程中,根據其所獲得的獎勵和懲罰不斷對其執行機構進行調整,有終身學習的特點。而且強化學習來源於自動化和控制學科,最初主要用於對自主機器(如機器人)的執行機構進行學習,因此在理想的強化學習過程中,獎勵和懲罰應是機器自動從環境中觀察得到的。

3.機器學習評價

過學習:經驗數據上表現出更好的性能,但對於之外卻下降象。

泛化:機器學習對未知數據的預測能力

偏置:機器學習的執行機構有無數種可能的選擇,為了選擇最佳結果,學習演算法有一定的偏好,這就是偏置問題。對於學習演算法的偏置情況,需要利用統計手段來析。

數據魯棒性:經驗數據是機器學習的基礎,量和質對於效果有較大影響,這種影響能到什麼程度是需要考慮的重問題。

透明性:機器的學習過程和結果,外部人員是否理解,理解的容易程度如何。人需要知道機器的執行機制,需要理解機器的學習結果。

複雜性:(1)計算:時間複雜度和空間複雜度,反映了一個演算法的計算效率和對存儲消耗與問題規模之間的關係。(2)數據:可伸縮性,機器學習面對大規模數據是否保持良好的性能。(3)優化:收斂性和收斂速度,經過一定時間的迭代是否搜索到最優值,收斂性演算法達到最優值之前的計算效率。

降維思考

1.強化學習:人幼小時期的學習過程,這時還缺少對事物的理解能力,家長只能使用獎勵和懲罰手段來使其認識到孰對孰錯,利用趨利避害的天性對其進行教育。

2.監督學習:人在學校期間的學習,這時在解答教師的問題時,教師不僅會告訴你對錯,還會告訴你標準答案,據此調整自己的思維方式和過程,使得自己的解答能夠與教師給出的一致。

3.非監督學習:人在工作期間的學習,這時沒有家長和教師的引導,需要自己從大量工作經驗中總結出有利於自己開展工作的方式方法等。

大家對這次機器學習的知識都了解了嗎?如果你有什麼想要學習的關於人工智慧領域的知識,歡迎留言告訴我們哦,下一期可能就是你想要的乾貨!

供稿:崔雯

責編:張定邦

頭圖:黃駿


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 你的2045年 的精彩文章:

TAG:你的2045年 |