AlphaGo的自學能力更強了
如今,AlphaGo Master能夠從與自己對弈中學習,而不是需要從人類比賽中學習。其效率也更高。
谷歌(Google)電腦程序AlphaGo在三局比賽的第二局戰勝世界排名第一的圍棋選手,意味著人工智慧演算法在這種極其複雜的棋盤遊戲領域大獲全勝。
中國圍棋冠軍柯潔周四投子認負,這場對弈中電腦和人腦都以創新的戰術給觀眾帶來了驚喜。
儘管古老的圍棋規則很少,但其複雜性意味著電腦擊敗世界冠軍曾被認為是難以想像的。然而,由谷歌旗下的DeepMind公司開發的AlphaGo去年擊敗了韓國圍棋大師李世石(Lee Se-dol)。
谷歌將AlphaGo帶到中國的目的是,挑戰柯潔並在為期5天的賽事中在中國專家和政府官員面前展示其在人工智慧領域的突破。自其搜索引擎7年前在中國被屏蔽以來,這是谷歌與中國政府合作舉辦的規模最大的活動。
DeepMind聯合創始人傑米斯?哈薩比斯(Demis Hassabis)解釋道,今年的版本名為AlphaGo Master,比去年的版本更為強大。
AlphaGo Master能夠從與自己對弈中學習,而不是需要從人類比賽中學習。其效率也更高,需要的計算能力是上一個版本的10分之一。
「主要的創新是AlphaGo已變成自己的老師,」AlphaGo首席程序員戴夫?西爾弗(Dave Silver)表示,「這令其能夠用更一般化的方式學習,意味著不僅棋藝增強,而且還能帶來更一般化的應用。」
AlphaGo Master的硬體也更好了。它使用「張量處理單元」,這是谷歌為用於人工智慧程序而設計的微晶元。據谷歌稱,「張量處理單元」每單位能量的性能優於常規晶元最多80倍。
柯潔也開始使用從觀看AlphaGo比賽中學到的戰術,表明人類也在模仿機器。
儘管IBM的「深藍」(Deep Blue)計算機在1997年擊敗了國際象棋冠軍加里?卡斯帕羅夫(Garry Kasparov),但要在攻克圍棋領域取得進展更為困難。
與國際象棋不同,圍棋不可能通過利用純粹的計算能力計算出全部可能的走法來輕易取勝。AlphaGo採用的學習模式是模仿神經元在人類大腦中的工作原理。
DeepMind現在正致力於開發程序來玩需要更複雜視覺輸入的遊戲,例如暴雪娛樂(Blizzard Entertainment)的在線策略遊戲《星際爭霸》(Starcraft)。
譯者/梁艷裳


※中美最新貿易協議將讓誰獲益?
※特朗普預算案中的初級錯誤
※朴槿惠出庭受審 作無罪申辯
※讀心演算法:科學的新前沿
※特里薩·梅的出爾反爾是不祥預兆
TAG:FT中文網 |
※通過 AI 自學習,Google 讓 Pixel 3 的人像模式更優秀
※通過 AI 自學習,Google讓Pixel 3 的人像模式更優秀
※DeepMind 讓AI機器人具備自學能力
※Naomi Tydeman:有一種努力叫自學成才
※自學成才的插畫師Felicita
※DeepMind開發新系統 讓AI機器人具備自學能力
※python自學看什麼書?零基礎能自學Python嗎?
※又一位自學成才的:來自印度水彩畫家 Ramesh Jhawar 繪畫作品
※自學python vs 培訓班學習
※Premiere自學教程
※用互聯網自學廚藝,這 6 個應用能幫上忙 | Hack Your Life
※一份中外結合的 Machine Learning 自學計劃
※自學InDesign全攻略,一天足矣!
※Photoshop自學開門三件事之二:了解RGB和CMYK
※又一位自學成才的藝術家:來自 Eric Christensen 獨特水彩繪畫
※自學Python需要怎樣的基礎和準備
※13 歲自學編程,提出演進式架構的她,成 ThoughtWorks CTO!
※用雕塑的方式創造出腦海中的奇幻樂園 | 一位自學成才的3D藝術家Alexei Popovici
※Photoshop教程ps自學手繪水彩蓮花
※想自學Python GUI編程,看這一篇就夠了