當前位置:
首頁 > 最新 > 阿法狗是如何下棋的,它真的能理解圍棋嗎?

阿法狗是如何下棋的,它真的能理解圍棋嗎?

1

2016 年 3 月大戰李世乭的 AlphaGo 版本被認為還不是很完善,當時 AlphaGo 主要是依靠大量學習人類棋手的棋譜來提高棋藝。隨後 AlphaGo 進入到完全的自我深度學習階段,也就是完全摒棄人類棋手的思維方式,按照自己(左右互搏)的方式研究圍棋。2016年年底,AlphaGo 化名 Master,在網路上與人類頂尖棋手下了 60 盤測試棋,取得 60 局全勝的驕人戰績。通過那次測試,谷歌旗下的 DeepMind 又發現了 AlphaGo 不少需要完善的地方,2017年 5 月中下旬即將與柯潔進行正式人機大戰的將是 AlphaGo 2.0 版本。

2016 年 1 月 28 日,Nature 雜誌以封面論文的形式介紹了 DeepMind 團隊開發的人工智慧程序 AlphaGo,這也就是後來擊敗韓國棋手李世乭的 AlphaGo 版本。

AlphaGo 結合了監督學習與強化學習的優勢。通過訓練形成一個策略網路,將棋盤上的局勢作為輸入信息,並對有所可行的落子位置形成一個概率分布。然後,訓練一個價值網路對自我對弈進行預測,以-1(對手的絕對勝利)到 1(AlphaGo 的絕對勝利)的標準,預測所有可行落子位置的結果。AlphaGo 將這兩種網路整合進基於概率的蒙特卡羅樹搜索(MCTS)中,實現了它真正的優勢。

在獲取棋局信息後,AlphaGo 會根據策略網路(policy network)探索哪個位置同時具備高潛在價值和高可能性,進而決定最佳落子位置。在分配的搜索時間結束時,模擬過程中被系統最繁瑣考察的位置將成為 AlphaGo 的最終選擇。在經過先期的全盤探索和過程中對最佳落子的不斷揣摩後,AlphaGo 的探索演算法就能在其計算能力之上加入近似人類的直覺判斷。

但是新版的 AlphaGo 產生大量自我對弈棋局,為下一代版本提供了訓練數據,此過程循環往複。

AlphaGo 的強大之處不在於一招一式,而在於對每一局比賽展現出的全新視角。雖然圍棋風格略顯抽象,但 AlphaGo 的策略展示了靈活與開放的精神:沒有先入為主的訓練讓它找到了最有效的下棋方式。實用哲學讓 AlphaGo 經常走出違反直覺——但卻最為合理的舉動。

儘管圍棋是一個有關圈地的遊戲,但勝負手卻在於對不同戰區之間的取捨平衡,而 AlphaGo 擅長創造這種平衡。具體來說,AlphaGo 擅長運用「影響力」——已有棋子對自己周圍的影響為自己謀取優勢。雖然 AlphaGo 的價值網路不能準確地計算出影響的數值,但它的價值網路能夠一次性考慮棋盤上的所有棋子,以微妙和精確的方式做出判斷。正是這樣的能力讓 AlphaGo 把自己在局部的優勢轉化為整個比賽的勝勢。

2

過去圍棋程序的思路是,讓電腦計算出圍棋的所有變化,這樣肯定就能擊敗人類了。理論絕對沒錯,可事實上這一點根本做不到,因為據比較準確的估算,這個變化的總數極其龐大,龐大到比宇宙中所有的微粒總數還大,再快的計算機N多年都算不完。

所以,很長一段時間內,電腦早就能完勝人類最頂尖的中國象棋和國際象棋棋手,可在圍棋領域,電腦的水平卻一直跟職業棋手相去甚遠,以至於圍棋被認為是人類對電腦最牢固的一道防線。

然而,阿法狗的橫空出世徹底顛覆了人類的認知。這就是思路改變出路的經典案例了。

阿法狗的路子是,它根本不試圖去窮盡圍棋的所有變化,甚至它壓根不去計算變化。它只是盡量收集職業高手的棋譜,然後用極其牛逼的演算法挑選出每個局面下的最佳招法,如此而已。典型的知其然而不知其所以然。

原理確實簡單,但背後的演算法卻實在複雜和精妙。拜互聯網所賜,甚至不用和職業高手對弈已經靠設計師輸入棋譜,狗2通過程序就可以自動從網上抓取棋譜充實自己的資料庫,然後在跟職業高手的對弈中利用前述的演算法挑選最佳招法。如此這般,職業高手跟狗2下的越多,甚至職業高手之間的對局越多,狗2就會越強。

所以,阿法狗可以完全不懂什麼布局、中盤、和官子,也不必懂什麼死活、手筋、惡手,更不用去判斷厚勢值多少目這些圍棋中最奧秘的東西。就像令狐沖從畫中看出劍法一樣,它眼中的圍棋世界跟職業棋手眼中的圍棋局面形似而神不似,是完全不一樣的。它並不思考,也不會思考,狗2會思考,上帝狂發笑~它只是模仿和選擇,當然,它的這種能力太過於強大。

因此,阿法狗是無所謂棋風,無所謂招法的,它玩的就是傳說中武功的最高境界:無招勝有招。

最後顛覆下大家的認知。現在所謂的人工智慧,包括狗2在內,嚴格說起來根本不算人工智慧。或者說只是人工智慧很初級的階段,再或者說是不同於人工智慧的另一種能力-機器智能,反正不管怎麼說,跟人類智能不是一回事。

為什麼這麼說呢?大家想想看,什麼是人類智能?最重要的是思考吧,可人類如何通過大腦思考,現代科學還遠遠沒有搞明白,大腦的結構、神經元的機理和神經網路的運行等,這些最根本的東西人類了解得非常有限。換句話說,人類智能是怎麼回事我們自己都不清楚,人類編製的程序怎麼可能是人工智慧呢?

何況從阿法狗的機理我們不難看出,它的強大並不是通過人類大腦模式的思考,本質上還是機器式的儲存和模仿,只不過這種能力太過於強悍,以至於似乎在某些方面比人類智力厲害得多,但畢竟不是一回事。聰明無比的笨蛋,也許是這類所謂「人工智慧」最貼切的稱呼。

就像一個從來沒學過圍棋的小孩,突然吃了一粒神丹妙藥,一下子變成了絕頂高手,而且還不斷地吃這種神丹,讓自己越來越強。這跟人類利用智力學習圍棋的過程是完全不同的。

3

在一局圍棋中,平均每一步的下法大約有200種可能,若全部計算的話,棋盤上可能出現的局面總數到了遠大於宇宙中原子總數的地步。因此,通過暴力窮舉手段預測所有的可能情況並從中篩選中最優勢走法的思路,並不適用於圍棋,所以AlphaGo選擇了別的下棋方式。

支撐AlphaGo提高棋力、打敗人類選手的「秘訣」 有三個:深度神經網路、監督和強化學習、蒙特卡羅樹搜索。

1.深度神經網路是包含超過一個認知層的計算機神經網路。對於人工智慧而言,世界是被用數字的方式呈現的。人們將人工智慧設計出不的「層」來解決不同層級的認知任務,這種具備許多「層」的神經網路,被稱為深度神經網路。AlphaGo包含兩種深度神經網路:價值網路和策略網路,價值網路使得AlphaGo能夠明晰局勢的判斷,左右全局「戰略」,拋棄不合適的路線;策略網路使得AlphaGo能夠優化每一步落子,左右局部「戰術」,減少失誤。兩者結合在一起,使得AlphaGo不需要過於龐大的計算也能夠走出精妙的棋局。

2.監督學習和強化學習是機器學習方式的不同種類。監督學習是指機器通過人類輸入的信息進行學習,而加強學習是指機器自身收集環境中的相關信息作出判斷,並綜合成自己的「經驗」。在初始階段,AlphaGo收集研究者輸入的大量棋局數據,學習人類棋手的下法,形成自己獨特的判斷方式。之後在不計其數的自己與自己模擬對弈,以及每一次與人類棋手對弈中,AlphaGo都能並根據結果來總結並生成新的範式,實現自我提高。

3.最後需要說的是蒙特卡洛樹,這是一種搜索演算法,AI在利用它進行決策判斷時會從根結點開始不斷選擇分支子結點,通過不斷的決策使得遊戲局勢向AI預測的最優點移動,直到模擬遊戲勝利。AI每一次的選擇都會同時產生多個可能性,它會進行模擬運算,推斷出可能的結果再做出決定。

4

北京時間3月9日中午12:00,在韓國首爾上演了電腦與人腦的大戰,由Google AlphaGo圍棋程序對陣韓國圍棋9段冠軍李世石,經過不到4個小時的對弈,AlphaGo戰勝李世石,取得了圍棋比賽的第一局,舉世震驚。作為人工智慧挑戰人腦的第二次進擊,AlphaGo相對超算「深藍」又有哪些不同呢?未來人工智慧會不會全面取代人類呢?

AlphaGo是由Google DeepMind(英國,2014年被Google 4億美元收購)開發的人工智慧程序。DeepMind致力於開發人工智慧程序,不同於早起的人工智慧單純依賴計算機強大的計算性能,AlphaGo程序開發了計算機學習和系統神經科學方法,通過KGS(Kiseido Go Server)與世界各地的圍棋選手競技過程中不斷成長,在去年10月份的時候就已經戰勝了歐洲圍棋冠軍樊麾,並於近日正式開始挑戰世界冠軍李世石,第一局已經告捷。

AlphaGo如何下圍棋?

自從計算機在國際象棋上挑戰人類成功之後,所有人的目光就聚焦在了圍棋這項古老的東方棋類。然而對計算機來說,圍棋似乎是個比國際象棋更「難」的東西。1985年企業家應昌期先生懸賞一百萬美金尋找能夠打敗人類職業棋手的計算機,一直未果。進入21世紀之後,研究者們開始探索一套被稱為「蒙特卡洛樹搜索」的全新思路,以日本的ZEN(天頂圍棋)和法國的CrazyStone為代表的一流圍棋程序沿著「蒙特卡洛方法」的思路不斷改進,而去年正式揭開面紗的AlphaGo更是將人工智慧圍棋博弈帶向新的高度,繼去年10月份攻克歐洲圍棋冠軍樊麾,昨日又在韓國首爾首戰告捷戰勝世界圍棋冠軍李世石。

如果說對棋局盤面的靜態評估好比人類棋手的「感覺」過程,那麼動態評估就好比人類棋手的「推理」過程。在靜態評估中機器得益於人類專家的很多幫助,而動態評估的部分是人工智慧大顯身手的地方了。「動態評估」試圖對從當前盤面出發「有可能」出現的大量局面變化所導致的結果進行預判,並綜合分析所有這些可能性,對當前盤面進行一次評估。這也是人類在動態環境中做決策時經常使用的策略,也就是希望通過「看得更遠」來提前發覺潛在的危險或機會。

代替AlphaGo落子的日本棋手正在和李世石對弈

基於一套給定規則,任意給定的棋局盤面會有一個「合法走法」的集合,其中每個走法都會把棋局引向一個新盤面,而這個新盤面又會有自己的另一個合法走法集合,每個走法又對應一個新的盤面。如果假設每個盤面都有種合法走法,那麼從當前盤面走一步之後一共有N種可能「到達」的盤面,兩步之後有N^2種可能盤面,三步之後有N^3種可能……如此展開下去,從最初的給定盤面經過M步之後可能到達N^M種不同的盤面,它們就是在「未來N步內所有可能的局面變化」。

國際象棋的人工智慧遍歷圖

圍棋的人工智慧遍歷圖

從給定盤面開始的局勢變化的複雜度是隨考慮的步數呈指數級增長的,這意味著從原則上不存在準確計算盤面的最優結果的有效方法。不過這對於對局雙方來說未必是個壞消息——雖然AlphaGo無法計算最優解,對手也同樣無法計算。事實上一個遊戲之所以成為遊戲,恰恰就是因為對局雙方都相信對手不具備完美決策的能力,而自己要做的只是比對手「錯得更少一些」。

另一方面對於AlphaGo來說,「不可能對局勢變化的所有可能性進行有效計算」意味著想做得比對手更好需要從原理上解決兩個關鍵問題: (1)決定一個「篩選策略」,從所有從當前盤面出發有可能導致的變化中選擇一部分作為「我們實際考慮的那些局面變化」;(2)決定一個「匯總策略」,把所 有實際考慮的變化的靜態評估結果綜合起來,對當前盤面的勝率完成評估。

人工智慧的核心--深度卷積神經網路

深度卷積神經網路是人工智慧的核心基礎,諸如現在主流的人工智慧的應用人臉識別、圖像分類、天氣預報等。19年前,超級計算機「深藍」擊敗國際象棋冠軍卡斯帕羅夫的新聞相信很多人耳熟能詳,雖然當時的「深藍」從狹義角度來看並算不上是人工智慧,其強大之處就是使用了超級計算機作為運算支撐使用遍歷方式最終打敗人類,但是相對於國際象棋,圍棋擁有361(19x19)個點複雜度遠超國際象棋,如果使用遍歷其運算量和數據存儲量現階段甚至很長一段時間超級計算機也無法滿足這樣的需求。

所以AlphaGo轉而使用了蒙特卡洛搜索樹演算法,是對一類隨機演算法的特性的概括。例如使用蒙特卡洛搜索樹演算法從100個蘋果籃子中取出最大的蘋果,每次閉眼拿1個,挑出最大的。於是隨機拿1個,再隨機拿1個跟它比,留下大的,再隨機拿1個……每拿一次,留下的蘋果都至少不比上次的小。拿的次數越多,挑出的蘋果就越大,除非拿100次,否則無法肯定挑出了最大的。這個挑蘋果的演算法,蒙特卡羅演算法是盡量找好的,但不保證是最好的。

對於圍棋而言,由於遍曆數據的龐大,只能通過部分遍歷的方式尋找最優下棋的方式,所以會出現獲得真正的結果之前,無法知道目前得到的結果是不是真正的結果。

AlphaGo的兩大法寶--價值網路和策略網路

作為人工智慧的核心,AlphaGo更是使用了兩個大腦,也就是Value Networks(價值網路)和Policy Networks(策略網路)兩個計算網路,使用Value Networks來評估大量的選點,而以Policy Networks來選擇落子,並且開發了一種新式演算法來結合蒙特卡洛樹演算法和以上兩個神經網路。

在Google DeepMind工作的黃世傑,2015年在ICLR發表了一篇關於「深度神經網路」的論文,指出從網上對戰平台KGS可以獲取人類圍棋選手對弈的棋局,並且匯總這些棋局,得到了最初的3000萬個樣本,也就是棋譜,這奠定了AlphaGo的下棋基礎,與人類學習下棋有著異曲同工之妙。這3000萬個樣本可以用統計,其中a是一個19x19xn的二維棋局,輸入到一個卷積神經網路分類,分類的目標就是落子向量A,通過不斷的訓練,儘可能讓計算機得到的向量A接近人類高手的落子結果b,這樣就形成了一個模擬人類下圍棋的神經網路,然後得出一個下棋函數F_go(),當盤面走到任何一種情形的時候,都可以通過調用函數的形式從資料庫獲取最佳的落子位置。

似乎這樣的程序只要積累到足夠多的棋譜資料庫作為支撐,那麼就可以打造出一個虛擬的頂級圍棋高手,但由於圍棋局面數據無限龐大,單純的棋譜收集並不能支撐起成為一個頂級高手,而黃世傑也介紹,這樣打造出來的虛擬圍棋高手只能達到業餘六段的水準,和專業級的選手還有很大的差距,更何況是專業9段的李世石。

早先公布的世界圍棋人工智慧得分排名

於是AlphaGo開始將蒙特卡洛樹演算法結合在一起,它不再機械的調用函數庫,而是一種類似於人類進化的過程,黃世傑的老師Coulum讓兩個機器人在棋盤上隨機下棋,那麼下到最後,必然會有一個機器人會贏,那麼將贏的那一方法記下來(M0,a0),並將分值提高一些:新分數=初始分+r。於是使用(M0,a0),例如(M0,a0)方法的分值為2,其它方法依然是1,理論上來說再次選擇(M0,a0)方法的概率會更高一些,而要和(M0,a0)方法假象中的對手也同樣適用了這樣的方式更新了自己的分數,例如會以a1作為應對,就這樣如法炮製,Coulum就這樣不斷的和那些不怎麼是高手的虛擬對手下棋,這樣那些不錯的落子方案就會分數越來越高,等到Coulum在想像中完成了10萬盤棋後,選擇他推演過次數最多的那個方案落子,實際上這個時候Coulum才下了第一步棋。

不過Coulum的程序仍然有局限性,因為初始的下棋方法太過簡單,需要使用更高效地扔骰子,那如何更搞笑的扔骰子呢?於是黃世傑改進了蒙特卡洛樹演算法,一開始就不在使用(M0,a0)這種擲骰子的方法,而是先根據F_go()計算的結果來得到b可能的概率分布,以這個概率來挑選下一步的動作,每次棋局下完之後,新分數=調整後的初始分+通過模擬得到的贏棋概率。

當然執行過程中會遇到某一步唄隨機到很多次,這個時候就應該依據模擬得到的概率而不是F_go(),所以F_go()的初始分會被打個折扣:調整後的初始分=F_go()/(被隨機到的次數+1)

於是下棋過程中F_go()就可以快速定位到相對優秀的落子方案,又給了其它位置一定的概率,不過這樣做了後,就出現了一個問題,F_go()的計算速率太慢,完全無法滿足圍棋比賽的需求,如果和真正的選手比賽時間根本就不夠用。於是新的F_go_Fast()函數被推出,它把網路層數、輸入特徵都減少,耗時相比之前最初增加並不多,基本可以滿足正常下棋的需求,只需要在開始的時候使用F_go()走一些步數,然後在後續執行F_go_Fast(),兼顧準確和效率。

除了這些對戰,AlphaGo還加入了人類無法實現的左右互搏,意思就是使用F_go(1)和F_go(1)對弈,得到了一定一定量的新棋譜,加入到訓練集當中,訓練處新的F_go(2),一次類推,這樣就可以得到勝率更高的F_go(n)。不過左右互搏並沒有帶來提升,相反還不如F_go(),於是黃世傑最後使出了評價函數v(s)這一招,在訓練v(s)的時候,開局還是使用F_go()走n步,這樣可以生成更多的開局,不過黃世傑覺得開局還是不夠豐富,於是在n+1步的時候再隨機擲骰子,並記下這個狀態,然後和F_go(n)對弈,知道比賽結束,獲得結果r,通過這種方式獲取足夠多的樣本,再通過神經網路,把最後一層的目標改成回歸而非分類,就得出了v(s)函數,輸出贏棋的概率。

F_go()、v(s)以及蒙特卡洛樹演算法三者相互配合,使用F_go()作為初始分開局,每局選擇分數最高的方案落子,下到n步之後,改用F_go_Fast()下完剩下的棋局,同時調用v(s),評估局面的獲勝概率,就實現了布局和快速的雙重效果,剩下的就是不斷的學習過程了。

人工智慧會犯錯誤嗎?

人們總是說機器是不會犯錯誤的,在AlphaGo與李世石的對弈過程中,一些媒體或者專家經常會說到「AlphaGo不會犯錯誤」,並擔憂李世石會敗給AlphaGo,最終結局並不盡如意,最終李世石落敗。自詡的人類恐怕要對於後面的四場比賽開始惶恐起來。

實際在比賽的過程中AlphaGo有多次機會可以拿下棋局,卻一直對弈到近4個小時候才分出勝負,期間AlphaGo由於並沒有採取正確的措施,按照人類的理解認知,實際上人工智慧已經犯下了錯誤。畢竟對於非公理性的演算法,機器是無法精準獲取最優結果的,AlphaGo採用的蒙特卡洛搜索樹遍歷對於圍棋來說很難做到精準下棋,畢竟計算量擺在那兒,實際上對於圍棋而言至少現階段不可能使用完全的遍歷方式獲取最優結果。

實際上所有的人工智慧對於未知領域的嘗試都是很難窮盡結果的,這也是為什麼人工智慧一直被人類語言很難完全取代人類的原因,人工智慧在某些領域成功是科技進步的表現,但是對於人工智慧未能涉足的領域,我們可以認為人工智慧會犯錯誤而無法在這一領域應用,當人工智慧超越人類的過程也是不斷犯錯誤的過程,你覺得呢?

人類被人工智慧打敗 需要畏懼嗎?

最終回到AlphaGo是否可以戰勝圍棋世界冠軍李世石問題上來,雖然從目前已經對局的情勢來看,AlphaGo最終打敗世界冠軍李世石的概率很大,另外AlphaGo快速的成長速度是任何一個圍棋世界冠軍無法企及的,隨著計算機性能的不斷增強,蒙特卡洛搜索樹遍歷將進一步提高命中概率,這樣在人腦提升緩慢的背景下,AlphaGo在圍棋對弈上全面戰勝人類只是早晚的事情,正如當時「深藍」歷經數年才艱難戰勝人類,自此以後將人類甩在了身後。

大量的計算機專家,配合大量的世界圍棋高手,在演算法上不斷革新,再配合不斷成長的超級計算能力,不斷的從失敗走向成功,最終打造出圍棋人工智慧。樊麾、李世石是敗給人類智慧的結晶。

賽後的李世石並不是太悲觀,對接下來的對弈依然充滿信心

而棋手和圍棋從業者們,出於可以理解的感情,總是希望並認為這一天不會來的那麼快,但他們絕對不會拒絕甚至仇視這種進步。其實我看到的很多人,都一直期待並讚許著人工智慧的進步,甚至很多職業高手還親身參與和幫助著人工智慧圍棋項目的研究。

我們努力打造著一個「新我」,一個能戰勝自己的「新我」。其實並不是人工智慧打敗了人類,而是人類打敗了人類。所以最終的成功,是我們人類自己的成功,而不應該對人工智慧感到畏懼。

5

通過一隻「狗」,我們認識到谷歌的人工智居然可以打敗人類?

事實上,只要知道這件事情就對了。

在吸取教訓後,圍棋網站出現神秘的高手時,人們馬上就嗅到了人工智慧「阿爾法狗」的氣息。在猜測它的真實身份過程中,Master(賬號名)已經以每天10盤的驚人速度在弈城,野狐等網路圍棋隊長平台打敗中日韓的頂尖高手們,因為一則懸賞更多人關注到這場戰役中,但是都沒有成功最後它以60局收官,刷新人們的三觀。

阿爾法狗也就是谷歌的人工智慧實驗室推出的人工智慧成品AlphaGo,被用來向世人展示人工智慧的發展現狀,因為阿爾法狗戰勝了當今棋王韓國棋手李世石,大眾對此的認知從科幻片中得以徹底驚醒,谷歌又主導建立了AI合作組織(Partnership on AI)來消除公眾擔憂並把問題更放在公開場合來進行討論,幫助這一科學成就更快融入社會。

最初人工智慧的領航者谷歌探索是在2011年啟動谷歌大腦開始的,把AI滲透在Gmail,谷歌相冊,谷歌翻譯,谷歌助手等產品中。在來自全世界的海量數據中,人工智慧被定位為深度學習,知識圖譜,自然語言處理和翻譯,語音圖像識別等方面的「高級演算法」,必須有性能更高的晶元和硬體。甚至李世石「棋王對戰」時,有人戲稱他是在與10個CPU跑步。後來谷歌所突破的眾多產品技術被人們認可,人工智慧被谷歌宣布為未來科技的趨勢,還推出工具型產品TensorFlow的AI系統並將其開源,相當於送給全世界開發者的AI門票,呼喚更多人走入人工智慧領域,推進這一行業的發展。

如果人工智慧是應用在產品中的服務打敗別的產品,逼著科學和技術不斷突破;當人工智慧應用在大腦上,PK人類的智慧與勞動,那帶來的就是革命。

現在這個AlphaGo主要是機器學習加上蒙特卡洛斯搜索這兩套技術合在一起研發出來的。

機器學習主要是機器和機器下棋,通過強化學習演算法,自己和自己下棋,積累大量的下棋經驗,這是很重要的一部分。相當於我們用一套人工神經網路,叫價值網路來實現這部分的走法。還有一部分叫蒙特卡洛斯搜索,是屬於經典的人工智慧演算法,是把隨機性和基於樹的搜索結合在一起。然後,這兩部分是如何結合的呢?

在蒙特卡洛斯搜索的時候,要用到啟發式信息,而這個啟發式信息恰恰是機器和機器自我學習生成的價值網路來提供的,所以AlphaGo把經典的人工智慧和新的深度學習融合在一起了,通過這樣一種方式才變得這麼厲害。在早期,和李世石對戰的時候,加了政策網路,也就是把和人類下棋的經驗做到了政策網路中,所以AlphaGo還在借鑒人類的經驗。

而2017年初的把六十多個選手打敗的maser就沒有人類的任何經驗,完全是自己和自己下棋的方式學到的經驗,從而變得這麼厲害。AlphaGo目前來看,勝算是很大的,是能戰勝柯潔的。


點擊展開全文

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 小馬講故事 的精彩文章:

馬雲年會演講:一切皆可棄 理想不能拋
馬雲預言未來房價會是大蔥價,土地確權驗證了說法
任正非辭退入職60天北大高材生,大佬們最不能容忍哪類員工
職場:90後的你現在月收入是多少了?
剩男寧願聚在一起吃吃喝喝,也不願意追女生

TAG:小馬講故事 |