剛贏了第一場,Google就“曬”出了勝利的秘訣
知道Google會分享,就是不知道會這么快。
雖然只有1/4子,但昨天AlphaGo在對戰(zhàn)柯潔時那種游刃有余,穩(wěn)扎穩(wěn)打的作風已然顯示出其強大的實力。
DeepMind創(chuàng)始人兼CEO Demis Hassabis(左)和首席科學家David Silver(右)
數(shù)十分鐘前,此次圍棋峰會的另外一個重頭戲——中國烏鎮(zhèn)·人工智能高峰論壇正式開始。首先上臺演講的不是別人,正是打造圍棋人工智能AlphaGo的兩位關(guān)鍵人物:DeepMind創(chuàng)始人兼CEO Demis Hassabis,以及DeepMind首席科學家David Silver。
在各自短暫的演講中,Hassabis和Silver分別對AlphaGo能取得當下成績的原因進行了整體說明,同時還收集了一大批圍棋界人士的評論。但最令人意料之外的還要屬最新版AlphaGo的信息披露。
AlphaGo Master:世界上實力最強高的電腦圍棋玩家
之前坊間也一直在猜測,究竟今年年初以Master出現(xiàn)在野狐平臺橫掃60名職業(yè)棋手的AlphaGo是什么版本。
在David Silver展示的PPT中明確提到了三種AlphaGo的稱呼:AlphaGo Fan(與樊麾對弈的版本)、AlphaGo Lee(與李世乭對弈的版本)、AlphaGo Master(驅(qū)動Master的版本)。相比之前坊間風傳的V18/V20等版本稱號,這三個名字容易理解不少。
他們?nèi)咧g最主要的差別就是棋藝水平,Google現(xiàn)場也展示了三者的圍棋ELO等級分:
2015年10月登場的AlphaGo Fan等級分大約在2900分左右,2016年3月登場的AlphaGo Lee等級分大約在3700分左右(李世乭本人目前3530分),今年年初登場的AlphaGo Master等級分已經(jīng)來到了4800分左右。
考慮到目前世界第一人柯潔的等級分不過3625,Google還給出了一個AlphaGo Lee與AlphaGo Master之間參考性的讓子數(shù)目——3子。
柯潔本人在現(xiàn)場目睹這個差距之后也不由得在微博上發(fā)表了自己的感受:
早就聽說新版alphago的強大....但...讓...讓三個?我的天,這個差距有多大呢?簡單的解釋一下就是一人一手輪流下的圍棋,對手連續(xù)讓你下三步...又像武林高手對決讓你先捅三刀一樣...我到底是在和一個怎樣可怕的對手下棋...
值得注意的是,等級分的數(shù)值實際上是由一系列比賽中的勝負來確定的,這個數(shù)值在輸贏都存在的情況下比較準確(高低都有參考值)。而AlphaGo Master之前一舉面對職業(yè)圍棋人士連勝60盤,等級分很可能還遠沒有達到真實的水平(上未封頂)。
三聯(lián)生活周刊科技記者昨天就在朋友圈中表達出了相似的觀點,即想要知道最新版AlphaGo到底超出人類多少,讓子再賽很可能是唯一的證明方法。
當然,這三者在配置、運作方式上也截然不同。以下是根據(jù)現(xiàn)場整理的一份簡單表格。
看到這里肯定會有人驚呼:從50個TPU減少到1個,Google這是要逆天么?這種想法實際上是錯誤的。
原因在于,AlphaGo Master實際上是站在巨人(AlphaGo Lee)肩膀上的。
AlphaGo Master的強大為啥與 AlphaGo Lee息息相關(guān)?
如果非要分個階段,AlphaGo Fan實際上與AlphaGo Lee可以劃為同一時期。
這兩者的整體算法架構(gòu)都是一樣的:“深度學習+蒙特卡洛搜索樹+強化學習”?;蛘吣憧梢詫⑺麄兝斫鉃槌踔猩透咧猩牟顒e,挑戰(zhàn)樊麾的版本在數(shù)據(jù)積累和算法細部規(guī)則上還沒有打磨到極致,而后者則要完美不少。
到了AlphaGo Lee 時,我們原來認為的“圍棋人工智能障礙”——圍棋棋局可能性太多,無法窮舉找到最優(yōu)解,已經(jīng)被解決。
圍棋中龐大的蒙特卡洛搜索樹
簡略點來說,Google實際上找了兩種“偷懶”的辦法:首先是在進行下一步落子計算時,只參考通過深度學習得來的人類落子選項。(人類如果不下的地方,它就不計算)
第二是估值網(wǎng)絡(luò),在每一步落子之時想要直接算出結(jié)局,同樣是不可能的。因為隨著預測步數(shù)增多,蒙特卡洛搜索樹中需要計算的內(nèi)容也會指數(shù)式上漲。所以AlphaGo引入了一套打分體系。沒有一個地方是100%贏,只是對比其他地方,這一個點落子更好。
通過這兩步縱向和橫向的精簡之后,AlphaGo達成了一個幾乎不可能完成的任務(wù)——在去年3月的比賽中戰(zhàn)勝了李世乭。
但除了最終結(jié)果外,AlphaGo在那次比賽中的少數(shù)表現(xiàn)同樣值得關(guān)注:時常下出一些人類覺得有問題的棋招;在第四場李世乭神之一手之時,其估值網(wǎng)絡(luò)發(fā)生了斷崖式的波動。
這無疑反映出了AlphaGo Lee自身的不成熟。
那么怎么樣才能再上一層樓呢?不同于之前很多人猜測的“完全摒棄AlphaGo中的人類元素”,Google采用了一條更加穩(wěn)妥的道路——建一個全新的神經(jīng)網(wǎng)絡(luò),在AlphaGo Lee的基礎(chǔ)上進行二次“學習”,并且將學習到的東西不斷記下來。
這也使得AlphaGo Master變得比AlphaGo Lee更加嚴謹,同時也更加穩(wěn)定。這也是為什么會出現(xiàn)昨天三番棋第一場末尾階段AlphaGo絲毫不怕柯潔追擊,只采用最穩(wěn)固策略的原因。
當然,其他疑問也依舊存在,例如 AlphaGo Master究竟是如何依靠單臺TPU完成整場比賽的運算?在比賽過程中AlphaGo Master是否需要AlphaGo Lee的幫助?
另外一方面,Google最終沒有選擇“拋棄”人類,總算說明人類2600年的圍棋歷史并不是毫無沉淀。
還是可以小欣慰一下的。
聯(lián)系客服