倫敦當(dāng)?shù)貢r(shí)間10月18日18:00(北京時(shí)間19日01:00),,谷歌旗下的DeepMind團(tuán)隊(duì)公布了進(jìn)化后的最強(qiáng)版AlphaGo ,代號(hào)AlphaGo Zero,。
新版本的AlphaGo究竟有多厲害,?打敗李世石的AlphaGo用了3000萬(wàn)盤(pán)比賽作為訓(xùn)練數(shù)據(jù),AlphaGo Zero用了490萬(wàn)盤(pán)比賽數(shù)據(jù),。經(jīng)過(guò)3天的訓(xùn)練,,AlphaGo Zero就以100:0的比分完勝對(duì)陣?yán)钍朗哪前鍭lphaGo。
DeepMind聯(lián)合創(chuàng)始人兼CEO ,、AlphaGo之父戴密斯,?哈薩比斯(Demis Hassabis)和AlphaGo團(tuán)隊(duì)負(fù)責(zé)人大衛(wèi)?席爾瓦(Dave Sliver) 等人同時(shí)在官方博客上發(fā)表文章,,詳解最強(qiáng)版本阿爾法狗是如何煉成的,,與前代有何不同,。
哈薩比斯與學(xué)習(xí)大量人類(lèi)棋譜起步的前代AlphaGo不同,AlphaGo Zero是從“嬰兒般的白紙”開(kāi)始,,通過(guò)3天數(shù)百萬(wàn)盤(pán)自我對(duì)弈,,走完了人類(lèi)千年的圍棋歷史,并探索出了不少橫空出世的招法,。
哈薩比斯等人專(zhuān)文:《AlphaGo Zero:從零開(kāi)始》
席爾瓦在烏鎮(zhèn)人機(jī)峰會(huì)上發(fā)言從語(yǔ)音識(shí)別,、圖像分類(lèi)到基因和藥物研究,人工智能發(fā)展迅速,。這些專(zhuān)家系統(tǒng),,很多是借用海量人類(lèi)經(jīng)驗(yàn)和數(shù)據(jù)開(kāi)發(fā)出來(lái)的。
然而,,在有些特定問(wèn)題上,,人類(lèi)的知識(shí)要么過(guò)于昂貴,要么不靠譜,,要么無(wú)法獲得,。因此,人工智能研究的一個(gè)長(zhǎng)期目標(biāo)就是跳過(guò)這一步,,創(chuàng)造能在最有挑戰(zhàn)性的領(lǐng)域,,不用人類(lèi)輸入就達(dá)到超人水平的算法。我們發(fā)表在《自然》期刊上的最新論文,,展示了實(shí)現(xiàn)該目標(biāo)的關(guān)鍵一步,。
論文介紹了首個(gè)戰(zhàn)勝人類(lèi)圍棋冠軍的電腦程序AlphaGo的最新進(jìn)化版本:AlphaGo Zero。AlphaGo Zero更為強(qiáng)大,,可以一爭(zhēng)史上最強(qiáng)圍棋手,。
AlphaGo的前幾代版本,一開(kāi)始用上千盤(pán)人類(lèi)業(yè)余和專(zhuān)業(yè)棋手的棋譜進(jìn)行訓(xùn)練,,學(xué)習(xí)如何下圍棋,。AlphaGo Zero則跳過(guò)了這個(gè)步驟,自我對(duì)弈學(xué)習(xí)下棋,,完全從亂下開(kāi)始,。用這種方法,它很快超過(guò)了人類(lèi)水平,,對(duì)陣此前戰(zhàn)勝人類(lèi)冠軍李世石的前代AlphaGo取得了100連勝,。
AlphaGo Zero之所以能當(dāng)自己的老師,是用了一種叫
強(qiáng)化學(xué)習(xí)的新模式,。系統(tǒng)從一個(gè)對(duì)圍棋一無(wú)所知的神經(jīng)網(wǎng)絡(luò)開(kāi)始,,將該神經(jīng)網(wǎng)絡(luò)和一個(gè)強(qiáng)力搜索算法結(jié)合,自我對(duì)弈,。在對(duì)弈過(guò)程中,,神經(jīng)網(wǎng)絡(luò)不斷調(diào)整,、升級(jí),預(yù)測(cè)每一步落子和最終的勝利者,。
升級(jí)后的神經(jīng)網(wǎng)絡(luò)與搜索網(wǎng)絡(luò)結(jié)合成一個(gè)更強(qiáng)的新版本AlphaGo Zero,,如此往復(fù)循環(huán)。每過(guò)一輪,,系統(tǒng)的表現(xiàn)就提高了一點(diǎn)點(diǎn),,自我對(duì)弈的質(zhì)量也提高了一點(diǎn)點(diǎn)。神經(jīng)網(wǎng)絡(luò)越來(lái)越準(zhǔn)確,,AlphaGo Zero的版本也越來(lái)越強(qiáng),。
這種技術(shù)比此前所有版本的AlphaGo都更為強(qiáng)大。這是因?yàn)?,它不再受到人?lèi)知識(shí)的限制,而能夠從嬰兒般的白紙狀態(tài),,直接向世界上最強(qiáng)大的棋手——AlphaGo本身學(xué)起,。
AlphaGo Zero相較前代還有幾點(diǎn)明顯的差別:
首先,AlphaGo Zero僅用棋盤(pán)上的黑白子作為輸入,,而前代則包括了小部分人工設(shè)計(jì)的特征輸入,。
其次,AlphaGo Zero僅用了單一的神經(jīng)網(wǎng)絡(luò),。在此前的版本中,,AlphaGo用到了“策略網(wǎng)絡(luò)”來(lái)選擇下一步棋的走法,以及使用“價(jià)值網(wǎng)絡(luò)”來(lái)預(yù)測(cè)每一步棋后的贏家,。而在新的版本中,,這兩個(gè)神經(jīng)網(wǎng)絡(luò)合二為一,從而讓它能得到更高效的訓(xùn)練和評(píng)估,。
第三,,AlphaGo Zero并不使用快速、隨機(jī)的走子方法,。在此前的版本中,,AlphaGo用的是快速走子方法,來(lái)預(yù)測(cè)哪個(gè)玩家會(huì)從當(dāng)前的局面中贏得比賽,。相反,,新版本依靠的是其高質(zhì)量的神經(jīng)網(wǎng)絡(luò)來(lái)評(píng)估下棋的局勢(shì)。
所有這些差異,,都提高了系統(tǒng)的表現(xiàn),,使其更為普適。不過(guò),,是算法上的變化使得系統(tǒng)更為強(qiáng)大和高效,。
僅僅自我對(duì)弈3天后,,AlphaGo Zero就以100:0完勝了此前擊敗世界冠軍李世石的AlphaGo版本。自我對(duì)弈40天后,,AlphaGo Zero變得更為強(qiáng)大,,超過(guò)了此前擊敗當(dāng)今第一人柯潔的“大師”版AlphaGo。
通過(guò)數(shù)百萬(wàn)次自我對(duì)弈,,AlphaGo從零開(kāi)始掌握了圍棋,,在短短幾天內(nèi)就積累起了人類(lèi)幾千年才有的知識(shí)。AlphaGo Zero也發(fā)現(xiàn)了新的知識(shí),,發(fā)展出打破常規(guī)的策略和新招,,與它在對(duì)戰(zhàn)李世石和柯潔時(shí)創(chuàng)造的那些交相輝映,卻又更勝一籌,。
這些創(chuàng)造性的時(shí)刻給了我們信心:人工智能會(huì)成為人類(lèi)智慧的增強(qiáng)器,,幫助我們解決人類(lèi)正在面臨的一些嚴(yán)峻挑戰(zhàn) 。
盡管才剛剛發(fā)展起來(lái),,AlphaGo Zero已經(jīng)走出了通向上述目標(biāo)的關(guān)鍵一步,。如果類(lèi)似的技術(shù)可以應(yīng)用在其他結(jié)構(gòu)性問(wèn)題,比如蛋白質(zhì)折疊,、減少能耗和尋找新材料上,,就能創(chuàng)造出有益于社會(huì)的突破。