升級(jí)后的神經(jīng)網(wǎng)絡(luò)與搜索網(wǎng)絡(luò)結(jié)合成一個(gè)更強(qiáng)的新版本AlphaGo Zero,,如此往復(fù)循環(huán)。每過一輪,,系統(tǒng)的表現(xiàn)就提高了一點(diǎn)點(diǎn),,自我對(duì)弈的質(zhì)量也提高了一點(diǎn)點(diǎn)。神經(jīng)網(wǎng)絡(luò)越來越準(zhǔn)確,,AlphaGo Zero的版本也越來越強(qiáng),。
這種技術(shù)比此前所有版本的AlphaGo都更為強(qiáng)大。這是因?yàn)?,它不再受到人類知識(shí)的限制,而能夠從嬰兒般的白紙狀態(tài),,直接向世界上最強(qiáng)大的棋手——AlphaGo本身學(xué)起,。
AlphaGo Zero相較前代還有幾點(diǎn)明顯的差別:
首先,AlphaGo Zero僅用棋盤上的黑白子作為輸入,,而前代則包括了小部分人工設(shè)計(jì)的特征輸入,。
其次,AlphaGo Zero僅用了單一的神經(jīng)網(wǎng)絡(luò),。在此前的版本中,,AlphaGo用到了“策略網(wǎng)絡(luò)”來選擇下一步棋的走法,以及使用“價(jià)值網(wǎng)絡(luò)”來預(yù)測(cè)每一步棋后的贏家。而在新的版本中,,這兩個(gè)神經(jīng)網(wǎng)絡(luò)合二為一,,從而讓它能得到更高效的訓(xùn)練和評(píng)估。
第三,,AlphaGo Zero并不使用快速,、隨機(jī)的走子方法。在此前的版本中,,AlphaGo用的是快速走子方法,,來預(yù)測(cè)哪個(gè)玩家會(huì)從當(dāng)前的局面中贏得比賽。相反,,新版本依靠的是其高質(zhì)量的神經(jīng)網(wǎng)絡(luò)來評(píng)估下棋的局勢(shì),。
所有這些差異,都提高了系統(tǒng)的表現(xiàn),,使其更為普適,。不過,是算法上的變化使得系統(tǒng)更為強(qiáng)大和高效,。
僅僅自我對(duì)弈3天后,,AlphaGo Zero就以100:0完勝了此前擊敗世界冠軍李世石的AlphaGo版本。自我對(duì)弈40天后,,AlphaGo Zero變得更為強(qiáng)大,,超過了此前擊敗當(dāng)今第一人柯潔的“大師”版AlphaGo。
通過數(shù)百萬(wàn)次自我對(duì)弈,,AlphaGo從零開始掌握了圍棋,,在短短幾天內(nèi)就積累起了人類幾千年才有的知識(shí)。AlphaGo Zero也發(fā)現(xiàn)了新的知識(shí),,發(fā)展出打破常規(guī)的策略和新招,,與它在對(duì)戰(zhàn)李世石和柯潔時(shí)創(chuàng)造的那些交相輝映,卻又更勝一籌,。
這些創(chuàng)造性的時(shí)刻給了我們信心:人工智能會(huì)成為人類智慧的增強(qiáng)器,,幫助我們解決人類正在面臨的一些嚴(yán)峻挑戰(zhàn) 。
盡管才剛剛發(fā)展起來,,AlphaGo Zero已經(jīng)走出了通向上述目標(biāo)的關(guān)鍵一步,。如果類似的技術(shù)可以應(yīng)用在其他結(jié)構(gòu)性問題,比如蛋白質(zhì)折疊,、減少能耗和尋找新材料上,,就能創(chuàng)造出有益于社會(huì)的突破。