升級(jí)后的神經(jīng)網(wǎng)絡(luò)與搜索網(wǎng)絡(luò)結(jié)合成一個(gè)更強(qiáng)的新版本AlphaGo Zero,如此往復(fù)循環(huán),。每過一輪,,系統(tǒng)的表現(xiàn)就提高了一點(diǎn)點(diǎn),自我對(duì)弈的質(zhì)量也提高了一點(diǎn)點(diǎn),。神經(jīng)網(wǎng)絡(luò)越來越準(zhǔn)確,,AlphaGo Zero的版本也越來越強(qiáng)。
這種技術(shù)比此前所有版本的AlphaGo都更為強(qiáng)大,。這是因?yàn)?,它不再受到人類知識(shí)的限制,而能夠從嬰兒般的白紙狀態(tài),,直接向世界上最強(qiáng)大的棋手——AlphaGo本身學(xué)起,。
AlphaGo Zero相較前代還有幾點(diǎn)明顯的差別:
首先,AlphaGo Zero僅用棋盤上的黑白子作為輸入,,而前代則包括了小部分人工設(shè)計(jì)的特征輸入,。
其次,AlphaGo Zero僅用了單一的神經(jīng)網(wǎng)絡(luò),。在此前的版本中,,AlphaGo用到了“策略網(wǎng)絡(luò)”來選擇下一步棋的走法,以及使用“價(jià)值網(wǎng)絡(luò)”來預(yù)測(cè)每一步棋后的贏家,。而在新的版本中,,這兩個(gè)神經(jīng)網(wǎng)絡(luò)合二為一,從而讓它能得到更高效的訓(xùn)練和評(píng)估,。
第三,AlphaGo Zero并不使用快速,、隨機(jī)的走子方法,。在此前的版本中,,AlphaGo用的是快速走子方法,來預(yù)測(cè)哪個(gè)玩家會(huì)從當(dāng)前的局面中贏得比賽,。相反,,新版本依靠的是其高質(zhì)量的神經(jīng)網(wǎng)絡(luò)來評(píng)估下棋的局勢(shì)。
所有這些差異,,都提高了系統(tǒng)的表現(xiàn),,使其更為普適。不過,,是算法上的變化使得系統(tǒng)更為強(qiáng)大和高效,。
僅僅自我對(duì)弈3天后,AlphaGo Zero就以100:0完勝了此前擊敗世界冠軍李世石的AlphaGo版本,。自我對(duì)弈40天后,,AlphaGo Zero變得更為強(qiáng)大,超過了此前擊敗當(dāng)今第一人柯潔的“大師”版AlphaGo,。
通過數(shù)百萬次自我對(duì)弈,,AlphaGo從零開始掌握了圍棋,在短短幾天內(nèi)就積累起了人類幾千年才有的知識(shí),。AlphaGo Zero也發(fā)現(xiàn)了新的知識(shí),,發(fā)展出打破常規(guī)的策略和新招,與它在對(duì)戰(zhàn)李世石和柯潔時(shí)創(chuàng)造的那些交相輝映,,卻又更勝一籌,。
這些創(chuàng)造性的時(shí)刻給了我們信心:人工智能會(huì)成為人類智慧的增強(qiáng)器,幫助我們解決人類正在面臨的一些嚴(yán)峻挑戰(zhàn) ,。
盡管才剛剛發(fā)展起來,,AlphaGo Zero已經(jīng)走出了通向上述目標(biāo)的關(guān)鍵一步。如果類似的技術(shù)可以應(yīng)用在其他結(jié)構(gòu)性問題,,比如蛋白質(zhì)折疊,、減少能耗和尋找新材料上,就能創(chuàng)造出有益于社會(huì)的突破,。