升級后的神經(jīng)網(wǎng)絡(luò)與搜索網(wǎng)絡(luò)結(jié)合成一個(gè)更強(qiáng)的新版本AlphaGo Zero,,如此往復(fù)循環(huán)。每過一輪,,系統(tǒng)的表現(xiàn)就提高了一點(diǎn)點(diǎn),,自我對弈的質(zhì)量也提高了一點(diǎn)點(diǎn),。神經(jīng)網(wǎng)絡(luò)越來越準(zhǔn)確,,AlphaGo Zero的版本也越來越強(qiáng),。
這種技術(shù)比此前所有版本的AlphaGo都更為強(qiáng)大,。這是因?yàn)?,它不再受到人類知識的限制,,而能夠從嬰兒般的白紙狀態(tài),直接向世界上最強(qiáng)大的棋手——AlphaGo本身學(xué)起,。
AlphaGo Zero相較前代還有幾點(diǎn)明顯的差別:
首先,,AlphaGo Zero僅用棋盤上的黑白子作為輸入,而前代則包括了小部分人工設(shè)計(jì)的特征輸入,。
其次,,AlphaGo Zero僅用了單一的神經(jīng)網(wǎng)絡(luò)。在此前的版本中,,AlphaGo用到了“策略網(wǎng)絡(luò)”來選擇下一步棋的走法,,以及使用“價(jià)值網(wǎng)絡(luò)”來預(yù)測每一步棋后的贏家。而在新的版本中,,這兩個(gè)神經(jīng)網(wǎng)絡(luò)合二為一,,從而讓它能得到更高效的訓(xùn)練和評估。
第三,,AlphaGo Zero并不使用快速,、隨機(jī)的走子方法,。在此前的版本中,AlphaGo用的是快速走子方法,,來預(yù)測哪個(gè)玩家會從當(dāng)前的局面中贏得比賽,。相反,新版本依靠的是其高質(zhì)量的神經(jīng)網(wǎng)絡(luò)來評估下棋的局勢,。
所有這些差異,,都提高了系統(tǒng)的表現(xiàn),使其更為普適,。不過,是算法上的變化使得系統(tǒng)更為強(qiáng)大和高效,。
僅僅自我對弈3天后,,AlphaGo Zero就以100:0完勝了此前擊敗世界冠軍李世石的AlphaGo版本。自我對弈40天后,,AlphaGo Zero變得更為強(qiáng)大,,超過了此前擊敗當(dāng)今第一人柯潔的“大師”版AlphaGo。
通過數(shù)百萬次自我對弈,,AlphaGo從零開始掌握了圍棋,,在短短幾天內(nèi)就積累起了人類幾千年才有的知識。AlphaGo Zero也發(fā)現(xiàn)了新的知識,,發(fā)展出打破常規(guī)的策略和新招,,與它在對戰(zhàn)李世石和柯潔時(shí)創(chuàng)造的那些交相輝映,卻又更勝一籌,。
這些創(chuàng)造性的時(shí)刻給了我們信心:人工智能會成為人類智慧的增強(qiáng)器,,幫助我們解決人類正在面臨的一些嚴(yán)峻挑戰(zhàn) 。
盡管才剛剛發(fā)展起來,,AlphaGo Zero已經(jīng)走出了通向上述目標(biāo)的關(guān)鍵一步,。如果類似的技術(shù)可以應(yīng)用在其他結(jié)構(gòu)性問題,比如蛋白質(zhì)折疊,、減少能耗和尋找新材料上,,就能創(chuàng)造出有益于社會的突破。