在戰(zhàn)勝人類圍棋職業(yè)高手之前,,它經(jīng)過了好幾個月的訓練,,依靠的是多臺機器和48個TPU(谷歌專為加速深層神經(jīng)網(wǎng)絡運算能力而研發(fā)的芯片)。
AlphaGoZero的能力則在這個基礎上有了質的提升。最大的區(qū)別是,,它不再需要人類數(shù)據(jù)。也就是說,它一開始就沒有接觸過人類棋譜。研發(fā)團隊只是讓它自由隨意地在棋盤上下棋,,然后進行自我博弈。值得一提的是,,AlphaGoZero還非?!暗吞肌保挥玫搅艘慌_機器和4個TPU,,極大地節(jié)省了資源,。
AlphaGo Zero強化學習下的自我對弈。
經(jīng)過幾天的訓練,,AlphaGoZero完成了近5百萬盤的自我博弈后,已經(jīng)可以超越人類,,并擊敗了此前所有版本的AlphaGo,。DeepMind團隊在官方博客上稱,Zero用更新后的神經(jīng)網(wǎng)絡和搜索算法重組,,隨著訓練地加深,,系統(tǒng)的表現(xiàn)一點一點地在進步。自我博弈的成績也越來越好,,同時,,神經(jīng)網(wǎng)絡也變得更準確。
AlphaGo Zero習得知識的過程
“這些技術細節(jié)強于此前版本的原因是,,我們不再受到人類知識的限制,,它可以向圍棋領域里最高的選手——AlphaGo自身學習?!? AlphaGo團隊負責人大衛(wèi)?席爾瓦(Dave Sliver)說,。
據(jù)大衛(wèi)?席爾瓦介紹,,AlphaGoZero使用新的強化學習方法,讓自己變成了老師,。系統(tǒng)一開始甚至并不知道什么是圍棋,,只是從單一神經(jīng)網(wǎng)絡開始,通過神經(jīng)網(wǎng)絡強大的搜索算法,,進行了自我對弈,。
隨著自我博弈的增加,神經(jīng)網(wǎng)絡逐漸調整,,提升預測下一步的能力,,最終贏得比賽。更為厲害的是,,隨著訓練的深入,,DeepMind團隊發(fā)現(xiàn),AlphaGoZero還獨立發(fā)現(xiàn)了游戲規(guī)則,,并走出了新策略,,為圍棋這項古老游戲帶來了新的見解。