AlphaGo的前几代版本,一开始都是与人类棋手的棋谱进行上千盘的训练,到了AlphaGo Zero则跳过了这个步骤,通过自我对弈学习下棋。系统从一个对围棋一无所知的神经网络开始,将该神经网络和一个强力搜索算法结合,自我对弈。