TOTAL WAR : ROME II のAIでモンテカルロ木探索法(MCTS)が採用された。 モンテカルロ木探索は、90年代から囲碁AIに応用されて来た方法であるが、2006年頃に改良され(勝敗だけを取る)、囲碁AIに革命的進歩をもたらした。 その後、理論的基盤やさらなる(プレイアウトにおける)改良が加えられたが、基本的にはとてもシンプルな方法で、選んだ手の評価を、それ以降をランダムにシミュレーションして、良さそうならさらにシミュレーション回数を増やすという方法である。 ゲーム産業も長い間、注目して来て、ウィーンのゲームAI会議や、GDCで、解説講演が何度も開催されて来たが、実用例はなかった。 今回は、プレイヤーの対戦相手として、RTSのプレイをするAIに、MCTSが採用された。ゲームの局面局面で、その時に実行可能なタスクを生成する(task generation)。囲碁の手の代わりに、

