Nguyen Quoc Huy * and Nguyen Khac Chien

* Corresponding author (nguyenquochuy_toansoanctu@gmail.com)

Abstract

Chess playing is an area of research in artificial intelligence. Traditional programs were built by using Minimax, Alpha-Beta with any heuristic evaluation function based on knowledge of chess players. It is difficult to design a good state evaluation function. Moreover, A traditional tree search is suitable for the games that their branch factor is low. Monte Carlo Tree Search is a novel framework, and very effective in some high branch factors such as Go. The Monte Carlo Tree Search model is combined from Tree search, Reinforcement learning, and Monte Carlo simulation. In our view, we can improve the performance of Monte Carlo Tree Search by studying how to improve the performance of reinforcement learning, or to improve the Monte Carlo simulation. This paper compacts the most efficient way of Monte Carlo Tree Search improvement and shows its efficiency based on the experimental results.
Keywords: Monte Carlo Tree Search, Evaluation Function, Reinforcement Learning, Board Games, Feature Selection

Tóm tắt

Các chương trình đánh cờ là một phần nghiên cứu của ngành Trí tuệ nhân tạo. Các chương trình truyền thống được xây dựng trên cây tìm kiếm Minimax, Alpha-Beta với hàm lượng giá được xây dựng dựa trên tri thức của người chơi cờ. Việc thiết kế một hàm lượng giá trạng thái tốt thường rất khó, hơn nữa các cây tìm kiếm truyền thống chỉ phù hợp với những trò chơi có hệ số phân nhánh thấp. Cây tìm kiếm Monte Carlo là một hướng tiếp cận hiện đại và hiệu quả trên nhiều trò chơi có hệ số phân nhánh cao như cờ Vây. Mô hình cây tìm kiếm Monte Carlo được kết hợp từ Cây tìm kiếm, Học tăng cường và giả lập Monte Carlo. Với cách tiếp cận này, ta có thể cải tiến hiệu suất của cây tìm kiếm Monte Carlo bằng cách tìm hiểu phương pháp cải tiến Học tăng cường và cải tiến giả lập Monte Carlo. Bài báo này nghiên cứu các thành phần chính của cây tìm kiếm Monte Carlo và xác định hướng cải tiến hiệu quả nhất cũng như thực nghiệm đã chứng minh tính hiệu quả.  
Từ khóa: Cây tìm kiếm Monte Carlo, Hàm lượng giá, Học tăng cường, Trò chơi bàn cờ, Chọn lựa đặc trưng

Article Details

References

Browne, C., Powley, Whitehouse, Lucas, Cowling, Tavener, Perez, Samothrakis, Colton (2012), “A survey of Monte Carlo tree search methods”, IEEE transactions on computational intelligence and AI in games 4, pp. 1 – 43.

Buro, M. (2003), “The evolution of strong othello programs”, In: The International Federation for Information Processing, Volume 112. pp. 81 – 88.

Chaslot, G., Fiter, C., Hoock, J.-B., Rimmel, A., and Teytaud, O. (2009), “Adding Expert Knowledge and Exploration in Monte-Carlo Tree Search”, Proceedings of the Twelfth International Advances in Computer Games Conference, pp. 1-13, Pamplona, Spain.

Chaslot, G., Winands, M., Bouzy, B., Uiterwijk, J. W. H. M., and Herik, H. J. van den (2007), “Progressive Strategies for Monte-Carlo Tree Search”, Proceedings of the 10th Joint Conference on Information Sciences (ed.P. Wang), pp. 655–661, Salt Lake City, USA.

Coulom, R. (2007), “Computing elo ratings of move patterns in the game of go”, ICGA Journal 30, pp. 198 – 208.

Gelly, S. and Silver, D. (2007), “Combining Online and Offline Knowledge in UCT”, Proceedings of the 24th International Conference on Machine Learning, pp. 273-280, Corvallis Oregon USA.

http://www.codeproject.com/Articles/4672/Reversi-in-C

https://en.wikipedia.org/wiki/Game_complexity

Huy Nguyen, Kokolo Ikeda, Simon Viennot (2014), “Fast Optimization of the Pattern Shapes in Board Games with Simulated Annealing”, Proceedings of the Sixth International Conference KSE 2014, pp. 325 – 337.

Ikeda, K., Viennot, S. (2013), “Efficiency of static knowledge bias in monte-carlo tree search”, In: Computers and Games 2013.