minimax

    2热度

    2回答

    我正在尝试为我的Python TicTacToe游戏实现一个AI。除了一个单一的情况,一切都会有很大的进展。 我当前的代码: def testLine(line): ''' ' :param line: Liste containing 3 ints ' :return: 1, if all elements of the list == 1 ' -1,

    0热度

    1回答

    我正在尝试编写井字游戏并决定使用MiniMax算法,但我在执行时遇到问题。例如: 在 board = [ "E", "E", "X", "E", "E", "X", "E", "O", "O" ]; 这是AI的回合,函数返回AiMove { score: -10, coordinates: 0 }的最佳举措。我一直在尝试调试很长一段时间,

    1热度

    1回答

    我决定创建一个带有11x11棋盘的Tic Tac Toe游戏,胜利条件是连续(垂直,水平或对角)5格X或O或当棋盘满,即没有可能的移动。 我创建了一个AI对手,它使用minimax算法找到棋盘上的最佳棋步。极大极小(具有α-β修剪)的伪代码如下: function alphabeta(node, depth, α, β, maximizingPlayer) if the game end

    0热度

    1回答

    我一直在尝试在此工作一段时间 - 我试图使用二叉树进行此实现,并使用递归。 对于这项任务,我想获得的所有可能性的列表稔的游戏:到目前为止,我有分裂功能(感谢埃里克Duminal): def split(n): return [[i, n - i] for i in range(1, (n + 1) // 2)] 它返回一个列表的列表,例如:n = 6会返回[[1,5],[2,4]],

    1热度

    2回答

    对不起,图片直接从我的笔记。 我一直在读了极小的树木和alpha数据修剪的最后一天,在我的项目准备了一下。这是c中的奥赛罗的实现。 我看过吨左右,它的资源,我知道它被问了很多。 在我开始评估功能之前,我想充分理解这一点。 在附图中,我无法弄清楚功能Min_Node(pos)和Max_Node(pos)会做什么,任何输入将不胜感激。 如果任何人有我应该去寻找实现这个和奥赛罗对我的评价功能,当任何提示

    0热度

    1回答

    我成功地实现了一个负面的游戏引擎,它运行良好,但具有确定性。这意味着我可以一遍又一遍地重放同一游戏,因为对于给定的位置,游戏引擎每次都会产生相同的最佳移动。这在我的例子中是不需要的,因为我想在编码锦标赛和确定性行为方面与我的算法竞争,对手可以很容易地编写通过对我的程序重播一系列获胜动作而获胜的程序。 我的问题是,使它不那么确定的最有效和最优雅的方法是什么?我可以为我的位置评估添加随机偏移量,但恐怕

    1热度

    1回答

    我试图查看已存在的Tic Tac Toe代码,发现有一个叫做MiniMax的算法,虽然我已经理解它是如何工作的,但我似乎无法使用5 * 5表格为Tic Tac Toe工作。 我对如何做到这一点有了一个想法,但我似乎无法找到一个方法。 我试图在每列4行中检查1列/行/对角线,以便在那里有一个赢,或者如果它是另一个玩家有一个块。但我似乎无法找到如何做到这一点,我在过去的6个小时里一直在努力。 #inc

    0热度

    1回答

    我正在为2048开发一个AI,并且即将应用minimax算法。 但是,2048的搜索树实际上就像一个没有Min角色的Expectiminimax树。我想知道我是否没有Min角色,如何在实践中应用alpha-beta修剪? 如果我不应用alpha-beta修剪在这种情况下,我怎么能减少无用的搜索分支? 任何想法将不胜感激。谢谢。

    -1热度

    2回答

    我试图用minimax算法实现TicTacToe AI。 当轮到AI轮到我时,我打电话给ComputerTurn(它接受棋盘状态,一个跟踪方块是X,O还是空的int整数)。 ComputerTurn然后调用minimax(minimax算法)和win(连续检查3个)。 当我运行脚本时,算法总是决定返回最低法定游戏。 IE,只要左上方的方块(方块0)可用,它将始终返回它。如果这个广场被采用,它将返回

    0热度

    1回答

    我想在一个简单的纸牌游戏中实现一个AI玩家的极小极小算法。然而,通过研究,我很困惑国家评估和启发式法之间的关键区别是什么。 从我所理解的启发式是通过玩家可用的当前信息(例如在国际象棋,棋子和他们的相关位置)来计算的。有了这些信息,他们基于启发式函数得出了一个结论,该函数基本上提供了一个“经验法则”。 状态评估是当前状态的确切值。 但是我不确定为什么两个东西并存,因为我看不出他们彼此之间有多大的不同