hill-climbing

    1热度

    1回答

    这两种算法都会生成随机邻居,如果遇到状态好于当前状态的邻居,则会选择它们。 那么差异在哪里呢? 无处不在,First Choice Hill Climbing适用于许多接班人的情况。但真的,有什么区别? 此外,在链接: Stochastic hill climbing vs first-choice hill climbing algorithms 要提及的是第一选择采第一随机移动和随机拾取被随机

    -1热度

    1回答

    只是不打印与上面的行相同的输出,我无法弄清楚为什么发生这种情况,我注意到它从最后打印最后N个数字,无论我输入什么它会再次打印该参数。 这里的主要 public class main { public static void main(String args[]) { ScalesSolution s1 = new ScalesSolution(11); s1.prin

    1热度

    1回答

    我在爬山算法水壶问题一个问题: 给定两个水罐,其中一个可容纳水和可容纳的水Ÿ升而另一条X升,确定在一个壶中准确获得D升水所需的步骤数。 从开始状态,(X,Y)=(0,0),它可以产生一些州: (X,Y)=(0,Y) 或 (X,Y)=(X,0) 而且从这些状态时,它可以产生其它直到即结束状态是(X,d)或(d,Y)。 那么,我可以估计这个问题的启发函数吗?如何知道哪种状态比其他状态更好? 谢谢大家。

    -3热度

    1回答

    我在7D空间(意思是x =(x1,x2,x3,x4,x5,x6,x7))有以下函数,我想用matlab中的爬山算法找到这个函数的最小点。 我发现this link有用,但我不知道如何在Matlab中实现我的功能。 更新: 我实现下面的代码,但我真的不知道这是否是正确的。 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%% Create a grid of states

    2热度

    2回答

    在我的FUNC,我有: """ Iterates 300 times as attempts, each having an inner-loop to calculate the z of a neighboring point and returns the optimal """ pointList = [] max_p

    1热度

    1回答

    我正在做一个爬山搜索算法,出于某种原因,我应该在循环结束时使用的堆栈似乎被循环生成状态的最后一次迭代覆盖。 基本上,这里是一个什么这个算法做了概要: 正在使用该算法来解决N后问题。所有具有状态类的底层代码都可以很好地工作。使用该算法,它会遍历当前状态的所有可能的后继状态。它将下一个后继状态存储在neighborState变量中(如下面的代码所示)。如果状态成本小于当前成本,则将邻居节点添加新邻居节

    0热度

    2回答

    随机爬山与首选爬山算法有什么区别?

    3热度

    3回答

    我有一个值增加到最大值然后再减少值的列表(它是一个观察到的高斯/钟形分布)。 values = [0, 4, 5, 15, 30, 20, 10, 5, 0]; 但分布也可以转移: values = [0, 0, 0, 1, 2, 3, 8, 15, 30]; 或类似的: values = [30, 20, 5, 2, 1, 1, 0, 0, 0]; 在一个特定的指标判定值是在这个特定

    1热度

    1回答

    有没有一种方法(使用R编程语言)通过使用自定义学习函数(而不是反向传播)来实现ANN算法?我测试过的所有R软件包(nnet,neuralnet,AMORE)似乎都有用于训练权重的学习函数的选项,但它们中没有一个似乎包含插入自定义函数的选项(例如,爬山作为示例)。 我宁愿使用R over另一种语言,所以如果有人知道任何可以帮助的软件包,请告诉我。 谢谢!

    -1热度

    1回答

    我正在学习一本书中的人工智能,这本书模糊地解释了我即将发布在这里的代码,我假设,因为作者假设每个人都经历过爬山算法。这个概念相当简单,但我只是不理解下面的一些代码,我希望有人在继续之前帮助我更清楚地理解这个算法。 我在最让我困惑的部分旁边发表了评论,这些行正在做的事情的总结对我很有帮助。 int HillClimb::CalcNodeDist(Node* A, Node* B) { i