我正在用EM编程GMM。我遇到以下问题。正如你将在this website中看到的那样,有一个参数“pi”,换句话说就是权重或概率值。GMM中的权重参数和期望最大化
我的问题是如何计算?或者它在真实编码中被忽略了吗?
我正在用EM编程GMM。我遇到以下问题。正如你将在this website中看到的那样,有一个参数“pi”,换句话说就是权重或概率值。GMM中的权重参数和期望最大化
我的问题是如何计算?或者它在真实编码中被忽略了吗?
pi_k是第k个高斯的混合系数。你绝对不能忽视它。 pi_k的最大似然估计量是您实例的第k个指标变量的均值。您引用的页面将调用这些指标\ alpha_ik。
正如您可能已经阅读过的,EM的每次迭代都有两个步骤。期望步骤和最大化步骤。在每个期望步骤中,我们对每个训练样本属于每个群集的概念有了越来越精确的概念。使用这个估计,在最大化步骤中,我们计算使可能性最大化的GMM的参数。 pi_k是最大化步骤中由此计算的参数之一。因此每次迭代都会重新评估pi_k。
使用EM的OpenCV的实现中,如果“em_model”是你的EM模型,如果经过训练,
Mat weights = em_model.get<Mat>("weights");
会给你pi_k的值。