2016-09-19 28 views
1

我期望scikit-learn的DP-GMM允许在给定新数据的情况下在线更新集群分配,但sklearn的DP-GMM实现只有一个合适的方法。DP-GMM和在线集群分配

我对变分推理的理解尚不清楚,我认为在线更新集群分配的能力是sklearn实现的特点,而不是无限GMM的变分推理。

如果有人能够澄清这一点,并指出一个能够在线更新集群分配的实现,我将非常感激!

http://scikit-learn.org/stable/modules/generated/sklearn.mixture.DPGMM.html

回答

0

发布Dawen Liang的解释:

  1. 贝叶斯非参不等于网上学习。这仅仅意味着根据数据确定模型的复杂性,这可能发生在批处理学习环境中(如sklearn的DP-GMM实现)。

  2. 变分推理本质上是一种基于优化的方法,所以您当然可以应用随机优化方法,这就是您可以进行在线学习的能力。对贝叶斯非参数模型应用随机变分分析实际上仍然是一个活跃的研究领域。

Emily Fox's sampler sticky HDP-HMM

John Paisley's group HDP-HMM Matt Hoffman's infinite HMM (perhaps not HDP)

1http://www.stat.washington.edu/~ebfox/software/HDPHMM_HDPSLDS_toolbox.zip