马尔可夫链模型和隐马尔可夫模型有什么区别?我读过维基百科,但无法理解这些差异。马尔可夫链与隐马尔可夫模型有什么区别?
回答
要举例说明,我将使用自然语言处理的示例。想象一下,你想知道这句话的概率:
我喜欢咖啡
在马尔可夫模型,你可以通过计算估计其概率:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
现在,假设我们想知道这个句子的词性标签,也就是说,如果一个单词是过去式,动词,名词等。
我们没有观察任何sp-of-sp部分eech标签在那句话中,但我们假设他们在那里。因此,我们计算了词性标签序列的概率。在我们的例子中,实际的顺序是:
PRP-VBP-NN
别急!这是一个我们可以应用马尔科夫模型的序列。但是我们把它称为隐藏的,因为从来没有直接观察到部分语音序列。当然,在实践中,我们将计算许多这样的序列,并且我们希望找到最能解释我们观察结果的隐藏序列(例如,我们更可能看到由判定器生成的诸如“the”,“this” DET)标签)
我遇到过的最好的解释是由劳伦斯·R·Rabiner从1989年的论文:http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf
马尔可夫模型是一个状态机状态变化是概率。在隐马尔可夫模型中,你不知道概率,但你知道结果。
例如,当您翻转硬币时,可以获得概率,但是如果看不到翻转并且每个硬币翻转时有人移动五个手指中的一个,则可以采取手指移动并使用隐藏马尔可夫模型来获得硬币翻转的最佳猜测。
由于马特使用的零件的词性标记作为HMM例子,我可以添加一个更多示例:语音识别。几乎所有的大型词汇连续语音识别(LVCSR)系统都是基于HMM的。
“马特的例子”: 我喜欢咖啡
在马尔可夫模型,你可以通过计算估计其概率:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
在隐马尔可夫模型,
比方说,30个不同的人阅读句子“我享受拥抱“,我们必须认识到它。 每个人都会以不同的方式发音这个句子。所以我们不知道这个人是否意味着“拥抱”或“拥抱”。我们只会有实际单词的概率分布。
简言之,隐马尔可夫模型是一种统计马尔可夫模型,其中被建模的系统被假定为具有未观察(隐藏)状态的马尔可夫过程。
- 1. 隐马尔可夫模型
- 2. 为什么在鲍姆韦尔奇算法中使用隐马尔可夫模型与马尔可夫模型
- 3. 用C++隐马尔可夫模型
- 4. 隐马尔可夫模型工具:Jahmm
- 5. 流利NHibernate:模型马尔可夫链
- 6. 隐马尔可夫在PyMC3
- 7. 马尔可夫链矩阵
- 8. 模拟马尔可夫链路1000次
- 9. 用Neo4J模拟马尔可夫链
- 10. 使用隐马尔可夫模型的手势识别
- 11. 隐藏马尔科夫模型阈值
- 12. 水平马尔可夫化
- 13. 如何使未来的预测与隐马尔可夫模型
- 14. 马尔可夫链文本生成
- 15. 关于马尔可夫链的混淆
- 16. 马尔可夫链测试和实现
- 17. MATLAB Basic马尔可夫链实现
- 18. 度马尔可夫链的自由
- 19. 仿真马尔可夫链的
- 20. JavaScript中的图形马尔可夫链
- 21. ř脚本马尔可夫链
- 22. 马尔可夫链和均衡概率
- 23. scipy.sparse马尔可夫链平稳分布?
- 24. J48和马尔可夫链之间的区别
- 25. 隐马尔可夫模型中的计算分布
- 26. R中训练隐马尔可夫模型
- 27. 隐马尔可夫模型的并行前后向算法
- 28. 使用隐马尔可夫模型设计AI mp3播放器
- 29. 隐马尔可夫模型预测下一个观察
- 30. 使用隐马尔可夫模型的手形分析
你应该考虑接受下面得票最多的答案。 – Ron