2012-05-25 83 views

回答

20

要举例说明,我将使用自然语言处理的示例。想象一下,你想知道这句话的概率:

我喜欢咖啡

在马尔可夫模型,你可以通过计算估计其概率:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

现在,假设我们想知道这个句子的词性标签,也就是说,如果一个单词是过去式,动词,名词等。

我们没有观察任何sp-of-sp部分eech标签在那句话中,但我们假设他们在那里。因此,我们计算了词性标签序列的概率。在我们的例子中,实际的顺序是:

PRP-VBP-NN

别急!这是一个我们可以应用马尔科夫模型的序列。但是我们把它称为隐藏的,因为从来没有直接观察到部分语音序列。当然,在实践中,我们将计算许多这样的序列,并且我们希望找到最能解释我们观察结果的隐藏序列(例如,我们更可能看到由判定器生成的诸如“the”,“this” DET)标签)

我遇到过的最好的解释是由劳伦斯·R·Rabiner从1989年的论文:http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf

3

隐马尔可夫模型是一个双重嵌入随机过程,有两个层次。

上层是马尔可夫过程,各州都不可观察。

实际上,观察是上层马尔可夫状态的概率函数。

不同的马尔可夫状态将具有不同的观察概率函数。

+10

这个答案的安全性应该用引号引用Rabiner的教程。 – Rhubarb

+0

这真的不容易理解。 – goelakash

+0

不是一个明确的答案。在所有。 – Ron

19

马尔可夫模型是一个状态机状态变化是概率。在隐马尔可夫模型中,你不知道概率,但你知道结果。

例如,当您翻转硬币时,可以获得概率,但是如果看不到翻转并且每个硬币翻转时有人移动五个手指中的一个,则可以采取手指移动并使用隐藏马尔可夫模型来获得硬币翻转的最佳猜测。

3

由于马特使用的零件的词性标记作为HMM例子,我可以添加一个更多示例:语音识别。几乎所有的大型词汇连续语音识别(LVCSR)系统都是基于HMM的。

“马特的例子”: 我喜欢咖啡

在马尔可夫模型,你可以通过计算估计其概率:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

在隐马尔可夫模型,

比方说,30个不同的人阅读句子“我享受拥抱“,我们必须认识到它。 每个人都会以不同的方式发音这个句子。所以我们不知道这个人是否意味着“拥抱”或“拥抱”。我们只会有实际单词的概率分布。

简言之,隐马尔可夫模型是一种统计马尔可夫模型,其中被建模的系统被假定为具有未观察(隐藏)状态的马尔可夫过程。