隐马尔可夫模型维特比算法详解

隐马尔可夫模型维特比算法详解

关于隐马尔可夫模型的维特比解码算法网上已有一大批文章介绍,故本文不再介绍。

本文主要是在读《自然语言处理简明教程》和看HanLP 中文人名识别源码过程中,对该算法的一次梳理,以防忘记。

隐马模型有三个问题,其中二个是:

  • 给定HMM模型 (lambda) 和一个观察序列O,确定观察序列O出现的可能性(P(O|lambda))
  • 给定HMM模型(lambda) 和一个观察序列O,确定产生O的最可能的隐藏序列Q

第一个问题用向前算法解决,可参考:隐马尔科夫模型HMM(二)前向后向算法评估观察序列概率

第二个问题用维特比算法解决,可参考:隐马尔科夫模型HMM(四)维特比算法解码隐藏状态序列

下面记录下我对这两个算法的理解。

向前算法

(P(O|lambda))简写成(P(O)),观察状态是由隐藏状态生成的,因此:任何一个可能的隐藏状态(Q=(q_1,q_2,...q_N))以一定的概率生成观察状态O。故:

[P(O)=Sigma_{Q}{P(O,Q)} ]

根据贝叶斯公式:(P(O,Q)=P(O|Q)*P(Q))

所以:(P(O)=Sigma_{Q}{P(O|Q)*P(Q)})

对于一个长度为T的观察序列,书中第518页指出:一共有(N^T)种可能的隐藏状态。将这(N^T)个隐藏状态生成序列O的概率求和,就得到了(P(O)),但这种方法的时间复杂度是指数级的:(O(N^T))

根据隐马尔可夫模型的独立输出假设:

[P(O|Q)=prod_{i=1}^{N}p(o_i|q_i) ]

根据概率论中的链式法则:

[P(Q)=p(q_1,q_2,...,q_N)=p(q_1)*p(q_2|q_1)*p(q_3|q_2,q_1)*...*p(q_{N}|q_{N-1},q_{N-2}...q_1) ]

再根据隐马尔可夫模型的一阶马尔可夫链假设:

[P(Q)=P(q_1,q_2,...,q_N)=p(q_1)*p(q_2|q_1)*p(q_3|q_2,q_1)*...*p(q_{N}|q_{N-1},q_{N-2}...q_1)=p(q_1)*p(q_2|q_1)*p(q_3|q_2)*...p(q_N|q_{N-1}) ]

简化一下,就是:

[P(Q)=prod_{i=1}^{N}p(q_i|q_{i-1}) ]

因此:对于一个特定的隐藏状态(Q^*)

[P(O,Q^*)=P(O|Q^*)*P(Q^*)=prod_{i=1}^{N}p(o_i|q_i) * prod_{i=1}^{N}p(q_i|q_{i-1})=prod_{i=1}^{N}p(q_{i}|q_{i-1})*p(o_i|q_i) ]

这里:(p(q_i|q_{i-1}))就是从隐藏状态(q_{i-1})转移到隐藏状态(q_i)的转移概率;

(p(o_i|q_i))就是隐藏状态(q_i)生成观察状态(o_i) 的 发射概率。

正是根据转移概率和发射概率 定义:(alpha_t(j)),从而采用动态规划的方法来求解:(P(O|lambda))

动态规划方法

定义:(alpha_t(j)=P(o_1,o_2,...o_t, q_t=j|lambda))生成了(t)个观察后,在时刻(t)隐藏状态(q)取值为(j)的概率,用公式表示成:

[alpha_t(j)=sum_{i=1}^{N}alpha_{t-1}(i)*a_{ij}*b_jo(t) ]

这相当于动态规则的状态方程。上面公式中有个(Sigma),在书中第586页的图9.8 解释了 求和符号的意义:

  1. (t-1)时刻的每一个隐藏状态(q(i))的取值概率(alpha_{t-1}(i)) 乘以 从状态i 转移 到 状态j 的概率 再乘以 (t) 时刻状态j 生成 观察状态(o_t)的概率
  2. 对上行中所说的: 每一个求和

对于动态规则,有两个性质:最优子结构和重叠子问题。

(alpha_{t-1}(j))(alpha_{t}(j))的子结构,(alpha_{t-2}(j))(alpha_{t-1}(j))的子结构,因为问题的规模变小了。

重叠子问题:要求解(alpha_{t}(j)),需要求解(alpha_{t-1}(j)),要求解 (alpha_{t-1}(j))需要求解(alpha_{t-2}(j))……

那么(alpha_{t-2}(j))就是求解 (alpha_{t}(j))(alpha_{t-1}(j)) 的一个重叠子问题。

如果在自底向上求解过程中,把这些子问题记录下来:将(alpha_{1}(j))(alpha_{2}(j))……都保存起来,当使用到它们时,直接“查表”,那么计算起来会快很多。关于这种思想,可参考:动态规划之Fib数列类问题应用

书中有向前算法的详细示例。这里不再介绍。

维特比算法

这里的维特比算法和上面的向前算法其实是非常相似的。向前算法是对 (t-1)时刻中的每个[隐藏状态的概率 乘 转移概率 乘 发射概率] 求和;

而维特比算法则是:根据 向前算法 (t-1)时的求和得到 (t)时刻的某个隐藏状态概率,而 (t) 时刻 一共有N个隐藏状态概率,算法选出这 N个隐藏状态中 概率值 最大的那个 隐藏状态。

而求解(t)时刻N个隐藏状态概率的最大值有两种方法:一种方法是暴力法,第587页已经讲了。另一种是动态规划方法,下面记录一下动态规划方法的求解思路。

动态规划

(v_t(j))表示:在 (t-1)时刻的 每个隐藏状态(共有N个) 乘以 转移概率 乘以 发射概率 得到一个结果,取这N个结果的最大值 (这也是最终求得的结果是最优的原因---不是贪心思路)作为 t 时刻 (j) 状态的概率。由于一共有N个隐藏状态,在(t)时刻,需要求解:(v_t(1))(v_t(2))……(v_t(N))

写出动态规划的状态方程如下:

[v_t(j)=max_{i=1}^{N}v_{t-1}(i)a_{ij}b_j(o_t) ]

(t)代表时间,范围为1,2...T,(a_{ij})代表隐藏状态转移矩阵的概率,即从隐藏状态(q_i)转移到(q_j)的概率。(b_j(o_t))代表发射概率,即(t)时刻的隐藏状态(q_j)生成观察状态(o_t)的概率。 具体详细的示例解释参考书上第587页开始的讲解。

下面用代码验证一下理论的正确性:

参考:通用维特比算法实现并针对《自然语言处理简明教程》第9章隐马尔可夫模型介绍,验证了在观察状态 3 1 3 时最佳隐藏状态为 H H H。具体验证代码如下,并加了一些注释。

import static org.hapjin.hanlp.Viterbi.Activity.one;
import static org.hapjin.hanlp.Viterbi.Activity.two;
import static org.hapjin.hanlp.Viterbi.Activity.three;
import static org.hapjin.hanlp.Viterbi.Weather.hot;
import static org.hapjin.hanlp.Viterbi.Weather.cold;

public class Viterbi {

    static enum Weather
    {
        cold,
        hot,
    }

    static enum Activity
    {
        one,
        two,
        three,
    }

    static int[] states = new int[]{cold.ordinal(), hot.ordinal()};
//    static int[] observations = new int[]{one.ordinal(), two.ordinal(),three.ordinal()};
    static int[] observations = new int[]{three.ordinal(), one.ordinal(),three.ordinal()};
    static double[] start_probability = new double[]{0.2, 0.8};
    static double[][] transititon_probability = new double[][]{
            {0.6, 0.4},//cold
            {0.3, 0.7},//hot
    };

    static double[][] emission_probability = new double[][]{
            {0.5, 0.4, 0.1},//cold
            {0.2, 0.4, 0.4},//hot
    };

    public static void main(String[] args)
    {
        int[] result = Viterbi.compute(observations, states, start_probability, transititon_probability, emission_probability);
        for (int r : result)
        {
            System.out.print(Weather.values()[r] + " ");
        }
        System.out.println();
    }

    public static int[] compute(int[] obs, int[] states, double[] start_p, double[][] trans_p, double[][] emit_p)
    {
        //动态规划中保存 当前最优结果, 供后续计算 直接 "查表"
        double[][] V = new double[obs.length][states.length];//v_t(j)

        //保存最优路径
        int[][] path = new int[states.length][obs.length];//[state][t]

        for (int y : states)
        {
            V[0][y] = start_p[y] * emit_p[y][obs[0]];//t=0 (t=0代表起始隐藏状态)
            path[y][0] = y;
        }

        //时间复杂度: (T-1)*N*N=O(T*N^2)
        // T-1
        for (int t = 1; t < obs.length; ++t)
        {
            int[][] newpath = new int[states.length][obs.length];//应该是可以优化一下的.

            //N 个隐藏状态 即:{cold, hot}, N=2
            for (int y : states)
            {
                double prob = -1;
                int state;

                //N
                for (int y0 : states)
                {
                    //             v_{t-1}(i)*a_{ij}*b_j(o_t)
                    double nprob = V[t - 1][y0] * trans_p[y0][y] * emit_p[y][obs[t]];

                    //find max
                    if (nprob > prob)
                    {
                        prob = nprob;
                        state = y0;
                        // 记录t时刻 隐藏状态为y 时的最大概率
                        V[t][y] = prob;//t是第一个for循环参数, y 是第二个for循环参数
                        // 记录路径
                        System.arraycopy(path[state], 0, newpath[y], 0, t);//
                        newpath[y][t] = y;//将t时刻 最佳隐藏状态 y 保存
                    }
                }
            }

            path = newpath;
        }//end outer for

        double prob = -1;
        int state = 0;

        //找出最后那个时刻的 V_T(j) j=1,2...N 的最大值 对应的隐藏状态y
        for (int y : states)
        {
            if (V[obs.length - 1][y] > prob)
            {
                prob = V[obs.length - 1][y];
                state = y;
            }
        }

        return path[state];//根据上面 max{V_T(j)} 求得的y "回溯" 得到 最优路径
    }
}

《自然语言处理简明教程》里面详细介绍了HMM三个问题的求解过程,通俗易懂。

另外想学习一下概率图模型,不知道有没有好的书籍推荐?

参考链接:HanLP中人名识别分析
原文链接:http://www.cnblogs.com/hapjin/p/9033471.html

原文地址:https://www.cnblogs.com/hapjin/p/9033471.html