首页>>人工智能->机器学习—隐马尔科夫模型(1)

机器学习—隐马尔科夫模型(1)

时间:2023-11-30 本站 点击:1

概率图

我们知道机器学习本身就是概率论和数理统计的一个应用方向。那么概率图是将图论引入到概率中,通过图形式来描述随机变量之间的关系,依赖关系从而简化计算。今天我们要说的隐马尔可夫模型就是一个有向概率图模型。

基本要求

这篇文章首先是面向机器学习的爱好者,需要对高等数学、线性代数和概率论与数理统计有一定基础。

会用到那些知识

随机变量

贝叶斯定理

条件概率和联合概率

马尔科夫链

马尔科夫链

在马尔科夫链中,下一个状态只与当前状态有关,而与过去状态无关,也就是无记忆性。例如一辆出租车在下一时刻出现某一个位置的概率只有现在位置有关。

可以从一个状态变到另一个状态,也可以保持当前状态,状态的改变叫做状态转移

接下来我们列一下状态转移矩阵

晴天 阴天 晴天 0.6 0.4 阴天 0.8 0.2

接下来引入观察随机变量,我们无法之间观察到马尔科夫链上状态,而只能观测到由隐含状态决定的变量,例如在下图中,浅蓝色的节点(随机变量)表示观察变量,而橘黄色的节点表示隐含状态。

在上图中,我们观察到 tony 每天在干什么,然后根据 tony 的是外出购物还是在家打扫来判断天气,这里观测 tony 的活动,这是观测变量,而天气的情况是隐含变量。那么图中从晴天引出到购物之间存在概率,这个概率叫做过观测生成概率。

观测状态\天气状态 晴天 阴天 购物 0.6 0.4 清扫 0.3 0.7

隐马尔可夫变量的表示

隐含状态集合和观测值集合

$$ Q = {q_1,q_2,\dots,q_N}\,V = {v_1,v_2,\dots,v_M} $$

其中 Q 是隐含状态的集合,上面隐含状态就是晴天和阴天,那么对于 V 取值为购物和清扫

状态序列和观测状态序列

$$ I = {i_1,i_2,\dots,i_T} \, O = {o_1,o_2,\dots,o_T} $$

状态序列和观测状态序列中下标表示某一个时刻,例如从 1、2 到 T 时刻,马尔科夫链的是离散的随机过程,I 表示每一个时刻状态,其取值为 Q 集合中某一个值,而 O 表示观测序列,每一个观测随机变量用 $o_1$ 来表示随机变量,其取值为 V 集合中某一个观测值

状态转移矩阵

$$ A = [a{ij}]{N \times N} \, a{ij} = P(i{t+1} = q_j|i_t = q_i) $$

用大写字母 A 表示转移矩阵,因为 N 个状态,所以转移矩阵就是 $N \times N$ 大小矩阵,其中 $a_{ij}$ 表示当前状态为 $q_i$ 这里 i 表示状态取值为 $q_i$ 到下一个状态值为 $q_j$ 的概率

生成矩阵

$$ B = [bj(k)]{N \times M} \, bj(k) = P(o{t} = v_k|i_t = q_j) $$

生成概率,其中 b 的下标表示状态值 $q_j$,观测值为 $v_k$ 的概率。

隐含状态初始概率分布

$$ \pi(i) = P(i_1=q_i) $$

HMM 中的 3 个问题

HMM 就可以用来解决 3 个问题

评估问题(Evaluation) 通常已知是观测序列和 HMM 模型的参数 $\lambda = [\pi, A, B]$ 求观测序列的概率

解码(Decoding) 解码就是在给定参数,以及观测序列前提下,求解隐含序列,也就是当我们有观测序列值 $O$ 和参数 $\pi$ 来推测出隐含随机变量序列值 $I$

学习问题 (learning) 在给定观测序列作为已知条件,来求解 HMM 参数,进一步也就是说根据观测序列来求参数 $\pi,A,B$ 分别是状态初始概率,状态转移概率和生成概率。

原文:https://juejin.cn/post/7101658236339634189


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/2547.html