本文最后更新于:2023年12月4日 上午
Markov状态分类与渐进Markov链
1 状态分类
1.1 可到达
对于两个状态i,j,如果存在正整数n≥1,使得Pij(n)>0,则称从状态i可到达状态j。也就是说Markov链通过n步到达另一个状态的概率大于0。记作i→j。
反之,如果对于∀n≥1,都有Pij(n)=0,则从状态i不可到达状态j,记作i↛j。
可到达可以传递。如果i→k, k→j,则i→j
1.2 相通
如果状态i可到达状态j,状态j也能到达状态i,那么两个状态相通,记作i↔j。
状态相通具有传递性,如果i↔k, k↔j,则i↔j。
1.3 类与闭集
因为相通可以传递,所以只要几个状态相通,那么他们就全部两两相通。这些互相相通的状态我们将其归纳为一个类。此时状态空间就被划分为不同的类。同一类里面的状态都是相通的,不同类之间状态是不相通的。
取集合C是状态空间S的一个子集,如果C内任何一个状态都不能到达C以外的任何状态,则称C是一个闭集。所以,吸收态可以看作是只有一个状态构成的闭集。
2 可约与周期
Markov链的闭集只有整个状态空间S,就称其不可约。否则可约。这个定义等价于整个Markov链只有一个类,此时整个Markov链的所有状态都是相通的,那么这个时候闭集就只有整个状态空间S。
考虑一个这样的Markov链
graph LR
A[1]
B[2]
A --1--->B
B--1--->A
Markov链在运行过程中在状态1和状态2之间来回周期震荡。且满足
P11(n)={1n是偶数0n是奇数
因为Markov链总要用偶数次步数才能返回到原来那个状态。
一般来讲,用d代表步数,如果一个Markov链的状态,必须通过d的整数倍步(d>1)才能返回原来的状态(上述例子中d=2),那么就说这个状态是周期的。这可以看作Markov链在运行过程中总是经过某个步数周期后返回到原来那儿继续运行,周而复始。
对于Markov链,选其中一个状态i,记运行步数为n,我们要找到从i出发返回到原来状态i的步数n,由于Markov链可以存在多条路径返回,我们可构造集合{n;n≥1,Pii(n)>0},如果集合非空,则找到这个步数集合里面的最大公约数,这个数就是这个状态i的周期,记为di。当di=1时称为无周期。
对于前面的例子,返回状态1的步数为{2,4,6,…},最大公约数是2,所以周期是2。如果现在有个状态i,使得Pii(2)>0, Pii(3)>0,也就是可通过两步或三步返回,那么它就不是都通过d的整数倍步返回,2和3的最大公约数是1,那么这个状态就是无周期的。
现在使用数学方法表达之前的定义。
- C是闭集,等价于∀i∈C. j∈/C,有Pij(n)=0。即内部状态任意步数下都不可能转移到外部状态。
- C是闭集,等价于∀i∈C, j∈C∑Pij=1,即只可能转移到内部状态。
- i为吸收态,等价于Pii=1,一步转移只可能转移到自己。
- Markov链不可约,等价于任意两个状态相通,也等价于只有一个类
3 到达时间问题
3.1 首达时间(步数)
我们定义从状态i出发首次到达状态j的时间为首达时间。在数学上,可以这样表示
Tij=defmin{n:X0=i,Xn=j,n≥1}
这意味着我们找到了所有从i到j可能使用的步数,并找到所用的最小的步数,就是首次到达使用的步数。
显然,首达时间是一个随机变量。
3.2 经n步首达概率
我们定义从状态i出发,经n步首次到达状态j的概率是n步首达概率。在数学上表达为
fij(n)=defP{Tij=n∣X0=i}
也就是从0时刻开始,自状态i出发的条件下,经n步首次到达j的概率。
概率的计算是显然的
fij(n)=P{Xn=j,Xn−1=j,Xn−2=j,…,X1=j∣X0=i}
即从i开始,中间步数都没有进入状态j,刚好在n步时到达j
特殊情况下,
fij(1)=Pij=P{X1=j∣X0=i}
也就是一步就从i转移到j了
fij(∞)=P{Xm=j,∀m≥1∣X0=i}
也就是说0时刻从状态i开始,任意之后的步数都不会进入j,这也是为什么无穷步到达中n=∞。
3.3 平均到达时间与平均返回时间
我们定义从状态i出发,到达状态j所需要的平均步数是平均到达时间,记为μij,用数学表达是
μij=defE{Tij∣X0=i}
即利用n步首达概率来求期望,平均所有可能的首次到达时间。具体的计算可考虑离散随机变量的期望,
n=1∑∞nfij(n)
如果i=j,那么就以为着是从i出发又返回到了i,这时μii=defμi是状态i的平均返回时间
3.4 迟早到达概率
从状态i出发经过有限步转移后迟早到达状态j的概率称作迟早到达概率,数学形式为
fij=1≤n<∞∑fij(n)
也就是对所有可能的首次到达概率进行求和,这就会产出迟早会到达的概率。
注意到这也等同于
fij=P{Tij<∞}
这意味着我们不需要无穷多步数来从i到达j,那么从语义上也就是迟早会从i到达j。
另外,概率P{Tij=∞}=deffij(∞)=1−fij,,它表示从i出发,不能经过有限次转移到达j的概率。
同样的,当i=j,即fii,它表达了从状态i出发,迟早会返回i的概率。那么1−fii就是从i出发,再也不返回i的概率。
一些性质与关系
对于∀i,j∈S, 0≤fij(n)≤Pij(n)≤fij≤1, 这个不等式首先告诉我们概率肯定是大于0小于1的,其次从i到j的n步转移概率大于其n步首次到达概率,而迟早到达的概率又大于n步转移概率。这是因为n步首次到达的概率实际上是n步转移概率的子集,因为我们只取了n步转移中首次到达的概率。
对于∀i,j∈S,fij>0⇔i→j,这是显然的,既然迟早从i到达j的概率大于0,那么i就能到达j
对于∀i,j∈S, fij>0,fji>0⇔i↔j。能从i到j,也能从j到i,这就符合相通的定义
对于∀i,j∈S, 设步数1≤n<∞,有
Pij(n)=l=1∑nfij(l)Pjj(n−l)
求和项fij(l)Pjj(n−l)实际上是经l步首次从i到达j的概率乘以从j出发经n−l步回到j的概率。这代表着Markov链先首次从i到达了j,然后剩余的步数从j出发,最终又返回了j,那么实际上就是从i出发到达了j。而求和实际上就是在规定使用n步从i到j的情况下,考虑所有首次到达的概率,以及到了状态j后,剩余步数从j出发回到j的概率(因为我们要保证最终是从i出发到j)。
4 状态定义
接下来使用状态的性质来进行定义。
- 如果一个状态i,它一定会,或者说最终会回到自己,即fii=1,那么状态i就被称作是常返态(Recurrent)
- 如果一个状态i,可能不会回到自己,即fii<1,那么状态i就被称作是非常返态(Transient)。这意味着有概率1−fii会从i出发后再也回不来了。
- 对于一个常返态i,如果其平均可以通过有限步数返回,即μi<+∞,则称状态i是正常返(Positive Recurrent)的。如果其平均上需要无穷的步数返回,即μi=∞,那么状态i是零常返(Null Recurrent)的
- 如果一个状态非周期,且是正常返的,那么它被称作遍历态.
4.1 性质
(1)如果两个状态相通,例如i↔j,那么这两个状态将具有相同特性。这些特性包括常返,非常返,正常返,零常返,周期和非周期。如果是周期的它们的周期还是相同的。
这也被称作类的特性。相通即意味着同一类,那么相通特性相通也就意味着同一类的特性相同。
(2)状态判别
- 对于状态i, 如果n=0∑∞Pii(n)=1−fii1=∞, 那么状态i是常返态,此时fii=1
- 对于状态i, 如果n=0∑∞Pii(n)=1−fii1<∞, 那么状态i是非常返态,此时fii<1
(3)对于一个有限状态的Markov链,以下命题成立
- 没有零常返状态
- 必有正常返状态
- 不可约有限Markov链只有正常返的状态
- 一个不可约,非周期,有限状态的Markov链一定是遍历的(运行时可以历经所有状态)
- 所有非常返状态组成的集合不可能是闭集。
- 状态空间可以分解为S=D∪C1∪C2∪⋯∪Ck, 其中每个Cn, n∈[1,k]都是正常返状态组成的有限不可约闭集,D是非常返态的集合。也就是说,一个状态空间可以分解成一个非常返态集合并上多个正常返态集合。
5 渐进分析
当Markov链长期运行,或者说其转移步数达到一个很大的数值,Markov链会展现出一些独特的性质,这些性质称作长时运行性质(Long-Run). 当运行时间特别长,达到无穷的时候,Markov链展现出的性质又叫做极限性质(Limiting)。渐进分析则探究Markov链的长时运行性质和极限性质。
5.1 平稳分布
当Markov链长期运行的时候,我们定义πj是Markov链在状态j的时间占总运行时间的比例。例如100次运行中,20次在状态0,那么π0=1/5
现在,我们给出它的一个等价的说法,πj也是从状态j出发,向其他状态转移的次数的比例。例如100次转移当中,20次都是从状态j出发的。
从第一个定义我们知道它是总运行时间中,在某个状态j的时间的比例。而Markov链总要向下一个状态转移,那么在状态j的次数(时间),也就成为了从状态j向其他状态转移的次数。
为了避免混淆,我们用πi来表示从状态i出发,向其它状态转移的次数的比例。现在,πiPij就表示了长时运行中,从状态i出发,转移到状态j的次数的比例。
那么以下的关系式就成立
πj=i∑πiPij
将所有可能的出发的状态相加,就得到了所有状态到状态j的次数的比例,也即在长时运行中Markov链在状态j的次数的比例。
现在我们把所有状态的πj写成一个向量,π=[π0,π1,…]
注意到
πj=π0P0j+π1P1j+⋯=[π0,π1,…]×⎣⎢⎢⎡P0jP1j⋮⎦⎥⎥⎤=π×⎣⎢⎢⎡P0jP1j⋮⎦⎥⎥⎤
如果把左边的所有πj也写成向量,就有
[π0,π1,…]=π×⎣⎢⎢⎡P00P10⋮P01P11⋮⋯⋯⎦⎥⎥⎤
即
π=π×P
我们就有了一个矩阵表达形式。现在我们看看向量π,它的每一个元素代表了长时运行中在某个状态的时间的比例。这种比例类似于频数,当运行时间足够长,它就反映着处在某个状态的概率。向量π因此被称为Markov链的平稳分布。
由关系式π=π×P,我们可以递推地得到
π=π×P=π×P×P=π×P2=⋯=π×Pn
对于任意一个状态j,应该有
j∑πj=1
对于任意一个状态j,还满足
πj=μj1
其中μj是状态j的平均返回时间
5.2 极限性质
假设Markov链的一步转移矩阵是
P=[0.70.40.30.6]
可以得到
P4=[0.57490.56680.42510.4332]
如果再算四次幂
P8=[0.5710.5710.4290.429]
随着转移次数增多,我们发现8次转移的概率和4次转移的概率几乎相同,所以概率正在发生收敛。同时,同列的概率是相同的,与行无关。这意味着转移概率Pijn在n→∞时收敛到某个值,并且与i无关,即与出发的状态无关。
这就是Markov链的极限性质,当步数n足够大,Pijn与初始状态i无关,成为了绝对概率分布。
如果Markov链有限,不可约,遍历,那么当n足够大时,还满足
n→∞limP{Xn=j}=Pj(∞)=πj
即绝对概率分布的极限就是平稳分布。
6 吸收问题
现在考虑从一个状态i出发进入某个状态闭集Ck的概率P{Ck∣i}
6.1 吸收概率
Markov链从一个状态i出发,在运行过程中进入某个闭集状态Ck被吸收的概率。
如果出发时的状态i本身就在Ck里面,那么P{Ck∣i}=1,如果出发时的状态i在另一个闭集Cm,m=k,那么P{Ck∣i}=0
现在考虑从非闭集D出发,闭集D满足S=D∪Ck,由C-K方程,取一个中间状态j,由路径i→j→k有
P{Ck∣i}=j∈S∑PijP{Ck∣j}
拆开集合S, 得到
P{Ck∣i}=j∈S∑PijP{Ck∣j}=j∈D∑PijP{Ck∣j}+j∈Ck∑PijP{Ck∣j}
注意到在j∈Ck里,P{Ck∣j}=1, 则有
P{Ck∣i}=j∈S∑PijP{Ck∣j}=j∈D∑PijP{Ck∣j}+j∈Ck∑PijP{Ck∣j}=j∈D∑PijP{Ck∣j}+j∈Ck∑Pij
移动右边第一项得到
P{Ck∣i}−j∈D∑PijP{Ck∣j}=j∈Ck∑Pij
通过解上述求出的线性方程组,可以得到概率P{Ck∣i},称这个概率是Ck的吸收概率。
6.2 吸收时间
Markov链从状态i∈S出发,进入一个闭集,或者说一个常返态类(常返态类一定是个闭集)经过的时间T称为吸收时间。
概率P{T=n∣i}表示从状态i出发,经过n步刚好进入常返态类的概率。如果P{T<∞∣i}表示从i出发迟早进入常返态类的概率,那么其实可以对所有n步进入求和,有如下关系
N→∞limn=0∑NP{T=n∣i}=P{T<∞∣i}
此处极限是因为T不能直接等于∞.
6.3 平均吸收时间
从某个状态i∈D出发,D是非闭集(非常返态),进入闭集(常返态)所需的平均吸收时间也是很重要的。
同样,由C-K方程,考虑一个经n+1步刚好从i进入闭集的概率
P{T=n+1∣i}=j∈S∑PijP{T=n∣j}
两边同时乘以n并做恒等变换
nP{T=n+1∣i}=nj∈S∑PijP{T=n∣j}(n+1)P{T=n+1∣i}−P{T=n+1∣i}=j∈S∑nPijP{T=n∣j}
注意到期望的计算是E[x]=∑xP(x),可看作概率乘变量求和。于是对上式两边同时对n求和,得到
n=0∑∞(n+1)P{T=n+1∣i}−n=0∑∞P{T=n+1∣i}=j∈S∑Pijn=0∑∞nP{T=n∣j}
由期望定义得到
E[T∣i]−n=1∑∞P{T=n∣i}=j∈S∑PijE[T∣j]
如果中间状态j在我们要进入的闭集C里面,那么E[T∣j]=0,因为我们不需要任何步数来进入闭集。
如果分解状态空间S=D∪C,其中D是非闭集,C是闭集,那么方程进一步化为
E[T∣i]−n=1∑∞P{T=n∣i}=j∈D∑PijE[T∣j]
可证明项n=1∑∞P{T=n∣i}=1, 那么
E[T∣i]−j∈D∑E[T∣j]Pij=1
由上述方程可以计算出平均吸收时间E[T∣i].