概率导论(8): 贝叶斯统计推断

Posted by w@hidva.com on August 11, 2024

系列导言, 本文是作者在学习 Dimitri 概率导论的读书笔记, 侧重于记录我当时没有看懂的部分, 以及对书中部分知识点的一些扩展. 非常零散, 不成系统. 对本系列的使用最好是读者也在学习 Dimitri 概率导论并且恰好有某处不太明白, 可以参考着本系列说不定这里就有答案. 本系列文章在写作时参考了互联网上零零散散非常多的资料在此表示感谢!

例 8.3, 略作补充

  • 整个问题对应着什么背景?

设想现在有一个仪器值为随机变量 Θ, 其服从均值为 x0, 方差为 σ02 的正态分布. 现在仪器值固定为常数值 θ0. 之后我们以不同方式对这个仪器值进行测量, 每种测量方式对应着一个随机变量 Xi, 考虑到每种测量方式误差不一样, 即 Xi 方差不会一样, 所以将 Xi 假设为均值为 θ0, 方差为 σi2 正态分布很合理. 每种测量方式的每次测量结果便是 Xi 的一个样本, 由于噪声的存在 Xi=θ0+Wi. 则可以算得

E[Wi]=E[Xi]θ0=0,var(Wi)=var(Xi)=σi2

考虑到独立性也有如下等式成立:

E[Wi]=E[Wi|Θ=θ0],var(Wi)=var(Wi|Θ=θ0)
  • X, Y 独立. 则 E[X|Y]=E[Y],var[X|Y]=var[Y]

证明: var[X|Y]=E[X~(X,y0)2|Y=y0]=E[X~(X,y0)2]=var(X).

  • fX|Θ(x|θ)

解: 由于独立性 fX|Θ(x|θ)=fX(x)=fX1(x1)fXn(x1).

P.S. 这里 X 表示着 n 维向量.

  • 递推推断

当面对 n = N, n = N + 1 时, 我们可以像原文一样从头计算出各自的后验分布. 但自然而言有一个问题, 能否基于 n = N 的结果直接计算 n = N+1 的结果:

n=1,v1=11/σ02+1/σ12n=2,v2=11/σ02+1/σ12+1/σ22

很明显我们可以观察到 v2=11/v1+1/σ22, 而且经过推导这也总是正确的, 同样的 m 也有类似的递推公式.


最大概率后验准则, 略作补充

E[I|X=x0]=1×PI|X=x0(I=1)+0×PI|X=x0(I=0)=PI|X=x0(I=1)=P(g(X)=θ0|X=x0)

这里继续接着例 8.3 的故事讲, θ0 是正确值, x0 是一次测量值, g(X) 是根据测量值作出的对 θ0 的猜测 g(X)=θ0 意味着猜对了!

关于 P(g(X)=θ0|X=x0)P(gMAP(X)=θ0|X=x0), 我之前有点迷惑, 迷惑点在于根据最大准则定义可知 P(g(X)|X=x0)P(gMAP(X)|X=x0). 但是 P(g(X)=θ0|X=x0),P(g(X)|X=x0) 这俩是一回事么? 其实是的啊, P(g(X)|X=x0) 的语义就是在 x=x0θ0=g(X) 的概率啊. 不对感觉不太对, PX|Y(x|y)Y=yX=x 的概率.


8.3 求证 E[(Θθ^)2|X=x0]θ^=E[Θ|x=x0] 时达到最小.

证明: 首先给出条件期望, 条件方差一些性质

E[aX+b|Y]=(aX+b)fX|Y(x|y)dx=aXfX|Y(x|y)dx+bfX|Y(x|y)dx=aE[X|Y]+bvar(X|Y)=E[(XE[X|Y])2|Y]=E[(X2+(E[X|Y])22E[X|Y]X)|Y]=E[(X22E[X|Y]X)|Y]+(E[X|Y])2=E(X2|Y)(E[X|Y])2var(aX+b|Y)=E[(aX+b)2|Y](E[aX+b|Y])2=E[(a2X2+b2+2abX)|Y](aE[X|Y]+b)2=a2E[X2|Y]a2(E[X|Y])2=a2var(X|Y)

利用上述性质可以计算出:

E[(Θθ^)2|X]=var(Θ|X)+(E[Θ|X]θ^)2

P.S. 眼都花了.

8.1.zy1, g,E[(ΘE[Θ|X])2]E[(Θg(X))2]

证明: 首先 E[(Θg(X))2] 意味着什么, 这里 Θ,X 都是随机变量, E[(Θg(X))2] 便是 3.5.3 全期望定理提到的 E[g(X,Y)]. 根据 3.5.3 这里公式可得:

E[h(Θ,X)]=E[h(Θ,X)|X]fX(x)dx

h1(Θ,X)=(ΘE[Θ|X])2,h2(Θ,X)=(Θg(X))2. 有上可得:

E[h1(Θ,X)|X]E[h2(Θ,X)|X],xE[h1(Θ,X)|X]fX(x)E[h2(Θ,X)|X]fX(x),xE[h1(Θ,X)]E[h2(Θ,X)]

P.S. 眼又花了.

8.1.zy5, 对于随机变量 X, var(X)=0 意味着什么?

解: 由切比雪夫不等式, 可知此时 c,P(|xE[X]|c)=0, 即 P(X=E[X])=1. 此时一种情况是 X 为离散分布, 且 P(X=k)=1, 这里 k 为常数, 容易计算 E[X]=k

例子 8.14, 由 8.1.zy5 可知 θ^ 其分布是 P(θ^=k)=1, 这里 k=E[θ^]=E[E[Θ|X]]=E[Θ].


8.3.2, 回到 3.5.3, 如下 x1,,xn 可以视为常数. θ 是变量.

E[Θ|X1=x1,,Xn=xn]=θfΘ|X1Xn(θ|x1,,xn)dθfΘ|X1Xn(θ|x1,,xn)=fΘ,X1Xn(θ,x1,,xn)fX1Xn(x1,,xn)

线性最小均方估计的公式, 略作补充

  • Θ^E[Θ]XE[X]=ρσΘσX, 这意味着当 ρ>0 时, Θ^E[Θ],XE[X] 同号. 反之异号. 这应该量化了图 4.11 例子, 我当时是不太明白 “趋向” 是指啥意思..:

粗略地说,一个正或者负的协方差表示在一个试验中的 XE[X]YE[Y]的值“趋向”有相同或者相反的符号(见图4.11).

  • 均方估计误差为 (1ρ2)σΘ2, 这说明了 |ρ| 越接近 1, 对 X 进行简单的线性估计就可以得到比较低的误差, 即 X,Θ 相关性很强.

  • 有一个问题.

我们这里所求的 a0,b0 满足 E[Θa0Xb0]E[ΘaXb],a,b. 但这是否意味着在 X=x0 条件下 E[Θa0Xb0|X=x0]E[ΘaXb|X=x0] 成立呢? 在 8.1.zy1 中由全期望定理, 由 E[Θa0Xb0|X=x0]E[ΘaXb|X=x0],x0 可得 E[Θa0Xb0]E[ΘaXb]. 这里要探究反过来是否成立呢?

俺不知道.. 这个问题留着吧.


8.4.2 多次观测, 习题 22, 略作补充.

  • 计算 hb, 以 h(a1,a2,b) 为例
h(a1,a2,b)=E[((a1+a21)Θ+(a1W1+a2W2)+b)2]=(a1+a21)2E[Θ2]+a12E[W12]+a22E[W22]+b2+2(a1+a21)bE[Θ]hb=2(a1+a21)E[Θ]+2b

b=E[Θ](1(a1+a2)) 时, hb=0. 这也是为啥在 8.4.1 中选择 b=E[Θ]aE[X]. 在习题 22 条件下 E[X]=E[Θ].

P.S. 我一开始是硬算的, 这之后才得出了 8.1.zy6 结论

8.1.zy6. h(a)=E[g(a,X)], ha=E[ga((a,X))]

证明: 参见 Leibniz integral rule:

h(a)=g(a,X)fX(x)dxha=ag(a,X)fX(x)dx=a(g(a,X)fX(x))dx=a(g(a,X))fX(x)dx

这里对 a 求偏导时, fX(x) 相当于常数.

P.S. 这里确定 a=a0,g(a0,X) 是一个随机变量.

P.S. 不太严谨地将如上行为扩展到多元情况:

h(a,b)=E[g(a,b,X,Y)]ha=E[ag(a,b,X,Y)]
  • E[XiWi]

解: 我一开始认为 E[XiWi]=E[(Θ+Wi)Wi]=E[Θ+Wi]E[Wi]. 即我认为由 3.1.zy4 可得 Θ+Wi,Wi 相互独立, 这其实是不对的! 3.1.zy4 只是说 X, Y 独立时, g(X),h(X) 也独立, 并不是 g(X,Y),h(Y) 独立!!!


8.4.3 其条件均值 E[Θ|X1Xn] 是观测值的线性函数.

解: 回到例子 8.3, 结合 3.3, 3.5.3 可得 E[Θ|X1Xn]=m, 即确实是观测值的线性函数.

8.4.4, 设 h 是双射, X,Y=h(X),y0=h(x0), 求证 E[Θ|Y=y0]=E[Θ|x=x0]

证明: 回到 3.5.3 E[Θ|A]=θfΘ|A(θ)dθ. 而 Y=y0,X=x0 表示着相同事件. 所以可证.