概率论与数理统计 - 期中

虽然就要考试了, 但是上半个学期学得实在是有些迷幻. 所以考前复习几乎和预习是一个样的.

Not only god knows, I know, and by the end of this semester, you will know.
Sidney Coleman

一些概念

  • 随机试验
  • 样本空间 Ω\Omega: 把所有的事件都表示出来的一个集合
    于是事件的运算就变成了集合的运算
  • 概率空间 F2Ω,card2Ω=#2Ω=2#Ω\mathcal{F} \subseteq 2^\Omega, \mathrm{card}2^\Omega = \#2^\Omega = 2^{\#\Omega}
    在样本空间 Ω={w1,,wn}\Omega = \{w_1, \dots, w_n\} 上定义 代数 F2Ω\mathcal{F} \subseteq 2^\Omega. 代数中的元素 AFA \in \mathcal{F} 有映射 P:F[0,1],AP(A)P: \mathcal{F} \rightarrow [0, 1], A \mapsto P(A), 于是形成概率空间 (Ω,F,P)(\Omega, \mathcal{F}, P).
  • 随机变量: X:ΩR,ωX(ω)X: \Omega \rightarrow \mathbb{R}, \omega \mapsto X(\omega)
    随机向量: {X1,,Xn}\{X_1, \dots, X_n\}
  • 条件概率 P(AB)=P(AB)P(B),P(A)=P(AB)P(B)P(A \mid B) = \frac{P(A B)}{P(B)}, P(A) = P(A \mid B)P(B)
    • 离散
    • 连续: fXY(xy)=f(x,y)fY(y)f_{X\mid Y}(x\mid y) = \frac{f(x, y)}{f_Y(y)}
  • 期望 EX=PiXi=xf(x)dxEX = \sum P_i X_i = \int_{-\infty}{\infty} x f(x) \mathrm{d}x:
    • E(λX+μY)=λEX+μEYE(\lambda X + \mu Y) = \lambda EX + \mu EY, 线性
    • EX=WXEYiffP(AB)=P(A)P(B)E X = W X \cdot E Y \mathrm{iff} P(A ⋂ B) = P(A)P(B)
  • 条件期望: E(XA)=XiP(XiA)==xf(xA)dxE(X\mid A) = \sum X_i P(X_i \mid A) = \int_{- \infty}{\infty} = x f(x\mid A)dx
    如果 A={Y=y},E(XY=y)=xiP(X=xiY=y)=xfXY(xy)dxA = \{Y = y\}, E(X\mid Y = y)=\sum x_i P(X = x_i \mid Y = y) = \int_{- \infty }{\infty} x f_{X\mid Y}(x\mid y)\mathrm{d}x.
    注意, E(XY)E(X|Y) 不是一个数, 而更像是一个函数: E(XY)(ω)=E(XY=y)1{Y=y}(ω)E(X\mid Y) (ω) = \sum E(X\mid Y=y)\boldsymbol{1}_{\{Y = y\}}(ω)
    • E(E(XY))=EXE(E(X\mid Y)) = E X
    • E(XX)=XE(X \mid X) = X
    • E(h(X)YX)=h(X)E(YX)E(h(X)Y\mid X) = h(X) E(Y\mid X)
    • X,YX, Y 独立, E(XY)=EXE(X\mid Y) = EX
    • E(aX+bYZ)=aE(XZ)+bE(YZ)E(aX+bY\mid Z) = aE(X\mid Z)+bE(Y\mid Z)
    • E(E(XY)Y)=E(XY)E(E(X\mid Y)\mid Y) = E(X\mid Y)
    • E((XE(XY))h(X))=0E((X - E(X\mid Y)) \cdot h(X)) = 0
      (XE(XY))h(X)=Z(X - E(X\mid Y)) \cdot h(X) = Z, 于是计算 E(E(ZY))=EZE(E(Z\mid Y)) = EZ
  • 方差 VarX=E(XEX)2=EX2(EX)2\mathrm{Var} X = E(X-EX)^2 = EX^2 - (EX)^2
  • 协方差 Cov(X,Y)=E[(XEX)(YEY)]=E(XY)(EX)(EY)Cov(X,Y) = E[(X-EX)(Y-EY)] = E(X Y) - (EX)(EY)
  • 全概率公式 (条件概率的推广) P(A)=iP(BEi)P(Ei)P(A) = \sum_i P(B \mid E_i) P(E_i), 其中 EiE_iΩ\Omega 的一个划分.

    一个好的分划就能够简化计算.

  • 贝叶斯公式: P(AB)=ABP(B)P(A \vert B) = \frac{A \bigcap B}{P(B)}
  • 示性函数: 1En=1 if En else 0\mathbb{1}_{E_n} = 1\ \mathrm{if}\ E_n\ \mathrm{else}\ 0
    可以把这个示性函数看作是一个随机变量.
    • 计数: 如果令 Xi=1{i次正面向上}X_i = \mathbb{1}_{\{第i次正面向上\}}, 于是利用 X=XiX = \sum X_i 就能够实现类似于计数的方式来计算得到一个分布.
  • 分布函数: F(X)=P(Xx)F(X) = P(X \leq x)
    • 生存函数: P(X>x)=1F(x)=S(x)P(X>x) = 1-F(x)=S(x)
    • 离散: F(X)=P(X)F(X) = \sum P(X)
    • 连续: F(X)=f(t)dt,f(x)=F(x)F(X) = \int f(t) \mathrm{d}t, f(x) = F’(x) 为概率密度函数
    • 多维随机变量的情况 (随机向量):
      {ω}x=(x1,x2,,xn)\{ω\} \mapsto x = (x_1, x_2, \cdots, x_n), 形成随机向量. 则 F(x,y)=P(Xx,Yy)=0x0yf(x,y)dxdyF(x, y) = P(X \leq x, Y \leq y) = \int_0^x\int_0^y f(x, y)\mathrm{d}x\mathrm{d}y. 其中 f(x,y)f(x, y) 为一个联合分布.
      从联合分布到边缘分布:
      P(Xx)=P(Xx,Y<+)=limyF(x,y)P(X \leq x) = P(X \leq x, Y < + \infty) = lim_{y \rightarrow \infty} F(x, y)
      • 离散: P(X=x)=P(X=x,y)P(X = x) = \sum P(X = x, y)
      • 连续: fX(x)=f(x,y)dyf_X(x) = \int_{-\infty}^{\infty}f(x, y)\mathrm{d}y
  • 独立性 P(AB)=P(A)P(B)A,BP(A \bigcap B) = P(A) P(B) ↔ A, B 独立
    (注: )

  • 概率不等式:
    • Markov 不等式:
    X0,EX<+c>0,P(Xc)EXcX \geq 0, EX < +\infty ⇒ ∀ c > 0, P(X \geq c) \leq \frac{EX}{c}
    • Cebyshev 不等式
    X:EX2<+c>0,P(XEXc)VarXc2X: E|X|^2 < +\infty ⇒ ∀c>0,P(|X-EX|\geq c)\leq \frac{\mathrm{Var}X}{c^2}
  • 中心极限定理: 设 XiX_i 独立同分布 (与 XX 分布相同. ) EX=μ,VarX=σ2(0<σ2<)E X = \mu, \mathrm{Var} X = \sigma^2 (0 < σ^2 < ∞), 令 Sn=X1++XnS_n=X_1 + \cdots + X_n, 则当 nn \rightarrow \infty, SnEXnVatXN(0,1)\frac{S_n - EX}{\sqrt{n \mathrm{Vat}X}} \rightarrow N(0,1)
  • 大数定律 (频率逼近概率):
    • 弱大数定律: 设 X1,X2,,XnX_1, X_2, \cdots, X_n 独立同分布, EX2<+E|X|^2 < +∞, 令 Sn=XiS_n = \sum X_i, 则 ε>0,P(SnnEX>ε)0\forall ε > 0, P(|\frac{S_n}{n} - EX | > ε) \rightarrow 0
    • 强大数定律: SnnEX.\frac{S_n}{n} \rightarrow EX.
  • Story Proof: 分别为左式和右式讲一个故事, 并证明这两个故事是等价的.

随机变量和概率分布和其他

分布 表达式 EXEX VarX\mathrm{Var}X EtXEt^X
伯努利分布 P(X=1)=p,P(X=0)=1pP(X=1)=p,P(X=0)=1-p pp p(1p)p(1-p) pt+(1p)pt+(1-p)
二项分布 P(k)=Cnkpk(1p)nkP(k)=C_n^kp^k(1-p)^{n-k} np(1p)np(1-p) np(1p)np(1-p) (pt+(1p))n(pt+(1-p))^n
泊松分布 eλλkk!\frac{e^{-\lambda}\lambda^k}{k!} λ\lambda λ\lambda Eλ(t1)E^{\lambda(t-1)}
负二项分布 P(k)=Cr+k1r1(1p)kprP(k)=C_{r+k-1}^{r-1}(1-p)^kp^r r(1p)p\frac{r(1-p)}{p} r1pp2r\frac{1-p}{p^2}  
标准正态分布 12πex22\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} 00 11  
\cdots        

(关于随机变量的分布之类的计算, 一般的操作就是难算, 非常的难算. 然后就是各种利用求和关系变来变去… )

Exercise

  • 随机事件

    写出随机事件和样本空间

    星期二男孩问题
    (关于知道的越多越怎么样的问题… 属于是变态问题)

    • 有两个小孩, 一个是男孩, 且在上海出生 (假设某个小孩出生在上海的概率为 130\frac{1}{30}), 那么另外一个也是男孩的概率.

    事件的运算:

    • 证明 P(A1An)=i=1nP(Ai)ii<jnP(AiAj)+1i<jnP(AiAjAk)++(1)n+1P(A1An)P(A_1 \cup \cdots \cup A_n) = \sum_{i = 1}^n P(A_i) - \sum_{i \leq i < j \leq n} P(A_i \cap A_j) + \sum_{1 \leq i < j \leq n} P(A_i \cap A_j \cap A_k) + \cdots + (-1)^{n+1} P(A_1 \cap \cdots \cap A_n)
      就是容斥定理啊.
    • 从数集 {}\{\dots\} 中取一个数, 不能被 kk, 不能被 ll 整除. 这种就是利用上面的容斥定理来计算.
  • 事件的独立性

    • 证明 A,BA, B 独立的充要条件是 P(AB)=P(AB^)P(A \mid B) = P(A \mid \hat{B})
      类似的问法还有很多… 都是在问什么和什么独立的条件. 做的基本思路是这样的: 推导 P(A)P(B)=P(AB)P(A)P(B) = P(A \cap B).
  • 事件分布

    计算事件的分布表 (离散), 计算随机变量的分布函数

  • 一些值的计算
    • 期望
    • 方差
    • 协方差
  • 高端的证明: Story Proof
    需要注意的是, 一般给左边等式找了一个含义之后, 还要给右边等式也找一个, 哪怕再怎么简单的含义. (只是为了说明这是一个 Proof, 仅此而已. )