常用分布的数学期望、方差、特征函数
文章目录
- 相关教程
- 相关文献
- 常用分布的数学期望&方差&特征函数
- 定义
- 事件域
- 概率
- 条件概率
- 随机变量
- 分布函数
- 连续随机变量的概率密度函数
- 数学期望
- 离散随机变量
- 连续随机变量
- 方差与标准差
- 最大似然估计
- 特征函数
- 不等式
- Chebyshev(切比雪夫)不等式
作者:小猪快跑
基础数学&计算数学,从事优化领域7年+,主要研究方向:MIP求解器、整数规划、随机规划、智能优化算法
常用离散分布(二项分布、泊松分布、超几何分布、几何分布与负二项分布)与连续分布(正态分布、均匀分布、指数分布、伽马分布、贝塔分布、t分布、F分布、拉普拉斯分布、卡方分布、韦伯分布)的数学期望、方差、特征函数
如有错误,欢迎指正。如有更好的算法,也欢迎交流!!!——@小猪快跑
相关教程
- 常用分布的数学期望、方差、特征函数
- 【推导过程】常用离散分布的数学期望、方差、特征函数
- 【推导过程】常用连续分布的数学期望、方差、特征函数
- 【机器学习】【通俗版】EM算法(待更新)
相关文献
- [1]茆诗松,周纪芗.概率论与数理统计 (第二版)[M].中国统计出版社,2000.
常用分布的数学期望&方差&特征函数
分布名称 | 概率分布或密度函数 p ( x ) p(x) p(x) | 数学期望 | 方差 | 特征函数 |
---|---|---|---|---|
单点分布 | p c = 1 \begin{array}{c}{p_{c}=1}\end{array} pc=1 ( c c c 为常数) | c c c | 0 0 0 | e i c t e^{ict} eict |
0 − 1 0-1 0−1分布 | p 0 = 1 − p , p 1 = p ( 0 < p < 1 ) \begin{array}{c} p_{0}=1-p,p_{1}=p\\ (0<p<1)\end{array} p0=1−p,p1=p(0<p<1) | p p p | p ( 1 − p ) p(1-p) p(1−p) | 1 − p + p e i t 1-p+pe^{it} 1−p+peit |
二项分布 b ( n , p ) b(n,p) b(n,p) | p k = ( n k ) p k ( 1 − p ) n − k k = 0 , 1 , 2 , ⋯ , n ( 0 < p < 1 ) p_{k}=\binom{n}{k}p^{k}(1-p)^{n-k}\\k=0,1,2,\cdots,n\\(0<p<1) pk=(kn)pk(1−p)n−kk=0,1,2,⋯,n(0<p<1) | n p np np | n p ( 1 − p ) np(1-p) np(1−p) | ( 1 − p + p e i t ) n (1-p+pe^{it})^{n} (1−p+peit)n |
泊松分布 P ( λ ) P(\lambda) P(λ) | p k = λ k k ! e − k k = 0 , 1 , 2 , ⋯ ; ( λ > 0 ) p_{k}=\frac{\lambda^{k}}{k!}e^{-k}\\k=0,1,2,\cdots;(\lambda>0) pk=k!λke−kk=0,1,2,⋯;(λ>0) | λ \lambda λ | λ \lambda λ | e λ ( e i t − 1 ) e^{\lambda(e^{it}-1)} eλ(eit−1) |
超几何分布 h ( n , N , M ) h(n,N,M) h(n,N,M) | p k = ( M k ) ( N − M n − k ) ( N n ) M ⩽ N , n ⩽ N , M , N , n 正整数, k = 0 , 1 , 2 , ⋯ , min ( M , N ) p_{k}=\frac{\displaystyle\binom{M}{k}\binom{N-M}{n-k}}{\displaystyle\binom{N}{n}}\\M\leqslant N,n\leqslant N,M,N,n\text{ 正整数,}\\k=0,1,2,\cdots,\min(M,N) pk=(nN)(kM)(n−kN−M)M⩽N,n⩽N,M,N,n 正整数,k=0,1,2,⋯,min(M,N) | n M N n\displaystyle\frac MN nNM | n M N ( 1 − M N ) N − n N − 1 \displaystyle\frac{nM}N(1-\frac MN)\frac{N-n}{N-1} NnM(1−NM)N−1N−n | ∑ k = 0 n ( M k ) ( N − M n − k ) ( N n ) e i t k \displaystyle\sum_{k=0}^n\frac{\displaystyle\binom Mk\binom{N-M}{n-k}}{\displaystyle\binom Nn}e^{itk} k=0∑n(nN)(kM)(n−kN−M)eitk |
几何分布 G e ( p ) Ge(p) Ge(p) | p k = ( 1 − p ) k − 1 p k = 1 , 2 , ⋯ ( 0 < p < 1 ) p_{k}=(1-p)^{k-1}p\\k=1,2,\cdots\\(0<p<1) pk=(1−p)k−1pk=1,2,⋯(0<p<1) | 1 p \displaystyle\frac1p p1 | 1 − p p 2 \displaystyle\frac{1-p}{p^2} p21−p | p e i t 1 − ( 1 − p ) e i t \displaystyle\frac{pe^{it}}{1-(1-p)e^{it}} 1−(1−p)eitpeit |
负二项分布 帕斯卡分布 N b ( r , p ) Nb(r,p) Nb(r,p) | p k = ( k − 1 r − 1 ) ( 1 − p ) k − r p r r 正整数 , k = r , r + 1 , ⋯ ( 0 < p < 1 ) \begin{gathered}p_{k}={\binom{k-1}{r-1}}(1-p)^{k-r}p^{r} \\r正整数,k=r,r+1,\cdots \\(0<p<1) \end{gathered} pk=(r−1k−1)(1−p)k−rprr正整数,k=r,r+1,⋯(0<p<1) | r p \displaystyle\frac rp pr | r ( 1 − p ) p 2 \displaystyle\frac{r(1-p)}{p^2} p2r(1−p) | ( p e i t 1 − ( 1 − p ) e i t ) r \left(\displaystyle\frac{pe^{it}}{1-(1-p)e^{it}}\right)^r (1−(1−p)eitpeit)r |
正态分布 高斯分布 N ( μ , σ 2 ) N(\mu,\sigma^2) N(μ,σ2) | p ( x ) = 1 2 π σ e − ( x − a ) 2 2 σ 2 − ∞ < x < + ∞ ( σ > 0 , a 常数 ) p(x)=\frac{1}{\sqrt{2\pi\sigma}}e^{-\frac{(x-a)^{2}}{2\sigma^{2}}}\\-\infty<x<+\infty\\(\sigma>0,a\text{常数}) p(x)=2πσ1e−2σ2(x−a)2−∞<x<+∞(σ>0,a常数) | μ \mu μ | σ 2 \sigma^2 σ2 | e i a t − 1 2 σ 2 t 2 e^{iat-\frac{1}{2}\sigma^{2}t^{2}} eiat−21σ2t2 |
均匀分布 U ( a , b ) U(a,b) U(a,b) | p ( x ) = { 1 b − a , x ∈ ( a , b ) 0 , 其他 ( a < b , 常数) p(x)=\begin{cases}\displaystyle\frac{1}{b-a}, x{\in}(a,b)\\0,\quad\text{其他}\end{cases}\\(a<b,\text{常数)} p(x)=⎩ ⎨ ⎧b−a1,x∈(a,b)0,其他(a<b,常数) | a + b 2 \displaystyle\frac{a+b}2 2a+b | ( b − a ) 2 12 \displaystyle\frac{(b-a)^2}{12} 12(b−a)2 | e i t b − e i t a i t ( b − a ) \displaystyle\frac{e^{itb}-e^{ita}}{it(b-a)} it(b−a)eitb−eita |
指数分布 E x p ( λ ) Exp(\lambda) Exp(λ) | p ( x ) = { 0 , x < 0 λ e − λ x x ⩾ 0 ( λ > 0 , 常数 ) p(x)=\begin{cases}0,&x<0\\\lambda e^{-\lambda x}&x\geqslant0\end{cases}\\(\lambda>0,\text{常数}) p(x)={0,λe−λxx<0x⩾0(λ>0,常数) | 1 λ \displaystyle\frac1{\lambda} λ1 | 1 λ 2 \displaystyle\frac1{\lambda^2} λ21 | ( 1 − i t λ ) − 1 \displaystyle\left(1-\frac{it}{\lambda}\right)^{-1} (1−λit)−1 |
伽马分布 G a ( α , λ ) Ga(\alpha,\lambda) Ga(α,λ) | p ( x ) = { 0 , x < 0 λ r Γ ( r ) x r − 1 e − λ x , x ⩾ 0 ( r > 0 , λ > 0 , 常数 ) p(x)=\begin{cases}0,&x<0\\\displaystyle\frac{\lambda^r}{\Gamma(r)}x^{r-1}e^{-\lambda x},&x\geqslant0\end{cases}\\(r>0,\lambda>0,\text{常数}) p(x)=⎩ ⎨ ⎧0,Γ(r)λrxr−1e−λx,x<0x⩾0(r>0,λ>0,常数) | r λ \displaystyle\frac r\lambda λr | r λ 2 \displaystyle\frac r{\lambda^2} λ2r | ( 1 − i t λ ) − r \left(1-\displaystyle\frac{it}{\lambda}\right)^{-r} (1−λit)−r |
χ 2 ( n ) \chi^2(n) χ2(n)分布 | p ( x ) = { 0 , x < 0 1 2 n / 2 Γ ( n 2 ) ⋅ x n 2 − 1 e − x 2 , x ⩾ 0 (n正整数) p(x)=\begin{cases}0,&x<0\\\displaystyle\frac{1}{2^{n/2}\Gamma\left(\frac{n}{2}\right)}\cdot x^{\frac{n}{2}-1}e^{-\frac{x}{2}},&x\geqslant0\end{cases}\\\text{(n正整数)} p(x)=⎩ ⎨ ⎧0,2n/2Γ(2n)1⋅x2n−1e−2x,x<0x⩾0(n正整数) | n n n | 2 n 2n 2n | ( 1 − 2 i t ) − n 2 (1-2it)^{-\frac{n}{2}} (1−2it)−2n |
贝塔分布 B e ( a , b ) Be(a,b) Be(a,b) | p ( x ) = { 0 , 其他 Γ ( p + q ) Γ ( p ) ⋅ Γ ( q ) x p − 1 ( 1 − x ) q − 1 , 0 < x < 1 ( p > 0 , q > 0 常数 ) p(x)=\begin{cases}0,\quad &其他\\\displaystyle\frac{\Gamma(p+q)}{\Gamma(p)\cdot\Gamma(q)}x^{p-1}(1-x)^{q-1},&0<x<1\end{cases}\\(p>0,q>0\text{ 常数}) p(x)=⎩ ⎨ ⎧0,Γ(p)⋅Γ(q)Γ(p+q)xp−1(1−x)q−1,其他0<x<1(p>0,q>0 常数) | p p + q \displaystyle\frac p{p+q} p+qp | p q ( p + q ) 2 ( p + q + 1 ) \displaystyle\frac{pq}{(p+q)^2(p+q+1)} (p+q)2(p+q+1)pq | |
对数正态分布 L N ( μ , σ 2 ) LN(\mu,\sigma^2) LN(μ,σ2) | p ( x ) = { 0 , x ⩽ 0 1 σ x 2 π e − ( ln x − a ) 2 2 σ 2 , x > 0 ( σ > 0 , a 常数 ) p(x)=\begin{cases}\quad0,&x\leqslant0\\\displaystyle\frac{1}{\sigma x \sqrt{2\pi}}e^{-\frac{(\ln x-a)^{2}}{2\sigma^{2}}},&x>0\end{cases}\\(\sigma>0,a\text{常数}) p(x)=⎩ ⎨ ⎧0,σx2π1e−2σ2(lnx−a)2,x⩽0x>0(σ>0,a常数) | e μ + σ 2 / 2 \mathrm{e}^{\mu+\sigma^2/2} eμ+σ2/2 | e 2 μ + σ 2 ( e σ 2 − 1 ) \mathrm{e}^{2\mu+\sigma^2}(\mathrm{~e}^{\sigma^2}-1) e2μ+σ2( eσ2−1) | |
柯西分布 C a u ( μ , λ ) \mathrm{Cau}(\mu,\lambda) Cau(μ,λ) | p ( x ) = 1 π ⋅ λ λ 2 + ( x − μ ) 2 − ∞ < x < + ∞ ( λ > 0 , μ 常数 ) p(x)=\displaystyle\frac{1}{\pi}\cdot\frac{\lambda}{\lambda^{2}+(x-\mu)^{2}}\\-\infty<x<+\infty\\(\lambda>0,\mu\text{常数}) p(x)=π1⋅λ2+(x−μ)2λ−∞<x<+∞(λ>0,μ常数) | 不存在 | 不存在 | e i μ t − λ ∣ t ∣ e^{i\mu t-\lambda\lvert t\rvert} eiμt−λ∣t∣ |
韦伯分布 | p ( x ) = { 0 , x ⩽ 0 a λ x a − 1 e − λ x a , x > 0 ( λ > 0 , a > 0 , 常数 ) p(x)=\begin{cases}0,&x\leqslant0\\\\a\lambda x^{a-1}e^{-\lambda x^{a}},&x>0\end{cases}\\(\lambda>0,a>0,\text{常数}) p(x)=⎩ ⎨ ⎧0,aλxa−1e−λxa,x⩽0x>0(λ>0,a>0,常数) | Γ ( 1 a + 1 ) λ − 1 a \Gamma\left(\displaystyle\frac{1}{a}+1\right)\lambda^{-\frac{1}{a}} Γ(a1+1)λ−a1 | λ − 2 α [ Γ ( 2 a + 1 ) − Γ 2 ( 1 a + 1 ) ] \lambda^{-\frac{2}{\alpha}}\Big[\displaystyle\Gamma\left(\frac{2}{a}+1\right)\\-\Gamma^2\left(\frac{1}{a}+1\right)\Big] λ−α2[Γ(a2+1)−Γ2(a1+1)] | |
t t t分布 | p ( x ) = Γ ( n + 1 2 ) n π Γ ( n 2 ) ( 1 + x 2 n ) − n + 1 2 − ∞ < x < + ∞ ( n 正整数 ) p(x)=\displaystyle\frac{\Gamma\left(\frac{n+1}{2}\right)}{\sqrt{n\pi}\Gamma\left(\frac{n}{2}\right)}\left(1+\frac{x^{2}}{n}\right)^{-\frac{n+1}{2}}\\-\infty<x<+\infty(n\text{ 正整数}) p(x)=nπΓ(2n)Γ(2n+1)(1+nx2)−2n+1−∞<x<+∞(n 正整数) | 0 ( n > 1 ) 0\\(n>1) 0(n>1) | n n − 2 ( n > 2 ) \displaystyle\frac{n}{n-2}\\(n>2) n−2n(n>2) | |
F F F分布 | p ( x ) = { 0 , x < 0 Γ ( n 1 + n 2 2 ) Γ ( n 1 2 ) Γ ( n 2 2 ) n 1 n 1 2 n 2 n 2 2 x n 1 2 − 1 ( n 1 x + n 2 ) n 1 + n 2 2 , x ⩾ 0 ( n 1 , n 2 正整数) p(x)=\begin{cases}0,&x<0\\\displaystyle\frac{\Gamma\left(\frac{n_{1}+n_{2}}{2}\right)}{\Gamma\left(\frac{n_{1}}{2}\right)\Gamma\left(\frac{n_{2}}{2}\right)}\frac{n_1^{\frac{n_1}{2}} n_2^{\frac{n_2}{2}} x^{\frac{n_{1}}{2}-1}}{(n_{1}x+n_{2})^{\frac{n_{1}+n_{2}}{2}}},&x\geqslant0\end{cases}\\(n_{1},n_{2}\text{ 正整数)} p(x)=⎩ ⎨ ⎧0,Γ(2n1)Γ(2n2)Γ(2n1+n2)(n1x+n2)2n1+n2n12n1n22n2x2n1−1,x<0x⩾0(n1,n2 正整数) | n 2 n 2 − 2 ( n 2 > 2 ) \displaystyle\frac{n_{2}}{n_{2}-2}\\(n_{2}>2) n2−2n2(n2>2) | 2 n 2 2 ( n 1 + n 2 − 2 ) n 1 ( n 2 − 2 ) 2 ( n 2 − 4 ) ( n 2 > 4 ) \displaystyle\frac{2n_{2}^{2}(n_{1}+n_{2}-2)}{n_{1}(n_{2}-2)^{2}(n_{2}-4)}\\(n_{2}>4) n1(n2−2)2(n2−4)2n22(n1+n2−2)(n2>4) | |
拉普拉斯分布 | p ( x ) = 1 2 λ e − ∣ x − μ ∣ λ − ∞ < x < + ∞ ( λ > 0 , μ 常数 ) p(x)=\frac{1}{2\lambda}e^{-\frac{\lvert x-\mu\rvert}{\lambda}}\\-\infty<x<+\infty\\(\lambda>0,\mu\text{常数}) p(x)=2λ1e−λ∣x−μ∣−∞<x<+∞(λ>0,μ常数) | μ \mu μ | 2 λ 2 2\lambda^2 2λ2 | e i μ t 1 + λ 2 t 2 \displaystyle\frac{e^{i\mu t}}{1+\lambda^2t^2} 1+λ2t2eiμt |
定义
事件域
设 Ω \Omega Ω 为一样本空间, F \mathscr{F} F 为 Ω \Omega Ω 的某些子集所组成的集合类,如果 F \mathscr{F} F 满足:
- Ω ∈ F \Omega \in \mathscr{F} Ω∈F
- 若 A ∈ F A \in \mathscr{F} A∈F,则对立事件 A ‾ ∈ F \overline{A} \in \mathscr{F} A∈F
- 若 A n ∈ F A _n \in \mathscr{F} An∈F, 1 , 2 , … 1,2,\dotsc 1,2,…,则可列并 ⋃ n = 1 + ∞ A n ∈ F \bigcup _{n=1} ^{+\infty} A _n \in \mathscr{F} ⋃n=1+∞An∈F
则称 F \mathscr{F} F 为一个事件域,又称为 σ \sigma σ 代数。
在概率论中,又称 ( Ω , F ) (\Omega, \mathscr{F}) (Ω,F) 为可测空间,这里“可测”是指 F \mathscr{F} F 中都是有概率可言的事件。
概率
设 Ω \Omega Ω 为一个样本空间, F \mathscr{F} F 为 Ω \Omega Ω 的某些子集组成的一个事件域。如果对任一事件 A ∈ F A \in \mathscr{F} A∈F,定义在 F \mathscr{F} F 上的一个实值函数 P ( A ) P(A) P(A) 满足:
-
非负性公理:若 A ∈ F A \in \mathscr{F} A∈F,则 P ( A ) ≥ 0 P(A) \ge 0 P(A)≥0;
-
正则性公理: P ( Ω ) = 1 P (\Omega) = 1 P(Ω)=1;
-
可列可加性公理:若 A 1 A_1 A1, A 2 A_2 A2, … \dots …, A n A_n An, … \dots …,互不相容,有
P ( ⋃ i = 1 ∞ A i ) = ∑ i = 1 ∞ P ( A i ) \begin{equation} P \biggl( \bigcup _{i=1} ^{\infty} A_i \biggr) = \sum _{i=1} ^{\infty} P ( A _i ) \end{equation} P(i=1⋃∞Ai)=i=1∑∞P(Ai)
则称 P ( A ) P (A) P(A) 为事件 A A A 的概率,称三元素 ( Ω , F , P ) (\Omega, \mathscr{F}, P) (Ω,F,P) 为概率空间。
条件概率
在某事件 B B B 发生的条件下,求另一事件 A A A 的概率,记为 P ( A ∣ B ) P(A|B) P(A∣B)。
随机变量
定义在样本空间 Ω \Omega Ω 上的实值函数 X = X ( ω ) X=X(\omega) X=X(ω) 称为随机变量,常用大写字母 X , Y , Z X,Y,Z X,Y,Z 等表示随机变量,其取值用小写字母 x , y , z x,y,z x,y,z 等表示。
假如一个随机变量仅可能取有限个或可列个值,则称其为离散随机变量。假如一个随机变量的可能取值充满数轴上的一个区间 ( a , b ) (a,b) (a,b), 则称其为连续随机变量, 其中 a a a 可以是 − ∞ , b -\infty, b −∞,b 可以是 + ∞ +\infty +∞。
分布函数
设 X X X 是一个随机变量,对任意实数 x x x,称
F ( x ) = P ( X ⩽ x ) F(x)=P(X \leqslant x) F(x)=P(X⩽x)
为随机变量 X X X 的分布函数。且称 X X X 服从 F ( x ) F(x) F(x),记为 X ∼ F ( x ) X\sim F(x) X∼F(x)。有时也可用 F X ( x ) F_{X}(x) FX(x) 以表明是 X X X 的分布函数(把 X X X 作为 F F F 的下标)。
连续随机变量的概率密度函数
设随机变量 X X X 的分布函数为 F ( x ) F(x) F(x),如果存在实数轴上的一个非负可积函数 p ( x ) p(x) p(x),使得对任意实数 x x x 有
F ( x ) = ∫ − ∞ x p ( t ) d t F(x)=\int_{-\infty}^x p(t) \mathrm{d}t F(x)=∫−∞xp(t)dt
从上式可以看出,在$ F(x) $导数存在的点上有
F ′ ( x ) = p ( x ) F^{\prime}(x) = p(x) F′(x)=p(x)
F ( x ) F(x) F(x) 是(累积)概率函数,其导数 F ′ ( x ) F'(x) F′(x) 是概率密度函数,由此可看出 p ( x ) p(x) p(x) 被称为概率密度函数的理由。
数学期望
离散随机变量
设离散随机变量$ X $的分布列为
p ( x i ) = P ( X = x i ) , i = 1 , 2 , ⋯ , n , ⋯ p\left(x_{i}\right)=P\left(X=x_{i}\right), i=1,2, \cdots, n, \cdots p(xi)=P(X=xi),i=1,2,⋯,n,⋯
如果
∑ i = 1 + ∞ ∣ x i ∣ p ( x i ) < + ∞ \sum_{i=1}^{+\infty}\left|x_{i}\right| p\left(x_{i}\right)<+\infty i=1∑+∞∣xi∣p(xi)<+∞
则称
E ( X ) = ∑ i = 1 + ∞ x i p ( x i ) E(X)=\sum_{i=1}^{+\infty} x_{i} p\left(x_{i}\right) E(X)=i=1∑+∞xip(xi)
为随机变量 X X X 的数学期望,或称为该分布的数学期望,简称期望或均值。若级数 ∑ k = 1 + ∞ ∣ x k ∣ p ( x k ) \sum_ {k=1}^{+\infty}\left|x_{k}\right| p\left(x_{k}\right) ∑k=1+∞∣xk∣p(xk) 不收敛,则称 X X X 的数学期望不存在。
连续随机变量
设连续随机变量$ X 的密度函数为 的密度函数为 的密度函数为 p(x) $.如果
∫ − ∞ + ∞ ∣ x ∣ p ( x ) d x < + ∞ \int_{-\infty}^{+\infty}|x| p(x) \mathrm{d} x<+\infty ∫−∞+∞∣x∣p(x)dx<+∞
则称
E ( X ) = ∫ − ∞ + ∞ x p ( x ) d x E(X)=\int_{-\infty}^{+\infty} x p(x) \mathrm{d} x E(X)=∫−∞+∞xp(x)dx
为 X X X 的数学期望,或称为该分布 p ( x ) p(x) p(x) 的数学期望,简称期望或均值。若 ∫ − ∞ + ∞ ∣ x ∣ p ( x ) d x \int_{-\infty}^{+\infty}|x| p(x) \mathrm{d} x ∫−∞+∞∣x∣p(x)dx 不收敛,则称 X X X 的数学期望不存在。
方差与标准差
若随机变量 X 2 X^2 X2 的数学期望 E ( X 2 ) E(X^2) E(X2) 存在,则称偏差平方 ( X − E X ) 2 (X-EX)^2 (X−EX)2 的数学期望 E ( X − E X ) 2 E(X-EX)^2 E(X−EX)2 为随机变量 X X X (或相应分布)的方差,记为
V a r ( X ) = E ( X − E ( X ) ) 2 = { ∑ i [ x i − E ( X ) ] 2 p ( x i ) , 在离散场合; ∫ − ∞ + ∞ [ x − E ( X ) ] 2 p ( x ) d x , 在连续场合。 \mathrm{Var}(X)=E(X-E(X))^2=\begin{cases}\sum_i[x_i-E(X)]^2p(x_i),&\text{在离散场合;}\\\int_{-\infty}^{+\infty}[x-E(X)]^2p(x) \mathrm{d}x,&\text{在连续场合。}\end{cases} Var(X)=E(X−E(X))2={∑i[xi−E(X)]2p(xi),∫−∞+∞[x−E(X)]2p(x)dx,在离散场合;在连续场合。
称方差的正平方根 V a r ( X ) \sqrt{\mathrm{Var} (X)} Var(X) 为随机变量 X X X (或相应分布)的标准差,记为 σ ( X ) \sigma(X) σ(X), 或 σ X \sigma_X σX。
以下均假定随机变量的方差是存在的
-
V a r ( X ) = E ( X 2 ) − [ E ( X ) ] 2 \mathrm{Var}(X)=E(X^2)-[E(X)]^{2} Var(X)=E(X2)−[E(X)]2
-
常数的方差为 0,即 V a r ( c ) = 0 \mathrm{Var}(c)=0 Var(c)=0,其中 $ c $ 是常数
-
若 a , b a,b a,b 是常数,则 V a r ( a X + b ) = a 2 V a r ( X ) \mathrm{Var} (a X+b)=a^{2} \mathrm{Var} (X) Var(aX+b)=a2Var(X)
最大似然估计
设总体的概率函数为 p ( x ; θ ) p(x;\theta) p(x;θ), θ ∈ Θ \theta\in\Theta θ∈Θ,其中 θ \theta θ 是一个未知参数或几个未知参数组成的参数向量, Θ \Theta Θ 是参数空间, x 1 , ⋯ , x n x_1,\cdots,x_n x1,⋯,xn 是来自该总体的样本,将样本的联合概率函数看成 θ \theta θ 的函数,用 L ( θ ; x 1 , ⋯ , x n ) L(\theta;x_1,\cdots,x_n) L(θ;x1,⋯,xn) 表示,简记为 L ( θ ) L(\theta) L(θ)
L ( θ ) = L ( θ ; x 1 , ⋯ , x n ) = p ( x 1 ; θ ) ⋅ p ( x 2 ; θ ) ⋅ ⋯ ⋅ p ( x n ; θ ) L(\theta)=L(\theta;x_1,\cdots,x_n)=p(x_1;\theta)\cdot p(x_2;\theta)\cdot \cdots \cdot p(x_n;\theta) L(θ)=L(θ;x1,⋯,xn)=p(x1;θ)⋅p(x2;θ)⋅⋯⋅p(xn;θ)
L ( θ ) L(\theta) L(θ) 称为样本的似然函数。如果某统计量 θ ^ = θ ^ ( x 1 , ⋯ , x n ) \hat{\theta}=\hat{\theta}(x_1,\cdots,x_n) θ^=θ^(x1,⋯,xn) 满足
L ( θ ^ ) = max θ ∈ Θ L ( θ ) L(\hat{\theta})=\max_{\theta\in\Theta}L(\theta) L(θ^)=θ∈ΘmaxL(θ)
则称 θ ^ \hat{\theta} θ^ 是 θ \theta θ 的最大似然估计,简记为 MLE(Maximum Likelihood Estimate)。
由于 ln x \ln x lnx 是 x x x 的单调增函数,因此,使对数似然函数 ln L ( θ ) \ln L(\theta) lnL(θ) 达到最大与使 L ( θ ) L(\theta) L(θ) 达到最大是等价的。人们通常更习惯于由 ln L ( θ ) \ln L(\theta) lnL(θ) 出发寻找 θ \theta θ 的最大似然估计。当 L ( θ ) L(\theta) L(θ) 是可微函数时,求导是求最大似然估计最常用的方法,此时对对数似然函数求导更加简单些。
特征函数
设 p ( x ) p (x) p(x) 是随机变量 X X X 的密度函数,则 p ( x ) p (x) p(x) 的傅里叶变换是
φ ( t ) = ∫ − ∞ + ∞ e i t x p ( x ) d x \varphi (t) = \int_{-\infty}^{+\infty} \mathrm{e}^{itx} p (x) \mathrm{d} x φ(t)=∫−∞+∞eitxp(x)dx
其中 i = − 1 i = \sqrt{-1} i=−1 是虚数单位。
由数学期望的概念知, φ ( t ) \varphi (t) φ(t) 恰好是 E ( e i t x ) E \left( \mathrm{e}^{itx} \right) E(eitx)。
它是处理许多概率论问题的有力工具,它能把寻求独立随机变量和的分布的卷积运算 (积分运算) 转换成乘法运算,还能把求分布的各阶原点矩 (积分运算) 转换成微分运算。特别它能把寻求随机变量序列的极限分布转换成一般的函数极限问题。
设 X X X 是一个随机变量,称
φ ( t ) = E ( e i t x ) , − ∞ ≤ t ≤ + ∞ \varphi (t) = E \bigl( \mathrm{e}^{itx} \bigr), \; -\infty \leq t \leq +\infty φ(t)=E(eitx),−∞≤t≤+∞
为 X X X 的特征函数。
因为 ∣ e i t x ∣ ≤ 1 \lvert \mathrm{e}^{itx} \rvert \leq 1 ∣eitx∣≤1,所以 E ( e i t X ) E \bigl( \mathrm{e}^{itX} \bigr) E(eitX) 总是存在的,即任一随机变量的特征函数总是存在的。
若 E ( x l ) E (x^l) E(xl) 存在,则 X X X 的特征函数 φ ( t ) \varphi(t) φ(t) 可 l l l 次求导,且对 1 ≤ k ≤ l 1 \leq k \leq l 1≤k≤l, 有
φ ( k ) ( 0 ) = i k E ( X k ) \varphi^{(k)} (0) = i^k E ( X^k ) φ(k)(0)=ikE(Xk)
上式提供了一条求随机变量的各阶矩的途径,特别可用下式去求数学期望和方差。
E ( X ) = φ ′ ( 0 ) i , V a r ( X ) = − φ ′ ′ ( 0 ) + ( φ ′ ( 0 ) ) 2 E (X) = \frac{\varphi' (0)}{i}, \quad \mathrm{Var} (X) = - \varphi'' (0) + \bigl( \varphi' (0) \bigr)^2 E(X)=iφ′(0),Var(X)=−φ′′(0)+(φ′(0))2
不等式
Chebyshev(切比雪夫)不等式
设随机变量 X X X 的数学期望和方差都存在,则对任意常数 e > 0 e>0 e>0,有
KaTeX parse error: Undefined control sequence: \label at position 83: …arepsilon^{2}} \̲l̲a̲b̲e̲l̲{eq:2.3.2}
或
KaTeX parse error: Undefined control sequence: \label at position 78: …arepsilon^{2}} \̲l̲a̲b̲e̲l̲{eq:2.3.3}
证明:
设 X X X 是一个连续随机变量,其密度函数为 p ( x ) p(x) p(x)。记 E ( X ) = a E(X)=a E(X)=a,我们有
P ( ∣ X − a ∣ ⩾ ε ) = ∫ { x : ∣ x − a ∣ ⩾ ε } p ( x ) d x ⩽ ∫ { x : ∣ x − a ∣ ⩾ ε } ( x − a ) 2 ε 2 p ( x ) d x ⩽ 1 ε 2 ∫ − ∞ + ∞ ( x − a ) 2 p ( x ) d x = V a r ( X ) ε 2 \begin{align*} {P(|X-a| \geqslant \varepsilon)} & {=\int_{\{x: |x-a| \geqslant \varepsilon\}} p(x) \mathrm{d} x \leqslant \int_{\{x: |x-a| \geqslant \varepsilon\}} \frac{(x-a)^{2}}{\varepsilon^{2}} p(x) \mathrm{d} x} \\ {} & {\leqslant \frac{1}{\varepsilon^{2}} \int_{-\infty}^{+\infty}(x-a)^{2} p(x) \mathrm{d} x=\frac{\mathrm{Var} (X)}{\varepsilon^{2}}} \end{align*} P(∣X−a∣⩾ε)=∫{x:∣x−a∣⩾ε}p(x)dx⩽∫{x:∣x−a∣⩾ε}ε2(x−a)2p(x)dx⩽ε21∫−∞+∞(x−a)2p(x)dx=ε2Var(X)
由此知对连续随机变量成立,对于离散随机变量亦可类似进行证明。
在概率论中,事件 ∣ X − E ( X ) ∣ ⩾ ε |X-E(X)| \geqslant \varepsilon ∣X−E(X)∣⩾ε 称为大偏差,其概率 P ( 1 X − E ( X ) 1 ⩾ e ) P(1X-E(X)1 \geqslant e) P(1X−E(X)1⩾e) 称为大偏差发生概率。切比雪夫不等式给出大偏差发生概率的上界,这个上界与方差成正比,方差愈大上界也愈大。
相关文章:
常用分布的数学期望、方差、特征函数
文章目录 相关教程相关文献常用分布的数学期望&方差&特征函数定义事件域概率条件概率随机变量分布函数连续随机变量的概率密度函数数学期望离散随机变量连续随机变量 方差与标准差最大似然估计特征函数 不等式Chebyshev(切比雪夫)不等式 作者&am…...
ssh-配置
生成 SSH 密钥是一项重要的安全措施,用于在客户端和服务器之间建立加密连接。以下是在 Windows 和 Linux 系统上生成 SSH 密钥的详细步骤。 一、在 Linux 上生成 SSH 密钥 Linux 通常预装了 ssh-keygen 工具,可以通过以下步骤生成 SSH 密钥:…...

Python 在 JMeter 中如何使用?
要在JMeter中使用Python,需要使用JSR223 Sampler元素来执行Python脚本。使用JSR223 Sampler执行Python脚本时,需要确保已在JMeter中配置了Python解释器,并设置了正确的环境路径。 1、确保JMeter已安装Python解释器,并将解释器的路…...
贪心day1
文章目录 前言雪糕的最大数量重新分装苹果装满石头的背包的最大数量K 次取反后最大化的数组和不同整数的最少数目 前言 💫你好,我是辰chen,本文旨在准备考研复试或就业 💫文章题目大多来自于 leetcode,当然也可能来自洛…...

Redis 完整指南:命令与原理详解
目录 1. Redis 概述什么是 RedisRedis 应用场景 2. 安装与启动Redis 安装步骤源代码安装使用包管理器安装(以 Ubuntu 为例) 编译与启动命令编客户端连接 3. Redis 存储结构KV 存储结构数据结构类型String(字符串)List(…...
【2024软考高级架构师】论文篇——3、论Web系统的测试技术及其应用
【摘要】 本人于2023年8月参与了某地级市的市级机关电子政务信息系统的建设工作,该项目是该市机关的电子政务网建设计划的一部分,笔者在该项目中担任项目经理和系统分析师一职,主要负责项目的日常全面管理和质量保证与质量控制工作。该项目是基于WEB系统的,由于WEB系统具有…...

迪杰斯特拉算法的理解
图片转载自:最短路径算法-迪杰斯特拉(Dijkstra)算法 - 程序小哥爱读书的文章 - 知乎 https://zhuanlan.zhihu.com/p/346558578 迪杰斯特拉,一个广度优先算法,采用了贪心策略。 第一步,选取顶点D,更新和D相连的节点C&a…...

华为OD机试 - 文本统计分析(Python/JS/C/C++ 2024 E卷 200分)
华为OD机试 2024E卷题库疯狂收录中,刷题点这里 专栏导读 本专栏收录于《华为OD机试真题(Python/JS/C/C)》。 刷的越多,抽中的概率越大,私信哪吒,备注华为OD,加入华为OD刷题交流群,…...
计算机挑战赛9
Excel表列名称由字母A~Z组成,列字母的规律如下: A、B、C.、AA、AB....AZ、BA、B...ZZZZY、ZZZZ...输入: 输入包含两个列名称字符串,长度均小于等于5。 输出: 输出两个列名称之间共有多少列 样例输入: AA AZ 样例输出: 24 代码: C&…...

C++学习路线(十六)
void类型指针 void -> 空类型 void* -> 空类型指针,只存储地址的值,丢失类型,无法访问,要访问里面的值 我们必须对指针进行正确的类型转换,然后再间接引用指针 所有其它类型的指针都可以隐式自动转换成 void 类型…...

2024年最受欢迎的AI工具与实际应用:AI技术对未来生活的深远影响
2024年最受欢迎的AI工具与实际应用:AI技术对未来生活的深远影响 随着2024年的到来,人工智能(AI)技术已经深入渗透到我们生活的方方面面。从日常工作到科学研究,AI工具的应用变得越来越广泛。无论是生成式AI工具&#…...
【网络安全】账户安全随笔
未经许可,不得转载。 作者:Enoch 原文出处:https://mp.weixin.qq.com/s/oKBpZ0F6Kl5NNmHSYCYIPw 文章目录 账户类型资金划转问题幂等ID使用错误多接口并发问题精度问题其他划转问题特殊资金盗取问题科学计数法问题账户类型 在互联网金融和电商企业中,账户安全直接关系到用…...

在线培训知识库管理系统:教育行业的新动力
在当今数字化时代,教育行业正经历着前所未有的变革。随着在线教育的兴起,如何高效地管理和传播知识成为了一个关键问题。在线培训知识库管理系统应运而生,它以其强大的知识整合、分享和管理能力,为教育行业注入了新的活力。 一、…...

【AI声音克隆本地整合包及教程】第二代GPT-SoVITS V2:声音克隆的新境界
在数字时代的浪潮中,个性化和创新是永恒的主题。GPT-SoVITS V2,作为第二代声音克隆技术,正以其革命性的特性和应用,为个人和企业打开一扇通往声音个性化的新大门。 声音克隆的新高度 GPT-SoVITS V2是由RVC变声器创始人“花儿不哭…...

博看书苑 8.8.1| 免费阅读海量图书期刊
博看书苑是一款免费的图书和期刊阅读神器,拥有海量的图书和期刊资源,涵盖了文学、历史、科技、教育等多个领域。无论你是想深入研究某个专业领域,还是想在闲暇时阅读一些轻松的读物,博看书苑都能满足你的需求。更令人惊喜的是&…...
导致动态代理无法使用的原因有哪些?
在动态代理的应用过程中,有时会遇到其无法正常使用的情况。这种现象可能源于多种原因,从网络配置到软件设置,了解和解决这些问题对保持代理的高效运行至关重要。本文将详细探讨导致动态代理无法使用的主要原因及对策,以帮助用户及…...
熟练使用Spring Boot、Spring Cloud Alibaba微服务开发框架,并深入理解其原理 学习要求
1. Spring Boot 核心理解 自动配置:了解 Spring Boot 的自动配置原理(EnableAutoConfiguration),包括如何查看和定制自动配置的内容。需要能解释 Spring Boot 如何减少样板代码。Spring Boot Starter:熟悉各种 starte…...
2024-10-09 问AI: [AI面试题] 描述数据预处理在 AI 中的重要性
文心一言 数据预处理在人工智能(AI)中扮演着至关重要的角色,它是构建高效、准确和可靠AI模型不可或缺的步骤。以下是数据预处理在AI中重要性的详细描述: 1. 提高数据质量 清理和去噪:数据预处理可以识别和纠正数据中…...

Linux中文件的理解
✨前言✨ 📘 博客主页:to Keep博客主页 🙆欢迎关注,👍点赞,📝留言评论 ⏳首发时间:2024年10月16日 📨 博主码云地址:渣渣C 📕参考书籍:…...

益安宁丸,国药准字,值得信赖
益安宁丸真品辨别唯一标准 益安宁丸是由同溢堂药业有限公司独家生产的一款中成药,主要用于调理心血管系统,广泛应用于内地市场及港澳地区。由于其疗效显著,益安宁丸在消费者中享有良好的声誉,被誉为心血管健康的守护者。然而&…...

基于FPGA的PID算法学习———实现PID比例控制算法
基于FPGA的PID算法学习 前言一、PID算法分析二、PID仿真分析1. PID代码2.PI代码3.P代码4.顶层5.测试文件6.仿真波形 总结 前言 学习内容:参考网站: PID算法控制 PID即:Proportional(比例)、Integral(积分&…...

Python:操作 Excel 折叠
💖亲爱的技术爱好者们,热烈欢迎来到 Kant2048 的博客!我是 Thomas Kant,很开心能在CSDN上与你们相遇~💖 本博客的精华专栏: 【自动化测试】 【测试经验】 【人工智能】 【Python】 Python 操作 Excel 系列 读取单元格数据按行写入设置行高和列宽自动调整行高和列宽水平…...

学校时钟系统,标准考场时钟系统,AI亮相2025高考,赛思时钟系统为教育公平筑起“精准防线”
2025年#高考 将在近日拉开帷幕,#AI 监考一度冲上热搜。当AI深度融入高考,#时间同步 不再是辅助功能,而是决定AI监考系统成败的“生命线”。 AI亮相2025高考,40种异常行为0.5秒精准识别 2025年高考即将拉开帷幕,江西、…...
【Java学习笔记】BigInteger 和 BigDecimal 类
BigInteger 和 BigDecimal 类 二者共有的常见方法 方法功能add加subtract减multiply乘divide除 注意点:传参类型必须是类对象 一、BigInteger 1. 作用:适合保存比较大的整型数 2. 使用说明 创建BigInteger对象 传入字符串 3. 代码示例 import j…...
WebRTC从入门到实践 - 零基础教程
WebRTC从入门到实践 - 零基础教程 目录 WebRTC简介 基础概念 工作原理 开发环境搭建 基础实践 三个实战案例 常见问题解答 1. WebRTC简介 1.1 什么是WebRTC? WebRTC(Web Real-Time Communication)是一个支持网页浏览器进行实时语音…...
MFE(微前端) Module Federation:Webpack.config.js文件中每个属性的含义解释
以Module Federation 插件详为例,Webpack.config.js它可能的配置和含义如下: 前言 Module Federation 的Webpack.config.js核心配置包括: name filename(定义应用标识) remotes(引用远程模块࿰…...
微服务通信安全:深入解析mTLS的原理与实践
🔥「炎码工坊」技术弹药已装填! 点击关注 → 解锁工业级干货【工具实测|项目避坑|源码燃烧指南】 一、引言:微服务时代的通信安全挑战 随着云原生和微服务架构的普及,服务间的通信安全成为系统设计的核心议题。传统的单体架构中&…...

Ray框架:分布式AI训练与调参实践
Ray框架:分布式AI训练与调参实践 系统化学习人工智能网站(收藏):https://www.captainbed.cn/flu 文章目录 Ray框架:分布式AI训练与调参实践摘要引言框架架构解析1. 核心组件设计2. 关键技术实现2.1 动态资源调度2.2 …...

从0开始学习R语言--Day17--Cox回归
Cox回归 在用医疗数据作分析时,最常见的是去预测某类病的患者的死亡率或预测他们的结局。但是我们得到的病人数据,往往会有很多的协变量,即使我们通过计算来减少指标对结果的影响,我们的数据中依然会有很多的协变量,且…...

分布式光纤声振传感技术原理与瑞利散射机制解析
分布式光纤传感技术(Distributed Fiber Optic Sensing,简称DFOS)作为近年来迅速发展的新型感知手段,已广泛应用于边界安防、油气管道监测、结构健康诊断、地震探测等领域。其子类技术——分布式光纤声振传感(Distribut…...