机器学习 | 您所在的位置:网站首页 › 已知随机变量的概率密度函数求期望的方法 › 机器学习 |
背景:设已知随机变量X的分布,需要计算的不是X的期望,而是X的某个函数的期望,比如说是g(X)的期望,该如何计算呢? 因为 g ( X ) g(X) g(X)也是随机变量,故应有概率分布,它的分布可以由已知的X的分布求出来,一旦知道了 g ( X ) g(X) g(X)的分布,就可以按照期望的定义把 E [ g ( X ) ] E[g(X)] E[g(X)]计算出来,但是这种方法一般比较复杂。 引入 E ( X ) E(X) E(X)的推理,可得如下的基本公式: 设X是一个随机变量, Y = g ( X ) Y=g(X) Y=g(X),则 E ( Y ) = E [ g ( X ) ] = { ∑ k = 1 ∞ g ( x k ) p k , X 为 离 散 型 ∫ − ∞ ∞ g ( x ) f ( x ) d x , X 为 连 续 型 E(Y)=E[g(X)]= \begin{cases} \sum_{k=1}^\infty g(x_k)p_k,\quad X为离散型 \\ \int_{-\infty}^\infty g(x)f(x)dx,\quad X为连续型 \end{cases} E(Y)=E[g(X)]={∑k=1∞g(xk)pk,X为离散型∫−∞∞g(x)f(x)dx,X为连续型 当X为离散型时, P ( X = x k ) = p k P(X=x_k)=p_k P(X=xk)=pk 当X为连续型时,X的密度函数为 f ( x ) f(x) f(x) 因此,求 E [ g ( X ) ] E[g(X)] E[g(X)]时,就不必知道 g ( X ) g(X) g(X)的分布,而只需知道X的分布就可以计算 g ( X ) g(X) g(X)的数学期望 将 g ( X ) g(X) g(X)特殊化,可得到各种数字特征: k阶原点矩 E ( X k ) E(X^k) E(Xk)k阶中心距 E ( [ X − E ( X ) ] k ) E([X-E(X)]^k) E([X−E(X)]k)k阶绝对原点矩 E ( ∣ X ∣ k ) E(|X|^k) E(∣X∣k)k阶绝对中心矩 E ( ∣ X − E ( X ) ∣ k ) E(|X-E(X)|^k) E(∣X−E(X)∣k)其中k是正整数。 |
CopyRight 2018-2019 实验室设备网 版权所有 |