分布收敛等几个概率之间的区别和联系是什么 您所在的位置:网站首页 lp收敛和几乎处处收敛的关系是 分布收敛等几个概率之间的区别和联系是什么

分布收敛等几个概率之间的区别和联系是什么

2024-06-26 12:07| 来源: 网络整理| 查看: 265

上面是以前整理的一些内容,下面是从知乎上看到的,图片用电脑看比较清楚分布收敛(convergence in distribution):

定义:依分布收敛至X,记作,意味着:,对于所有F的连续点x。

也就是说,当n很大的时候,的累积函数和X的累积函数差不多。

直观上而言,依分布收敛只在乎随机变量的分布,而不在乎他们之间的相互关系。

举例而言,倘若已知,假设。对于任意一个发生的事件,Y与X的取值正好差了一个负号。但这并不影响X与Y有相同的累积函数,即。如此一来,。更一般的情况而言,只要X与Y有相同的累计函数,即same distributed,即使,也有。因为依分布收敛仅仅在乎分布,而不在乎相互之间的关系。

概率收敛(convergence in probability):定义:依概率收敛至X,记作,意味着:,当,。

也就是说,当n很大的时候,对任意发生的事件,的值和X的值差不多,即很小。

直观上而言,依概率收敛在乎的是随机变量的值。

这样说来,前面依分布收敛的例子如果套在概率收敛上就会出现问题。如果,但对于任何一个与X分布一样的Y,但,一定不成立,因为X与Y只是分布相同,而值不同。但反而言之,如果,即它们的值都差不多了,那么它们的分布一定也差不多,即。因此,依概率收敛比依分布收敛要强,即。

但在某种情况下,取值就可以确定分布。即X取某个常数的情况下。此时X的取值和X的分布唯一确定。即此时会有依分布收敛和依概率收敛等价,即。

Lp收敛(convergence in Lp):定义:依Lp收敛至X,记作,意味着:,当,。在p=2时即为均方收敛。

直观上而言,均方收敛在乎的也是随机变量的值,但其要求比依概率收敛更加严格。

之所以更加严格,是因为概率测度可以被均方测度所限制,其思想可以近似由Chebyshev不等式看到。。因此.

几乎处处收敛(convergence almost surely):定义:几乎处处收敛至X,记作,意味着:,当。

直观上而言,几乎处处收敛在乎的也是随机变量的值,但其要求也比依概率收敛更加严格。

如果没有接触过实变函数的知识,几乎处处收敛对于连续型随机变量可能比较难以理解。我们这边用离散型随机变量进行直观解释,以避免0测度下的一些问题。

对于,即以概率取1,其余为0的随机变量。其依概率收敛到1意味着,和1的值都差不多,而且随着n越来越大,不相等的概率越来越小。转而言之,出现0的概率越来越小,极限为0。但几乎处处收敛至1要求,存在N,时,,即和1的值都在n很大时必须相等,即取0的概率在某个N后必须为0。前者限制其尾部概率收敛至0,但后者限制尾部概率为0。

结论:(1)几乎处处收敛和Lp收敛最强,依概率收敛其次,依分布收敛最弱。(2)几乎处处收敛和Lp收敛并无推导关系。(3)在收敛到常数时,依概率收敛和依分布收敛等价。



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有