概率的定义是什么?
随机事件概率的一种度量。概率论最基本的概念之一。人们常说某人有百分之几的把握通过考试,某事发生的可能性有多大,这些都是概率的例子。
■概率的频率定义
随着人们遇到的问题越来越复杂,等可能性逐渐暴露出它的弱点,尤其是对于同一事件,从不同的等可能性角度可以计算出不同的概率,从而产生各种悖论。另一方面,随着经验的积累,人们逐渐认识到,在做大量重复实验时,随着实验次数的增加,一个事件的发生频率总是在一个固定的数附近摆动,表现出一定的稳定性。R.von mises把这个定数定义为事件的概率,这就是概率的频率定义。理论上概率的频率定义不够严谨。安德雷·柯尔莫哥洛夫在1933中给出了概率的公理化定义。
■概率的严格定义
设E为随机实验,S为其样本空间。对于E的每个事件A,分配一个实数,记为P(A),称为事件A的概率..这里p()是一个集合函数,p()必须满足以下条件:
(1)非负性:对于每个事件A,有P(A)≥0;
(2)正态性:对于必然事件S,有P(S)= 1;
(3)可数可加性:设A1,A2……...成为互不相容的事件,即对于i≠j,Ai∩Aj=φ,(I,J = 1,2...),然后就是P (A1。
■概率的经典定义
如果测试满足两个要求:
(1)实验只有有限数量的基本结果;
(2)检验的每个基本结果的可能性是相同的。
这样的实验就成了经典实验。
对于经典实验中的事件A,其概率定义为:
P(A)=m/n,其中n代表实验中所有可能基本结果的总数。m表示事件A中包含的基本测试结果的数量..这种定义概率的方法被称为概率的经典定义。
■概率的统计定义
在一定条件下,实验重复n次,其中nA是事件A在n次中发生的次数。如果随着N的逐渐增加,频率nA/n逐渐稳定在某个值P附近,则P值称为事件A在此条件下发生的概率,记为P (a) = P..这个定义成为概率的统计定义。
在历史上,早期概率论史上最重要的学者乔科·伯努利(Jocob Bernoulli)第一个对“当实验次数N逐渐增加时,频率nA对其概率P稳定”这一论断给出了严格的意义和数学证明
伯努利,公元1654 ~ 1705)。
从概率的统计定义可以看出,数值p是描述事件A在此条件下发生可能性的一个量化指标。
由于频率nA/n总是在0到1之间,所以从概率的统计定义可以看出,对于任意事件A,有0≤P(A)≤1,p (ω) = 1,p (φ) = 0。
ω和φ分别代表必然事件(一定条件下必须发生的事件)和不可能事件(一定条件下一定不会发生的事件)。