随机事件概率赌博泊松分布
概率论是⼀门研究随机现象规律的数学分⽀。其起源于⼗七世纪中叶,当时在误差、⼈⼝统计、⼈寿保险等范畴中,需要整理和研究⼤量的随机数据资料,这就孕育出⼀种专门研究⼤量随机现象的规律性的数学,但当时刺激数学家们⾸先思考概率论的问题,却是来⾃赌博者的问题。数学家费马向⼀法国数学家帕斯卡提出下列的问题:“现有两个赌徒相约赌若⼲局,谁先赢s局就算赢了,当赌徒A赢a局[a < s],⽽赌徒B赢b局[b < s]时,赌博中⽌,那赌本应怎样分才合理呢?”于是他们从不同的理由出发,在1654年7⽉29⽇给出了正确的解法,⽽在三年后,即1657年,荷兰的另⼀数学家惠根斯[1629-1695]亦⽤⾃⼰的⽅法解决了这⼀问题,更写成了《论赌博中的计算》⼀书,这就是概率论最早的论着,他们三⼈提出的解法中,都⾸先涉及了数学期望[mathematical expectation]这⼀概念,并由此奠定了古典概率论的基础。
使概率论成为数学⼀个分⽀的另⼀奠基⼈是瑞⼠数学家雅各布-伯努利[1654-1705]。他的主要贡献是建⽴了概率论中的第⼀个极限定理,我们称为“伯努利⼤数定理”,即“在多次重复试验中,频率有越趋稳定的趋势”。这⼀定理更在他死后,即1713年,发表在他的遗著《猜度术》中。
到了1730年,法国数学家棣莫弗出版其著作《分析杂论》,当中包含了著名的“棣莫弗—拉普拉斯定理”。这就是概率论中第⼆个基本极限定理的原始初形。⽽接着拉普拉斯在1812年出版的《概率的分析理
论》中,⾸先明确地对概率作了古典的定义。另外,他⼜和数个数学家建⽴了关于“正态分布”及“最⼩⼆乘法” 的理论。另⼀在概率论发展史上的代表⼈物是法国的泊松。他推⼴了伯努利形式下的⼤数定律,研究得出了⼀种新的分布,就是泊松分布。概率论继他们之后,其中⼼研究课题则集中在推⼴和改进伯努利⼤数定律及中⼼极限定理。
概率论发展到1901年,中⼼极限定理终于被严格的证明了,及后数学家正利⽤这⼀定理第⼀次科学地解释了为什么实际中遇到的许多随机变量近似服从以正态分布。到了20世纪的30年代,⼈们开始研究随机过程,⽽著名的马尔可夫过程的理论在1931年才被奠定其地位。⽽苏联数学家柯尔莫哥洛夫在概率论发展史上亦作出了重⼤贡献,到了近代,出现了理论概率及应⽤概率的分⽀,及将概率论应⽤到不同范畴,从⽽开展了不同学科。因此,现代概率论已经成为⼀个⾮常庞⼤的数学分⽀。
【赌博与随机事件】
对待赌博的正确态度有两种。如果实在要把赌博看成是娱乐,把输钱看成是为此⽽付出的费⽤,那么,就应该事先想好这个娱乐究竟值多少钱,从⽽把“消费”严格限制在这个数字以内。如果真正要想赢,你就必须花上⾜够的时间,了解并掌握赌博这门知识。
⾃然界发⽣的现象不外乎两类,⼀类称为决定性现象,这类现象的特点是:在⼀组条件下,其结果完全被决定,要么完全肯定,要么完全否定,不存在其它的可能性。决定性现象实际上就是事前可以预
⾔结果的现象。
还有⼀类现象称为⾮决定性现象,这类现象的特点是:条件不能完全决定结果,每次所发⽣的结果可能是不同的。⾮决定性现象实际上就是事前不能预⾔结果的现象,只有事后才能确切知道它所发⽣的结果,在概率论中,这类现象称为随机现象。
随机试验中的任何⼀次,在实验之前其结果是不可准确预测的,这在概率论中是⼀个⽆须证明的结论,作为⼀门精确的数学学科,概率论研究的是⼤量随机试验的规律性。就拿来说,每⼀次出什么号是不可准确预测的——这是的基本功能,但在⽆数次的试验中或实验的次数⾜够多时,的出号是完全有规律的,从⼤量的出号数据中以及很多⼈的赌实践中都可以发现久赌必输、不赌就是赢这个的真理。
赌博是随机现象是指赌博中每⼀次的输赢都与预测⽆关,不管由谁来猜,其猜中的概率与猜的⼈⽆关,是⼀个常数,因此从来不猜,⽽绝⼤多数赌客却⽆休⽌地猜来猜去。其实爱好赌博的⼈都很聪明,都很努⼒,但普通赌客的最⼤误区在于,以为⽤提供的记录纸记录出的号,就能从出号数据中发现每次出号的规律,并⽤它反过来指导预测⼩球会掉到哪个号上或者是哪个区域⾥;以为在这个相互作⽤的过程中不断地修正提⾼技术,总有达到能赢的⼀天。普通赌客由于指导思想和研究的⽅法不正确,得出的结论⾃然就很荒唐,反⽽以为输钱是因为⾃⼰技术不精所致,从⽽更
加勤学苦练,希望能有达到⽬的的⼀天,在不知不觉中陷⼊愈赌愈输、愈输愈赌的怪圈,这是⼀个没完没了的恶性循环。为普通赌客准备了记录纸和记录纸,倒不是因为有多么的⾼尚,它是在误导赌客,让你进⼊怪圈,⾃制⼒强者可能从此少与或者⼲脆不与来往,少数⼈可能因此⾛⽕⼊魔、患上病态赌博症。
赌博不仅是随机试验,⽽且是古典概型试验,因⽽赌博中的各种概率都可以准确计算,只是有的简单,⼏乎不需要思考;有的复杂,必须借助于计算机和巧妙的算法。例如,赌中出现号码“0”、“1”、‘“2”……直到“36”等都是基本事件,⽽⼤⼩、红⿊、单双则是由基本事件组成的复合事件;拉号⼦中,任意五张牌都是基本事件,共有2598960种,⽽对⼦、双批、三条……⼀直到同花⼤顺等则是由基本事件组成的复合事件;⼆⼗⼀点的情形⽐较复杂,荷官从牌盒中每发出⼀张牌都是基本事件,⽽出现“2”、“3”、“4”……直到“K”、“A”等牌则是复合事件(因为每种牌都有四种花⾊);同样的,荷官从牌盒中先后取出两张牌也是基本事件,⽽这两张牌的点数则是复合事件;⼀般地,从牌盒中依次取出某个数量的牌是基本事件,⽽这些牌的点数则是复合事件。在所有的赌戏中,输或赢更是⾮常复杂的复合事件。
每⼀种赌戏都有很多随机变量,其中有些是独有的。如,⼆⼗⼀点中下⼀张牌的⾯值就是⼀个随机变量,它的取值可以是从1到11之间的任何⼀个整数;荷官按规则补牌,其牌点也是⼀个随机变量,它的取值可以是从“17”到“21”之间的任何⼀个整数,此外还包括“Blackjack”和“爆牌”两个点数;⼜例如,百
家乐中下⼀张牌的⾯值也是⼀个随机变量,它的取值可以是从0到9之间的任何⼀个整数;庄闲的点数也是⼀个随机变量,其取值可以是从“0”到“9”之间的任何⼀个整数。
不管什么赌戏,都是以输或赢作为赌博的结果,输和赢都是随机事件,把它们数字化,其中,输为负数,赢为正数,就得到了取值随赌博结果的变化⽽变化的⼀个随机变量——赔率,这是赌博中最重要的⼀个随机变量,是任何⼀种赌戏都必不可少的。
赌博作为随机试验,概率分析才是我们研究赌博的有效⽅法,它涉及到概率论的⼀些初步知识和现代计算⼿段,只要不是赌神,其赌博就必然服从于由各种概率所确定的胜负关系,赢的关键在于要洞察概率上是否有有利赌客的情形出现。
概率与预测
古⼈云:凡事预则⽴,不预则废,强调⽆论做什么事都要预先谋划,事前设计,这离不开对事物和现象的规律的认识。对确定性现象,只有清楚其中的因果关系才能准确地预测结果。⽽对随机现象,却只要知道了概率就能进⾏预测,但应该注意的是,概率要预测的不是随机事件的结果,⽽是⼤量随机事件的结果在数量上的规律性。例如,扔⼀次硬币,你⽆法说出是正⾯还是反⾯朝上,对此你毫⽆把握,只能
说:“出正⾯的机会有⼆分之⼀”,如果这时还有⼈说:“出正⾯的机会有三分之⼀”,不管这次出的是哪⼀⾯,这两个结论都不能体现出来;但如果扔的是⼀百次或更多的次数,如⼀万次,那么“有三分之⼀机会出正⾯”的说法就明显站不住脚,⽽“有⼆分之⼀机会出正⾯”的说法却可以得到相当程度的体现。下⾯我们详细地阐述⽤概率进⾏预测的原理。
⼤数定律
在同样的条件下进⾏⼤量试验时,根据频率的稳定性,事件A的频率必然稳定在某⼀个确定的常数p附近,则定义事件A的概率为:
P(A)=p
这称为事件概率的统计定义,相应得到的概率称为统计概率,概率的统计定义给出了计算事件概率的近似⽅法,即当试验次数充分⼤时,可⽤事件的频率作为该事件概率的近似值。然⽽不能理解为,试验的次数越多,事件的频率就越接近事件的概率。例如,对于扔硬币这样的试验,⼀个⼈扔了两次,正好⼀次正⾯⼀次反⾯,出现正⾯的频率为0.5,正好等于出现正⾯的概率;⽽另⼀个⼈做同样的实验,扔了10000次,出了4985次正⾯,出现正⾯的频率为0.4985,反⽽不等于出现正⾯的概率,这扔10000次还不如扔两次的结果精度⾼,那这多出的9998次是不是就⽩扔了呢?要解释这个现象,必须更详细地研究频率和概率之间的关系。
实际上,频率是⼀个随机变量,有多种以⾄⽆数种可能的取值,可以是0-1之间的任何⼀个数字。⽽概率是⼀固定的常数,是0-1之间的⼀个确定数字。我们对以概率为中⼼的某⼀区域感兴趣,频率可能落在这个区域内,也可能落在这个区域之外;对于确定的试验次数n,频率落在区域内这个事件也有⼀个概率,当试验次数n增⼤时,这个概率也增⼤;当试验次数⽆限增加时,这个区域将变得⽆限⼩,频率落在区域内的概率将等于1。
⼀般地,频率和概率之间的关系不是以普通的等式来表达,⽽是以事件的频率和概率之差落在某个范围之内的概率来表⽰,即:
P( | µn/n―p|<ε)
指定ε的⼤⼩,运⽤概率论中有关切⽐雪夫不等式的知识就可以计算出这个概率的⼤⼩。
当试验次数n⽆限增加时的结论,就是⼤数定律。⼤数定律是概率论中⼀系列定律的总称,⼜称“⼤数法则”或“平均法则”,是概率论主要定律之⼀。
历史上,贝努⾥第⼀个提出⼤数法则。通俗地说,这个定理就是,在试验不变的条件下,重复试验多次,随机事件的频率近似于它的概率。
除了⽂字表述形式,⼤数定律还有精确的数学表⽰形式。
在贝努利试验中,当试验次数n⽆限增加时,事件A的频率µn/n(µn是n次试验中事件A发⽣的次数),依概率收敛于它的概率p。即对任意ε> 0,都有:
lim P( | µn/n―p | <ε) = 1
n→∞
这就是贝努利⼤数定律。当然,上⾯这个公式看起来有些费劲,这没有关系,因为⼈⼈都懂它的⽂字表述,其实对赌客来说,⼤数定律的⽂字表述有更现实的指导意义。概率的统计定义“频率稳定于概率”的意思是很不明确的,贝努利⼤数定理从数学上讲清楚了这个问题,“频率稳定于概率”的含义是:事件A的频率µn/n 依概率收敛于它的概率p,也即当n充分⼤时可以以任何接近于1的概率断⾔,µn/n将落在以p为中⼼的ε区域。
⼤数定律以明确的数学形式表达了随机试验的规律,并论证了它成⽴的条件,从理论上阐述了这种⼤量的、在⼀定条件下的、重复的随机现象呈现的“频率稳定于概率”的规律性。由于⼤数定律的作⽤,⼤量随机因素的整体作⽤必然导致某种不依赖于个别随机事件的结果。
如果说概率论是有关随机现象预测理论的话,那么⼤数定律就告诉了我们预测的⽅法,该如何进⾏预测。贝努利⼤数定律从理论上证明了通过试验来确定概率的⽅法:做n次独⽴的重复试验,以µn表⽰n试验中A发⽣的次数,当n⾜够⼤时,那么我们可以以很⼤的概率确信:
p≈µn/n。在事件的概率未知或者需要验证理论计算出的概率是否准确时,我们常⽤这种⽅法。
反过来,已知事件的概率,当n⾜够⼤时,就可以⽤事件的概率来预测n重贝努利试验中事件发⽣的次数: µn≈p×n ,其中n越⼤,预测的可信度就越⾼。⾥任何赌戏的每⼀次都只有赢和不赢两种结果(“和”或“平”可看成是50%的赢),赌博就是贝努利试验。准确地计算出赌戏的赢率,就可⽤来预测赌博的结果,其依据就是⼤数定律。赌的时间越长,预测就越有效。
现在就可以来解释前⾯提到的现象。扔两次硬币,还有可能出现两次都是正⾯或两次都是反⾯的情况,把这时的频率当作概率显然是错误的,就是说把扔两次硬币的频率当作是概率,发⽣严重偏差的概率⾼达50%,⽽把扔10000次硬币的频率当作概率在绝⼤多数情况下结果都是相当可信的。结论是,试验10000次⽐试验两次得到的结果更可信,并不违反直觉所告诉我们的。
因此,⽤统计⽅法来确定事件的概率时,频率随试验次数的增加接近概率也是以概率的⽅式。统计的次数越多,频率接近概率的可能性就越⼤,其结果就越可信,可以认为,统计次数反映了结果的可信程度,⽽此时的频率结果与概率有多接近则有⼀定的随机性。换⾔之,通过试验来确定概率是有风险的,在任何情况下,都有频率偏离概率的情形存在,增加试验的次数,可以降低这种风险,却不能消除风险本⾝,只有在试验次数为⽆穷⼤的情况下,才不存在这种风险。不过,当试验的次数是⾜够多时,尽管把频率当成是概率还是有出错的可能,但这种
可能性已经⾮常⼩了,以⾄可以完全放⼼⽽⽆须担⼼出错。
赌博就是赌概率
上连出了⼗次红,有⼈就觉得第⼗⼀次该出⿊了;连出了⼆⼗次红,第⼆⼗⼀次就更应该出⿊了……因此产⽣了在赌博中经常遇到的连续出⼤后押⼩、连续出庄后押闲、连输后加注等错误⽅法,称为反向赌法,反向赌法配合赌注的变化就产⽣了在⼴泛流⾏的“注码法”,并有了⼀个似乎更充⾜的理由:在多次的连续投注中,只要赢⼀次,就能把以前输的全部赢回来,并再多赢⼀点,有必要把它弄清楚。
这类反向赌法有个特点,就是概率已经事先知道且接近⼆分之⼀,例如,我们可以⼀⼝说出扔硬币出正⾯的概率是1/2;上除了0之外,代表红⿊的数字的个数是相等的,⽆疑出红和出⿊的概率是相等的且接近⼆分之⼀……这给我们⼀种感觉,似乎概率是随机事件随时可以表现出来的⼀个性质。⽽在股市中,涨和跌的概率是模糊不清不明朗的,因此⼤家都追涨杀跌,更少有⼈采⽤注码法,表现得完全相反。
长期以来,⼈们习惯于从⽆例外只有⼀个结果的确定关系法则,例如,在时间上,某个节⽇越来越近,我们甚⾄⽤倒计时的⽅式来表⽰这种关系;在距离上,只要我们朝着⽬的地进发,我们将离它越来越近,我们习惯于这种物理上的接近,也就是通常的越来越近。却还不习惯若即若离,总的态势是
趋近的这种概率⽅式的接近,概率⽅式的接近意味着有的时侯离得近,有的时侯离得远,不接近是很⾃然⽽然的,例如,在⼩样本时,频率偶尔会集中在概率附近,在⼤样本时,频率多数时候会集中在概率附近,但不管是⼤样本还是⼩样本,都⽆法避免频率严重偏离概率这样的情形出现;⽽这时⼈们习惯于套⽤从⽆例外的确定关系法则,以为⼩样本时经常性地连续出红这种严重偏离的情形是⼀种反常,在随后的试验中会很快得到纠正;其实,没有记忆,记住以前的结果并要对此进⾏纠正的是⼈不是。以确定性关系来代替对象之间的概率关系是⼈们不知不觉中易犯的错误。
频率和概率之间的关系是⽤概率来描述,通常⼆者是不等关系,⼀般不能划等号,只有当试验的次数很⼤时,才有µn/n≈p,并始终存在例外出错的可能性。认清频率和概率的这种关系,将有助于克服连续出⼤后押⼩、连续出庄后押闲、连输后加注等不正确的赌博⼼理,这类错误认识的根源就在于不分条件地把频率和概率⽤等号联系了起来。
下意识⾥,我们对扔硬币这类机会均等的随机试验有个预测,就是在连续的数次试验中出现正反的次数应该很接近,由频率和概率的关系可知,这个预测经常会有很多不准的时候。出⼗个结果,多数时候这⼗个结果中红和⿊的⽐例⽐较接近,如果连出了⼗次红,只说明预测是不准的,就好⽐天⽓预报,如果连续⼗天预报不准,那么第⼗⼀天的预报是不是会更准⼀点呢?⼀般⼈都不会这么认为,我们更有理由认为⽓象部门内部出了什么问题,预测结果将更加不准。当然,与天⽓预报不同,对的预测不受⼈为因素的影响。
⽐⽤概率来预测少量试验的频率还要糟糕的是,⼈们习惯于⽤概率来预测下⼀次随机事件的结果,并把它和前⼏次试验的频率联系起来。其实,不管前⾯的频率和概率差得有多远,继续试验,后来试验的频率只和概率有关,和以前的频率⽆关,⽽对于仅仅⼀次试验的结果,我们只能泛泛地说某个事件发⽣的概率。
概率只有⽤来预测⼤量试验的频率可信度才很⾼,要提⾼预测的准确性,只有靠提⾼所预测的范围。如预测从第11次到第1010次,你说出正⾯的次数接近500次,这预测的准确性要远远⾼于预测第⼗⼀次的结果。
从另⼀个⾓度来看,⼤样本可以划分为许多等量的⼩样本,把⼩样本中某类特定的组合,如连续出正⾯看成是⼀个事件,这是⼀个⼩概率事件,由⼤数定律很容易推论出,在长期不断的实验中,⼩概率事件是⼏乎⼀定会发⽣的,但⼈们往往把它当成了不会出现、不应该出现的概率为零的事件。在扔硬币这样的试验中,出正反⾯的概率是⼀样的,都是50%,当出现正⾯时,不会产⽣马上要出反⾯的错觉;同样的试验,当我们以不连续出“正⾯”和连续出“正⾯”作为观察对象时,⼆者的概率⼤不⼀样,前者的概率远⼤于后者,由于后者的概率很⼩,⼀旦出现,马上就会产⽣这种现象应该马上终⽌的错觉;事实上,连续出“正⾯”的概率再⼩,也是⼀个不为0的数字,只要它不等于0,只要试验的时间⾜够长,连续出“正⾯”就⼏乎⼀定会发⽣,是⼀种不可避免的现象。⼀旦出现了,就和扔硬币出了反⾯⼀样正常,没有什么⼤惊⼩怪的。
有趣的是,同样是⼩概率事件,有的我们希望它发⽣,有的⼜希望它不发⽣。赌博中连输是赌客不希望发⽣的,⼀旦发⽣了,总是希望这种已经发⽣了的⼩概率事件能很快终⽌,因此往往在连输时加⼤注码。另⼀个事实是,对个⼈来说,中是⼩概率事件,我们却希望它发⽣在⾃⼰⾝上,如果有⼈中了,不会因为这是个极⼩概率事件⽽拒绝它,都会很乐意接受这个事实。应该象接受中⼀样来接受已经连续出了⼗次红这样的事实。
随机试验与事件
随机现象的特点是:在条件不变的情况下,⼀系列的试验或观测会得到不同的结果,并且在试验或观测前不能预见何种结果将出现。
随机试验:对随机现象的试验或观测,它必须满⾜以下的性质:
(1)每次试验的可能结果不是唯⼀的;
(2)每次试验之前不能确定何种结果会出现;
(3)试验可在相同条件下重复进⾏。
随机事件(事件):在随机试验中,可能出现也可能不出现的结果。试验的结果可能是⼀个简单事件,
也可能是⼀个复杂事件。简单事件就是不可以再分解的事件,⼜称为基本事件。复杂事件是由简单事件组合⽽成的事件。基本事件还可称为样本点,设试验有n个基本事件,分别记为(i=1,2,…,n)。集合Ω={ω1 ,ω2 , … ,ωn}称为样本空间,Ω中的元素就是样本点。
例:投掷⼀粒均匀的六⾯体骰⼦,出现的点数有可能是1、2、3、4、5、6共六种。这六种结果是基本结果,不可以再分解成更简单的结果了,所以Ω= {1,2,3,4,5,6}为该试验的样本空间。“出现点数是奇数”这⼀事件就不是简单事件,它是由基本事件{1},{3}和{5}组合⽽成的。我们通常⽤⼤写字母A,B,C,…来表⽰随机事件,例如,设A表⽰“出现点数是奇数”,则A={1,3,5};设B表⽰“出现点数是偶数”,则B= {2,4,6}。
概率的定义
概率就是指随机事件发⽣的可能性,或称为机率,是对随机事件发⽣可能性的度量。进⾏n次重复试验,随机事件A发⽣的次数是m次,发⽣的频率是m/n,当试验的次数n很⼤时,如果频率在某⼀数值p附近摆动,⽽且随着试验次数n的不断增加,频率的摆动幅度越来越⼩,则称p为事件A发⽣的概率,记为:P(A)=p。在古典概型场合, 即基本事件发⽣的概率都⼀样的场合:P(A)=m/n
例:设⼀个袋⼦中装有⽩球2个,⿊球3个。(1) 从中随机摸出1只球,问刚好是⽩球的概率有多⼤?  (2) 从中随机摸出2只球,⼀问2只球都是⽩球的概率有多⼤? ⼆问2只球⼀⽩⼀⿊的概率有多⼤? 三问2
只球都是⿊球的概率有多⼤?
解:(1) 由于摸出的任何1只球都形成⼀个基本事件,所以样本点总数为n=5。⽤A表⽰摸出的是⽩球事件,则A由两个基本点组成,即A={⽩球,⽩球},有利场合数m=2。因此,刚好摸出⽩球的概率为P(A)=m/n=2/5=0.4
(2) 由于摸出2只球才成⼀个基本事件,所以样本点总数为10故
P(A)=P(2只球都是⽩球)=1/10
P(B)=P(2只球⼀⽩⼀⿊)=2×3/10=6/10
P(C)=P(2只球都是⿊球)=3/10
NOTE: P(A+B+C)=1
概率的基本性质
性质1      1≥P(A)≥0。
性质2      P(Ω)=1。
性质3    若事件A与事件B互不相容,即AB=Ф,则P(A∪B)=P(A)+P(B)。
推论1    不可能事件的概率为0,即:P(Ф)=0。
推论2    P(A)=1-P(A),      表⽰A的对⽴事件,即它们⼆者必有⼀事件发⽣但⼜不能同时发⽣。
概率的运算法则——加法公式
⽤于求P(A∪B)——“A发⽣或B发⽣”的概率
互斥事件(互不相容事件)
不可能同时发⽣的事件
没有公共样本点
互斥事件的加法公式
P(A∪B)=P(A)+P(B)
互补事件
不可能同时发⽣⽽⼜必然有⼀个会发⽣的两个事件
互补事件的概率之和等于1
例如:掷⼀个骰⼦,“出现2点”的概率是1/6,则“不出现2点”的概率就是5/6 。
相容事件
两个事件有可能同时发⽣
没有公共样本点
相容事件的加法公式(⼴义加法公式)
P(A∪B)=P(A)+P(B)-P(AB)
概率的运算法则——乘法公式
⽤于计算两个事件同时发⽣的概率。
——也即 “A发⽣且B发⽣”的概率 P(AB)
先关注事件是否相互独⽴
条件概率—在某些附加条件下计算的概率
在已知事件B已经发⽣的条件下A发⽣的条件概率——P(A|B)
条件概率的⼀般公式:
P(A|B)=P(AB)/P(B)
乘法公式的⼀般形式:
P(AB) =P(A)·P(B|A)
或    P(AB) =P(B)·P(A|B)
(1)条件概率
P(A|B)=在B发⽣的所有可能结果中AB发⽣的概率
即在样本空间Ω中考虑的条件概率P(A|B),就变成在新的样本空间B中计算事件AB的概率问题了
事件的独⽴性
两个事件独⽴
⼀个事件的发⽣与否并不影响另⼀个事件发⽣的概率
P(A|B)=P(A),或 P(B|A)=P(B)
独⽴事件的乘法公式:
P(AB) =P(A)·P(B)
推⼴到n 个独⽴事件,有:
P(A1…An)=P(A1)P(A2) … P(An)
概率的运算法则——全概率公式
完备事件组
事件A1、 A2、…、An互不相容,
A∪A2∪…∪An=Ω
且P(Ai ) > 0(i=1、2、...、n)
对任⼀事件B,它总是与完备事件组A1、 A2、…、An之⼀同时发⽣,则有求P(B)的全概率公式:
概率的运算法则——贝叶斯公式
全概率公式的直观意义:
每⼀个Ai的发⽣都可能导致B出现,每⼀个Ai 导致B发⽣的概率为,因此作为结果的事件B发⽣的概率是各个“原因”Ai 引发的概率的总和
相反,在观察到事件B已经发⽣的条件下,确定导致B发⽣的各个原因Ai的概率
——贝叶斯公式(逆概率公式)
(后验概率公式)
随机变量及其概率分布
随机变量的概念
随机变量——表⽰随机试验结果的变量
取值是随机的,事先不能确定取哪⼀个值
⼀个取值对应随机试验的⼀个可能结果
⽤⼤写字母如X、Y、Z...来表⽰,具体取值则⽤相应的⼩写字母如x、y、z…来表⽰
根据取值特点的不同,可分为:
离散型随机变量——取值可以⼀⼀列举
连续型随机变量——取值不能⼀⼀列举
离散型随机变量的概率分布
X的概率分布——X的有限个可能取值为xi与其概率 pi(i=1,2,3,…,n)之间的对应关系。
概率分布具有如下两个基本性质:
(1) Pi≥0,i=1,2,…,n;
421事件是什么意思(2)ΣPi=1
离散型概率分布的表⽰:
概率函数:P(X= xi)= pi
分布列:
分布图
连续型随机变量的概率密度
连续型随机变量的概率分布只能表⽰为:
数学函数——概率密度函数f (x)和分布函数F (x)
图形——概率密度曲线和分布函数曲线
概率密度函数f (x)的函数值不是概率。
连续型随机变量取某个特定值的概率等于0
只能计算随机变量落在⼀定区间内的概率
——由x轴以上、概率密度曲线下⽅⾯积来表⽰
分布函数
适⽤于两类随机变量概率分布的描述
分布函数的定义: F(x)=P{X≤x}
常见离散型随机变量的概率分布
⼆项分布
n重贝努⾥试验:
⼀次试验只有两种可能结果
⽤“成功”代表所关⼼的结果,相反的结果为“失败”
每次试验中“成功”的概率都是 p
n 次试验相互独⽴。
⼆项分布图形
p=0.5时,⼆项分布是以均值为中⼼对称
p≠0.5时,⼆项分布总是⾮对称的
p<0.5时峰值在中⼼的左侧
p>0.5时峰值在中⼼的右侧
随着n⽆限增⼤,⼆项分布趋近于正态分布
Piosson分布的意义
盒⼦中装有999个⿊棋⼦,⼀个⽩棋⼦,在⼀次抽样中,抽中⽩棋⼦的概率1/1000
在100次抽样中,抽中1,2,…10个⽩棋⼦的概率分别是……
放射性物质单位时间内的放射次数
单位体积内粉尘的计数
⾎细胞或微⽣物在显微镜下的计数
单位⾯积内细菌计数
⼈中患病率很低的⾮传染性疾病的患病数
特点:罕见事件发⽣数的分布规律
【说明】历史上Poisson分布是作为⼆项分布的近似于1837年由法国数学家泊松引⼊的,若把试验中成功概率值很⼩的事件叫做稀有事件,则由上⾯TH当n充分⼤时,n重B-试验中稀有事件发⽣的次数近似服从Poisson分布。这时,参数λ的整数部分 [ 恰好是稀有事件发⽣的最可能次数,在实际中常⽤Poisson分布来作为⼤量重复独⽴试验中稀有事件发⽣的概率分布情况的数学模型,诸如不幸事件,意外事故、故