目录spa
感谢gzy学长事件
(本人是这样理解的)ci
随机现象 : 有几率出现的现象,好比明天会下雨
必然现象 : 必定会出现的现象,好比acioi天下第一帅太阳会从东边升起
样本空间 :是一个集合,通常用S表示,包括所有可以出现的现象
元素 :通常用e来表示,某个可以出现的现象,\(e \in S\)
随机事件 : 和元素意义差很少都是S里面的,通常用A表示,包含多个元素
集合运算 :(全集为S)
1. \(A\bigcup B\) :A与B里面的元素至少一个发生就能够
2. \(A\bigcap B\) :发生的元素在A中也在B中,还能够表示为\(A·B\),\(AB\)
3. \(A-B\) : 属于A可是并不属于B的,也就是A和B中,A独有的
4. \(\overline{AB}\):\(\{e\notin A \bigcap B\}\)
P(A):事件A发生的几率
随机变量:有多种可能的取值变量,通常设为Xit
随机时间A发生的几率怎么求呢?
随机时间A发生的几率先用P(A)表示出来
A里面可能包含多个元素,只要A里面的元素中有一个发生了,那么就是A发生了,随意A发生的几率就是A中全部的元素发生的几率和,即为:
\[P(A) = \sum_{e\in A}P(e)\]io
1.\(1 \ge P(A) \ge 0\)class
由于一件事最低的几率就是不发生,也就是0,因此几率最低就是0,最高是必定发生,因此几率最高就是1基础
2.\(\sum\limits_{e\in S}P(e) = 1\)变量
全集S中的每一件事的几率加起来必定是1,由于无论发生S中的任意一件事,都在S里面,因此S的几率就是100%,也就是1,里面的每个元素发生的几率都是这个100%里面的一部分gc
3.\(P(\bigcup\limits_{i = 1}^{\infty}A_i) = \sum\limits_{i-1}^{\infty}P(A_i)\)
(\(A_i\)两两互斥)
很显然,只是一个前后顺序的转换,能够当作是今天你打算作n道菜,等于号前面的就是你先把n道菜作完再一块儿吃,等于号后面就能够当作你作完一道菜就吃一道菜。im
\[P(e) = \dfrac{1}{\left| S \right|}\]
若是每个元素出现的几率均等的话,那S里面任意一个元素出现的几率就是S的大小分之1
\[P(A)=\dfrac{\left| A \right|}{\left| S \right|}\]
仍是上面的那个条件,每个元素出现的几率均等,那么A集合出现的几率就是A集合中的元素个数除以S集合中的元素个数
独立事件:互不影响,知足\(P(A*B) = P(A) * P(B)\)
E(X):表示X事件发生的指望
对于独立事件:\(E(A\times B) = E(A) \times E(B)\)
对于随机变量X,有公式:
\[E(X) = \sum P(X = i) \times i\]
什么意思呢?
假设每个随机变量x都有本身的值,\(X_i\)对应的随机变量值就是i,那么这个数的指望值就是\(X_i\)这个随机变量出现的几率乘以他的值,即为上面的公式
求2次骰子投掷出的点数和的指望值
只须要枚举两个骰子投掷出的点数,他们的指望值就是这个状况出现的概率乘以这个点数和
\(E(X_1 + X_2) = \sum\limits_{i=1}^6\sum\limits_{j=1}^6P(X=i)P(X=j)(i+j)\)
\[E(X+Y) = E(X) + E(Y)\]
(再次感谢gyh小学妹,感谢gzy学长)
(下面是分布来介绍的,若是以为本身能够,看后面完整连贯无解释版的)
\(E(X+Y)=\sum\limits_{i=1}\sum\limits_{j=1}P(X=i)P(X=j)(i+j)\)
\(=\sum\limits_{i=1}\sum\limits_{j=1}(i\times P(X=i)\times P(X=j)+j\times P(X=i)\times P(X=j))\)
\(=\sum\limits_{i=1}i\times P(X=i)\times P(X=j) + \sum\limits_{j=1}j\times P(X=i)\times P(X=j))\)
由于
\(E(X) = \sum\limits_{i=1}P(X=i) \times i\)
\(E(Y) = \sum\limits_{i=j}P(Y=j) \times j\)
因此上面没有完成的式子
\(=E(X)\times P(X=j) + E(Y)\times P(Y = i)\)
这个时候有用到了一开始的
\(\sum\limits_{e\in S}P(e) = 1\)
而\(P(X=i)\)的意思就是S集合里面的所有数的几率加起来
\(P(Y=j)\)等同,这两个都和\(\sum\limits_{e\in S}P(e)\)的意思同样,因此都等于1
因此再一次继续没完成的式子:
\(=E(X)\times 1 + E(Y) \times 1\)
\(=E(X) + E(Y)\)
\(E(X+Y)=\sum\limits_{i=1}\sum\limits_{j=1}P(X=i)P(X=j)(i+j)\)
\(=\sum\limits_{i=1}\sum\limits_{j=1}(i\times P(X=i)\times P(X=j)+j\times >P(X=i)\times P(X=j))\)
\(=\sum\limits_{i=1}i\times P(X=i)\times P(X=j) + \sum\limits_{j=1}j\times >P(X=i)\times P(X=j))\)
\(=E(X)\times P(X=j) + E(Y)\times P(Y = i)\)
\(=E(X)\times 1 + E(Y) \times 1\)
\(=E(X) + E(Y)\)
指望步数我也不知道到底有没有这么一个定义,是我本身理解的
指的是指望第一次发生
几率为P的时间指望\(\dfrac {1}{p}\)次后发生
对于离散变量X,\(P(X=k)=P(X\le k) - P(X\le{k-1})\)
n个随机变量X[1……n],每一个随机变量都是从1-S中随机一个整数求Max(X[1……n])的指望
Max(X[1……n])指的是这一段数中最大的数
\(E(Max(X[1……n])) = \sum\limits_{i=1}^SP(Max(X[1……n]) = i) \times i\)
\(=\sum\limits_{i=1}^S[P(M\le i) - P(M\le {i-1})] \times i\)
\(=\sum\limits_{i=1}^S[(\dfrac{i}{S})^n - (\dfrac{i-1}{S})^n] \times i\)
先解释一下第一步,为何出来了\(P(M\le i) - P(M\le {i-1})\),这就用到了前缀和的思想了,\(P(M\le i) - P(M\le {i-1}) = P(M=i)\)这很显然就是正确的,因此原式到第一步没有问题,可是这样作有什么意义呢?
不着急,且看第二步
这样看一下,\(P(M\le i)\)的几率,先看\(P(M\le i)\),就是每个数都是小于等于i的状况那么一位是小于等于i的几率就是\(\dfrac{i}{S}\),因此n位都小于等于i的几率就是\((\dfrac{i}{S})^n\),同理\((\dfrac{i-1}{S})^n\)也能够求出来了。
\(P(Max(X[1……n]) = i)\)是很难求的,可是进行完第一步以后就很好算了,这就是第一二步的意义所在了。
(名字是我本身取的不喜勿喷)
每次随机一个[1,n]的整数,问指望几回可以凑齐全部的整数
令:\(A_i\)表示凑完了\(i-1\)个数,凑第\(i\)的指望步数
一共有\(n\)个数,凑完了\(i-1\)个,那就还有\(n-(i-1)\)个数,即\(n-i+1\)个数没有出现,因此第\(i\)个位置出现一个以前没有出现过的数的几率就是\(\dfrac{n-i+1}{n}\),因此指望步数就是\(\dfrac{1}{p}\),等于\(\dfrac{n}{n-i+1}\)
式子:
\[E(\sum\limits_{i=1}^nA_i) = \sum\limits_{i=1}^nE(A_i)=\sum\limits_{i=1}^n\dfrac{n}{n-i+1}\]
随机一个长度为n的排列P,求P[1……i]中P[i]是最大数的几率
只有两种可能P是最大数,P不是最大数,因此几率就是\(\dfrac{1}{2}\)
.........
很无语,虽然这么思考百分之99都是错误的,可是用在这里恰好合适,等价的思想,嗯。
随机一个长度为n的排列P,求i在j后面的几率
嗯,又是和上面同样只有两种可能i在j前面和i在j后面,因此可能性又是
\(\dfrac{1}{2}\),等价的思想。
不过想要严格证实一下也是能够的:
\[\dfrac{C_n^2(n-2)!}{2n!}\] n个数里面取2个数,剩下的直接拍序,组合的方式是(n-2)的阶乘种,而后总的方案数是n!种,因此几率就是n个数里面取2个数的方案乘以(n-2)!再除以n!,不过单纯的取2个数有i在j前面也有i在j后面的可能,各占一半的几率,因此再除以2就是最后的结果了。