Distribució binomial de Poisson

Infotaula distribució de probabilitat Distribució binomial de Poisson
Tipusdistribució univariant i distribució de probabilitat discreta Modifica el valor a Wikidata
EpònimSiméon Denis Poisson Modifica el valor a Wikidata
Paràmetres p [ 0 , 1 ] n {\displaystyle \mathbf {p} \in [0,1]^{n}} — probabilitats d'èxit per cadascun dels n assajos
Suportk ∈ { 0, …, n }
FD l = 0 k A F l i A p i j A c ( 1 p j ) {\displaystyle \sum \limits _{l=0}^{k}\sum \limits _{A\in F_{l}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}(1-p_{j})}
Esperança matemàtica i = 1 n p i {\displaystyle \sum \limits _{i=1}^{n}p_{i}}
Variància σ 2 = i = 1 n ( 1 p i ) p i {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-p_{i})p_{i}}
Coeficient de simetria 1 σ 3 i = 1 n ( 1 2 p i ) ( 1 p i ) p i {\displaystyle {\frac {1}{\sigma ^{3}}}\sum \limits _{i=1}^{n}(1-2p_{i})(1-p_{i})p_{i}}
Curtosi 1 σ 4 i = 1 n ( 1 6 ( 1 p i ) p i ) ( 1 p i ) p i {\displaystyle {\frac {1}{\sigma ^{4}}}\sum \limits _{i=1}^{n}(1-6(1-p_{i})p_{i})(1-p_{i})p_{i}}
FC j = 1 n ( 1 p j + p j e i t ) {\displaystyle \prod \limits _{j=1}^{n}(1-p_{j}+p_{j}e^{it})}

En teoria de la probabilitat i estadística, la distribució binomial de Poisson és la distribució de probabilitat discreta d'una suma d'assajos de Bernoulli estadísticament independents que no estan distribuïts necessàriament de manera idèntica. El concepte rep el nom del matemàtic i físic francès Siméon Denis Poisson.

En altres paraules, és la distribució de probabilitat del nombre d'èxits en una següència d'n assajos independents amb probabilitats d'èxit p 1 , p 2 , , p n {\displaystyle p_{1},p_{2},\dots ,p_{n}} . La distribució binomial és un cas especial de distribució binomial de Poisson, en què totes les probabilitats d'èxit són iguals, és a dir p 1 = p 2 = = p n {\displaystyle p_{1}=p_{2}=\cdots =p_{n}} .

Mitjana i variància

Com que la variable distribuïda binomial de Poisson és una suma de n variables distribuïdes independents de Bernoulli, la seva mitjana i variància són simplement les sumes de les mitjanes i les variàncies de n distribucions de Bernoulli:

μ = i = 1 n p i {\displaystyle \mu =\sum \limits _{i=1}^{n}p_{i}}
σ 2 = i = 1 n ( 1 p i ) p i {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-p_{i})p_{i}}

Per valors fixats de la mitjana ( μ {\displaystyle \mu } ) i la mida de la mostra (n), la variància és màxima quan totes les probabilitats d'èxit són iguals i es té una distribució binomial. Quan la mitjana està fixada, la variància està fitada per dalt per la variància de la distribució de Poisson amb la mateixa mitjana que s'obté asimptòticament a mesura que n tendeix a infinit.

Funció de massa de probabilitat

La probabilita de tenir k assajos exitosos d'un total de n, es pot escriure com la suma: [1]

Pr ( K = k ) = A F k i A p i j A c ( 1 p j ) {\displaystyle \Pr(K=k)=\sum \limits _{A\in F_{k}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}(1-p_{j})}

on F k {\displaystyle F_{k}} és el conjunt de tots els subconjunts de k enters que es poden seleccionar de {1,2,3,...,n}. Per exemple, si n = 3 i k = 2, llavors F 2 = { { 1 , 2 } , { 1 , 3 } , { 2 , 3 } } {\displaystyle F_{2}=\left\{\{1,2\},\{1,3\},\{2,3\}\right\}} . A c {\displaystyle A^{c}} és el complement de A {\displaystyle A} , és a dir A c = { 1 , 2 , 3 , , n } A {\displaystyle A^{c}=\{1,2,3,\dots ,n\}\setminus A} .

F k {\displaystyle F_{k}} contindrà n ! / ( ( n k ) ! k ! ) {\displaystyle n!/((n-k)!k!)} elements, la suma sobre el qual no és factible de calcular a la pràctica llevat que el nombre d'assajos n sigui petit (per exemple si n = 30, F 15 {\displaystyle F_{15}} conté uns 1020 elements). Tanmateix, hi ha altres maneres més eficients de calcular Pr ( K = k ) {\displaystyle \Pr(K=k)} .

Sempre que cap de les probabilitats d'èxit sigui igual a u, es pot calcular la probabilitat de k assajos exitosos usant la fórmula recursiva:[2] [3]

Pr ( K = k ) = { i = 1 n ( 1 p i ) k = 0 1 k i = 1 k ( 1 ) i 1 Pr ( K = k i ) T ( i ) k > 0 {\displaystyle \Pr(K=k)={\begin{cases}\prod \limits _{i=1}^{n}(1-p_{i})&k=0\\{\frac {1}{k}}\sum \limits _{i=1}^{k}(-1)^{i-1}\Pr(K=k-i)T(i)&k>0\\\end{cases}}}

on:

T ( i ) = j = 1 n ( p j 1 p j ) i . {\displaystyle T(i)=\sum \limits _{j=1}^{n}\left({\frac {p_{j}}{1-p_{j}}}\right)^{i}.}

La fórmula recursiva no és numèricament estable, i s'hauria d'evitar si n {\displaystyle n} és més gran que aproximadament 20. Una altra mètode és usant la transformada discreta de Fourier: .[4]

Pr ( K = k ) = 1 n + 1 l = 0 n C l k m = 1 n ( 1 + ( C l 1 ) p m ) {\displaystyle \Pr(K=k)={\frac {1}{n+1}}\sum \limits _{l=0}^{n}C^{-lk}\prod \limits _{m=1}^{n}\left(1+(C^{l}-1)p_{m}\right)}

on C = exp ( 2 i π n + 1 ) {\displaystyle C=\exp \left({\frac {2i\pi }{n+1}}\right)} and i = 1 {\displaystyle i={\sqrt {-1}}} .

Altres mètodes que es poden usar estan descrits a: [5]

Entropia

No hi ha cap fórmula per l'entropia de la distribució binomial de Poisson, però l'entropia està fitada superiorment per l'entropia d'una distribució binomial amb el mateix paràmetre n i la mateixa mitjana. Per tant, l'entropia també està fitada superiorment per una distribució de Poisson amb la mateixa mitjana.[6]

La conjectura de Shepp–Olkin, proposada per Lawrence Shepp i Ingram Olkin l'any 1981, exposa que l'entropia d'una distribució binomial de Poisson és una funció còncava de les probabilitats d'èxit p 1 , p 2 , , p n {\displaystyle p_{1},p_{2},\dots ,p_{n}} .[7] This conjecture was proved by Erwan Hillion and Oliver Johnson in 2015.[8]

Vegeu també

Referències

  1. Wang, Y. H. «On the number of successes in independent trials». Statistica Sinica, 3, 2, 1993, pàg. 295–312.
  2. Shah, B. K. «On the distribution of the sum of independent integer valued random variables». American Statistician, 27, 3, 1994, pàg. 123–124. JSTOR: 2683639.
  3. Chen, X. H.; A. P. Dempster; J. S. Liu «Weighted finite population sampling to maximize entropy». Biometrika, 81, 3, 1994, pàg. 457. DOI: 10.1093/biomet/81.3.457.
  4. Fernandez, M.; S. Williams «Closed-Form Expression for the Poisson-Binomial Probability Density Function». IEEE Transactions on Aerospace Electronic Systems, 46, 2, 2010, pàg. 803–817. Bibcode: 2010ITAES..46..803F. DOI: 10.1109/TAES.2010.5461658.
  5. Chen, S. X.; J. S. Liu «Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions». Statistica Sinica, 7, 1997, pàg. 875–892.
  6. Harremoës, P. «Binomial and Poisson distributions as maximum entropy distributions». IEEE Transactions on Information Theory, 47, 5, 2001, pàg. 2039–2041. DOI: 10.1109/18.930936.
  7. «Entropy of the sum of independent Bernoulli random variables and of the multinomial distribution». A: Contributions to probability: A collection of papers dedicated to Eugene Lukacs. New York: Academic Press, 1981, p. 201–206. ISBN 0-12-274460-8. 
  8. Hillion, Erwan; Johnson, Oliver «A proof of the Shepp-Olkin entropy concavity conjecture». Bernoulli, 23, 05-03-2015, pàg. 3638-3649. arXiv: 1503.01570. DOI: 10.3150/16-BEJ860.
  • Vegeu aquesta plantilla
Distribucions discretes
amb suport finit
Distribucions discretes
amb suport infinit
Distribucions contínues
suportades sobre un interval acotat
Distribucions contínues
suportades sobre un interval semi-infinit
Distribucions contínues
suportades en tota la recta real
Distribucions contínues
amb el suport de varis tipus
Barreja de distribució variable-contínua
Distribució conjunta
Discreta
Ewens
Multinomial
Multinomial de Dirichlet
Multinomial negativa
Contínua
Dirichlet
Dirichlet generalitzada
Estable multivariant
Gamma normal
Gamma normal inversa
Normal multivariable
t multivariable
Matriu de valor
Matriu gamma
Matriu gamma inversa
Matriu normal
Normal de Wishart
Normal de Wishart inversa
t matriu
Wishart
Wishart inversa
Direccionals
Univariada (circular)
Asimètrica de Laplace envoltada
Cauchy envoltada
Exponencial envoltada
Lévy envoltada
Normal envoltada
Circular uniforme
Univariada de von Mises
Bivariada (esfèrica)
Kent
Bivariada (toroidal)
Bivariada de von Mises
Multivariada
von Mises-Fisher
Bingham
Degenerada i singular
Degenerada
Delta de Dirac
Singular
Cantor
Famílies