Lei da probabilidade total

Teoria das probabilidades
  • Axiomas de probabilidade
  • v
  • d
  • e

Em teoria das probabilidades, a lei da probabilidade total é uma regra fundamental que relaciona probabilidades marginais e probabilidades condicionais. Ela expressa a probabilidade total de um resultado que pode ser realizado através de vários eventos distintos.

Expressão Formal

A lei da probabilidade total[1] é a proposição de que se { B n : n = 1 , 2 , 3 , } {\displaystyle \left\{{B_{n}:n=1,2,3,\ldots }\right\}} é uma partição finita ou infinita contável de um espaço amostral, i.e. um conjunto de eventos disjuntos pares cuja união é todo o espaço da amostra, e cada evento Bn é mensurável, então, para qualquer evento A do mesmo espaço de probabilidade:

Pr ( A ) = n Pr ( A B n ) {\displaystyle \Pr(A)=\sum _{n}\Pr(A\cap B_{n})\,}

ou, alternativamente,[1]

Pr ( A ) = n Pr ( A B n ) Pr ( B n ) , {\displaystyle \Pr(A)=\sum _{n}\Pr(A\mid B_{n})\Pr(B_{n}),\,}

onde, para qualquer n {\displaystyle n\,} para que Pr ( B n ) = 0 {\displaystyle \Pr(B_{n})=0\,} estes termos são omitidos na soma, pois Pr ( A B n ) {\displaystyle \Pr(A\mid B_{n})\,} é finito. A soma pode ser interpretada como uma média ponderada e, por isso, a probabilidade marginal Pr ( A ) {\displaystyle \Pr(A)} pode ser chamada de "probabilidade média" ("average probability", em inglês).[2]

A lei da probabilidade total também pode ser indicada para probabilidades condicionais. Tomando o mesmo B n {\displaystyle B_{n}} acima, e assumindo que C {\displaystyle C} é um evento independente com qualquer dos eventos de B n {\displaystyle B_{n}} :

Pr ( A C ) = n Pr ( A C B n ) Pr ( B n C ) = n Pr ( A C B n ) Pr ( B n ) {\displaystyle \Pr(A\mid C)=\sum _{n}\Pr(A\mid C\cap B_{n})\Pr(B_{n}\mid C)=\sum _{n}\Pr(A\mid C\cap B_{n})\Pr(B_{n})}

Expressão Informal

A expressão matemática acima pode ser interpretada da seguinte forma: "Dado um resultado A {\displaystyle A} , com probabilidades condicionais conhecidas dado qualquer evento de B n {\displaystyle B_{n}} , cada um com sua probabilidade, qual é a probabilidade total de que A {\displaystyle A} vai acontecer?". A resposta para esta questão é Pr ( A ) {\displaystyle \Pr(A)} .

Exemplo

Suponha que duas fábricas forneçam lâmpadas para o mercado. As lâmpadas da fábrica X trabalham por mais de 5 000 horas em 99% dos casos, enquanto as lâmpadas de Y trabalham por mais de 5 000 horas em 95% dos casos. Sabe-se que a fábrica X fornece 60% das lâmpadas. Qual é a chance de que a lâmpada comprada irá funcionar por mais de 5 000 horas? Aplicando a lei da probabilidade total, nós temos:

Pr ( A ) = Pr ( A | B 1 ) Pr ( B 1 ) + Pr ( A | B 2 ) Pr ( B 2 ) = 99 100 6 10 + 95 100 4 10 = 594 + 380 1000 = 974 1000 {\displaystyle {\Pr(A)=\Pr(A|B_{1})}\cdot {\Pr(B_{1})}+{\Pr(A|B_{2})}\cdot {\Pr(B_{2})}={99 \over 100}\cdot {6 \over 10}+{95 \over 100}\cdot {4 \over 10}={{594+380} \over 1000}={974 \over 1000}} ,

onde

  • Pr ( B 1 ) = 6 10 {\displaystyle \Pr(B_{1})={6 \over 10}} é a probabilidade que a lâmpada comprada foi feita pela fábrica X
  • Pr ( B 2 ) = 4 10 {\displaystyle \Pr(B_{2})={4 \over 10}} é a probabilidade que a lâmpada comprada foi feita pela fábrica Y
  • Pr ( A | B 1 ) = 99 100 {\displaystyle \Pr(A|B_{1})={99 \over 100}} é a probabilidade que a lâmpada feita por X vai funcionar por mais de 5 000 h
  • Pr ( A | B 2 ) = 95 100 {\displaystyle \Pr(A|B_{2})={95 \over 100}} é a probabilidade que a lâmpada feita por Y vai funcionar por mais de 5 000 h

Assim, cada lâmpada comprada tem uma chance de 97,4% para o trabalho por mais de 5 000 horas.

Aplicações

Uma aplicação comum da lei é o lugar onde os eventos coincidem com uma variável aleatória discreta X tomando cada valor em sua faixa, ou seja, B n {\displaystyle B_{n}} é o evento X = x n {\displaystyle X=x_{n}} . Segue-se que a probabilidade do evento A é igual ao valor esperado das probabilidades condicionais de um dado X = x n {\displaystyle X=x_{n}} . Isto é,

Pr ( A ) = n Pr ( A X = x n ) Pr ( X = x n ) = E [ Pr ( A X ) ] , {\displaystyle \Pr(A)=\sum _{n}\Pr(A\mid X=x_{n})\Pr(X=x_{n})=\operatorname {E} [\Pr(A\mid X)],}

em que P r ( A | X ) {\displaystyle Pr(A|X)} é a probabilidade condicional de um dado valor da variável aleatória X. Esta probabilidade condicional é uma variável aleatória cujo valor depende de X. A probabilidade condicional P r ( A | X = x ) {\displaystyle Pr(A|X=x)} é simplesmente uma probabilidade condicional de um evento, [X = x]. Sendo uma função de x, por exemplo g ( x ) = P r ( A | X = x ) {\displaystyle g(x)=Pr(A|X=x)} . Então a probabilidade condicional Pr(A|X) é g(x), portanto, uma variável aleatória. Esta versão da lei da probabilidade total diz que o valor esperado da variável aleatória é o mesmo que Pr(A). Este resultado pode ser generalizado para variáveis ​​aleatórias contínuas, e a expressão se torna

Pr ( A ) = E [ Pr ( A F X ) ] , {\displaystyle \Pr(A)=\operatorname {E} [\Pr(A\mid {\mathcal {F}}_{X})],}

onde F X {\displaystyle {\mathcal {F}}_{X}} denota a sigma-álgebra gerada pela variável aleatória X.

Outros Nomes

O termo lei da probabilidade total também é conhecido como lei das alternativas, que é um caso especial da lei da probabilidade total aplicado à variáveis ​​aleatórias discretas. Um autor ainda utiliza a terminologia "lei contínua de alternativas", no caso contínuo.[3] Este resultado é dado por Geoffrey Grimmett e Welsh[4] como o teorema de partição, um nome que eles também dão à lei de expectativa total.

Veja Também

  • Lei da expectativa total (Law of total expectation)
  • Lei da variância total (Law of total variance)
  • Lei da acumulação total (Law of total cumulance)

Referências

  1. a b Zwillinger, D., Kokoska, S. (2000) CRC Standard Probability and Statistics Tables and Formulae, CRC Press. ISBN 1-58488-059-7 page 31.
  2. Paul E. Pfeiffer (1978). Concepts of probability theory. [S.l.]: Courier Dover Publications. pp. 47–48. ISBN 978-0-486-63677-1 
  3. Kenneth Baclawski (2008). Introduction to probability with R. [S.l.]: CRC Press. p. 179. ISBN 978-1-4200-6521-3 
  4. Probability: An Introduction, by Geoffrey Grimmett and Dominic Welsh, Oxford Science Publications, 1986, Theorem 1B.
  • Introduction to Probability and Statistics by William Mendenhall, Robert J. Beaver, Barbara M. Beaver, Thomson Brooks/Cole, 2005, page 159.
  • Theory of Statistics, by Mark J. Schervish, Springer, 1995.
  • Schaum's Outline of Theory and Problems of Beginning Finite Mathematics, by John J. Schiller, Seymour Lipschutz, and R. Alu Srinivasan, McGraw–Hill Professional, 2005, page 116.
  • A First Course in Stochastic Models, by H. C. Tijms, John Wiley and Sons, 2003, pages 431–432.
  • An Intermediate Course in Probability, by Alan Gut, Springer, 1995, pages 5–6.