http://lula.dmat.furg.br/~taba/fprob.htm (fórmulas)
http://vestibular.pucsp.br/2006/manual/pg_132.pdf#search='probabilidade%20da%20interse%C3%A7%C3%A3o' (explicação)
http://www.ime.usp.br/~mae116/aula/2006/c-2006-aula-04-probabilidade.pdf#search='probabilidade%20da%20interse%C3%A7%C3%A3o' (aula )
Probabilidade
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
modelo para aferir níveis de probalidadeA palavra probabilidade origina-se do Latim probare (provar ou testar). Informalmente, provável é uma das muitas palavras utilizadas para eventos incertos ou conhecidos, sendo também substituida por algumas palavras como “sorte”, “risco”, “azar”, “incerteza”, “duvidoso”, dependendo do contexto.
Tal como acontece com a teoria da mecânica, que atribui definições precisas a termos de uso diário, como trabalho e força, também a teoria das probabilidades tenta quantificar a noção de provável.
Em essência, existe um conjunto de regras matemáticas para manipular a probabilidade, listado no tópico "Formalização da probabilidade", embaixo. (Existem outras regras para quantificar a incerteza, como a teoria de Dempster-Shafer e a lógica difusa (fuzzy logic), mas estas são, em essência, diferentes e incompatíveis com as leis da probabilidade tal como são geralmente entendidas). No entanto, está em curso um debate sobre a que é, exactamente, que as regras se aplicam; a este tópico chama-se interpretações da probabilidade.
A idéia geral da probabilidade é frequentemente dividida em dois conceitos relacionados:
Probabilidade aleatória, que representa uma série de eventos futuros cuja ocorrência é definida por alguns fenômenos físicos aleatórios. Este conceito poder ser dividido em fenômenos físicos que são previsíveis através de informação suficiente e fenômenos que são essencialmente imprevisíveis. Um exemplo para o primeiro tipo é uma roleta, e um exemplo para o segundo tipo é um vazamento radioativo.
Probabilidade Epistemológica, que representa nossas incertezas sobre proposições quando não se tem conhecimento completo das circunstâncias causativas. Tais proposições podem ser sobre eventos passados ou futuros, mas não precisam ser. Alguns exemplos de probabilidade epistemiológica são designar uma probabilidade à proposição de que uma lei da Física proposta seja verdadeira, e determinar o quão "provável" é que um suspeito cometeu um crime, baseado nas provas apresentadas.
É uma questão aberta se a probabilidade aleatória é redutível à probabilidade epistemiológica baseado na nossa inabilidade de predizer com precisão cada força que poderia afetar o rolar de um dado, ou se tais incertezas existem na natureza da própria realidade, particularmente em fenômenos quânticos governados pelo princípio da incerteza de Heisenberg. Embora as mesmas regras matemáticas se apliquem não importando qual interpretação seja escolhida, a escolha tem grandes implicações pelo modo em que a probabilidade é usada para modelar o mundo real.
Tabela de conteúdo [esconder]
1 Marcos Históricos
2 Formalização da probabilidade
2.1 Representação e interpretação de valores de probabilidade
2.2 Distribuições
3 Probabilidade na matemática
3.1 Notas sobre cálculos de probabilidade
4 Aplicações da Teoria da Probabilidade no cotidiano
5 Ver também
6 Citações
7 Ligações externas
[editar]
Marcos Históricos
O estudo científico da probabilidade é um desenvolvimento moderno. Gambling mostra que o interesse em quantificar as idéias da probabilidade tem existido por milênios, mas as descrições matemáticas de uso nesses problemas só apareceram muito mais tarde.
A doutrina das probabilidades vêm desde a correspondência entre Pierre de Fermat e Blaise Pascal (1654). Christiaan Huygens (1657) deu o primeiro tratamento científico ao assunto. A Arte da Conjectura de Jakob Bernoulli (póstumo, 1713) e a Doutrina da Probabilidade de Abraham de Moivre (1718) trataram o assunto como um ramo da matemática.
A teoria dos erros pode ser originada do Opera Miscellanea de Roger Cotes (póstumo, 1722), mas um ensaio preparado por Thomas Simpson em 1755 (impresso em 1756) foi o primeiro a aplicar a teoria na discussão de erros de observação. A reimpressão (1757) desse ensaio estabelece os axiomas que erros positivos e negativos são igualmente prováveis, e que há certos limites que se podem associar em que pode se supor que todos os erros vão cair; erros contínuos são discutidos e uma curva de probabilidade é dada.
Pierre-Simon Laplace (1774) fez a primeira tentativa de deduzir uma regra para a combinação de observações dos princípios da teoria das probabilidades. Ele apresentou a lei da probabilidade dos erros por uma curva y = φ(x), x sendo qualquer erro e y sua probabilidades, e estabeleceu três propriedades dessa curva: (1) Ela é simétrica no eixo y; (2) ao eixo x, é assintótico; a probabilidade do erro quando é 0; (3) a área abaixo da curva da função é 1, sendo certo de que um erro existe. Ele deduziu uma fórmula para o significado das três observações. Ele também deu (1781) uma fórmula para a lei da facilidade de erros (um termo devido a Lagrange, 1774), mas que levava a equações não gerenciáveis. Daniel Bernoulli (1778) introduziu o princípio do produto máximo das probabilidades de um sistema de erros concorrentes.
O método do menor quadrado deve-se a Adrien-Marie Legendre (1805), que o introduziu em seu Nouvelles méthodes pour la détermination des orbites des comètes. Por ignorar a contribuição de Legendre, um escritor Americano-Irlandês, Robert Adrain, editor de "The Analyst" (1808), primeiro deduziu a lei da facilidade do erro,
c e h sendo constantes dependendo da precisão da observação. Ele deu duas provas, sendo a segunda essencialmente a mesma de John Herschel (1850). Carl Friedrich Gauß deu a primeira prova que parece ser conhecida na Europa (a terceira após a de Adrain) em 1809. Provas posteriores foram dadas por Laplace (1810, 1812), Gauß (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), Donkin (1844, 1856), e Morgan Crofton (1870). Outros que contribuiíram foram Ellis (1844), De Morgan (1864), Glaisher (1872), e Giovanni Schiaparelli (1875). A fórmula de Peters (1856) para r, o erro provável de uma observação simples, é bem conhecida.
No século XIX, os autores da teoria geral incluíam Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, e Karl Pearson. Augustus De Morgan e George Boole melhoraram a exibição da teoria.
No lado geométrico, (veja geometria integral), os contribuidores da The Educational Times foram influentes (Miller, Crofton, McColl, Wolstenholme, Watson, e Artemas Martin).
[editar]
Formalização da probabilidade
Como outras teorias, a teoria da probabilidade é uma representação dos conceitos probabilísticos em termos formais -- isso é, em termos que podem ser considerados separadamente de seus significados. Esses termos formais são manipulados pelas regras da matemática e da lógica, e quaisquer resultados são então interpretados ou traduzidos de volta ao domínio do problema.
Houve pelo menos duas tentativas com sucesso de formalizar a probabilidade, que foram as formulações de Kolmogorov e a de Cox. Na formulação de Kolmogorov, conjuntos são interpretados como eventos e a probabilidade propriamente dita como uma medida numa classe de conjuntos. Na de Cox, a probabilidade é entendida como uma primitiva (isto é, não analizada posteriormente) e a ênfase está em construir uma associação consistente de valores de probabilidade a proposições. Em ambos os casos, as leis da probabilidade são as mesmas, exceto por detalhes técnicos:
uma probabilidade é um número entre 0 e 1;
a probabilidade de um evento ou proposição e seu complemento, se somados, valem até 1; e
a probabilidade conjunta de dois eventos ou proposições é o produto da probabilidade de um deles e a probabiliade do segundo, condicionado na primeira.
O leitor vai encontrar uma exposição da formulação de Kolmogorov no artigo sobre teoria da probabilidade, e no artigo sobre o teorema de Cox a formulação de Cox. Veja também o artigo sobre os axiomas da probabilidade.
[editar]
Representação e interpretação de valores de probabilidade
A probabilidade de um evento geralmete é representada como um número real entre 0 e 1. um evento impossível tem uma probabildade de exatamente 0, e um evento certo de acotecer tem uma probabilidade de 1, mas a recíproca não é sempre verdadeira: eventos de probabilidade 0 não são sempre impossíveis, nem os de probabilidade 1 certos. A distinção bastante sutil entre "evento certo" e "probabilidade 1" é tratado em maior detalhe no artigo sobre "quase-verdade".
A maior parte das probabilidades que ocorrem na prática são números entre 0 e 1, que indica a posição do evento no continuum entre impossibilidade e certeza. Quanto mais próxima a probabilidade de um evento for de 1, mais provável é que o evento ocorra. Por exemplo, se dois eventos forem ditos igualmente prováveis, como por exemplo em um jogo de cara ou coroa, podemos exprimir a probabilidade de cada evento - cara ou coroa - como "1 em 2", ou, de forma equivalente, "50%", ou ainda "1/2".
Probabilidades também podem ser expressas como chances (odds). Chance é a razão entre a probabilidade de um evento e à probabilidade de todos os demais eventos. A chance de obtermos cara, ao lançarmos uma moeda, é dada por (1/2)/(1 - 1/2), que é igual a 1/1. Isto é expresso como uma "chance de 1 para 1" e é freqüentemente escrito como "1:1". Assim, a chance a:b para um certo evento é equivalente à probabilidade a/(a+b).
Por exemplo, a chance 1:1 é equivalente à probabilidade 1/2 e 3:2 é equivalente à probabilidade 3/5.
Ainda fica a questão de a quê exatamente pode ser atribuído uma probabilidade, e como os números atribuídos podem ser usados; isto é uma questão de interpretações de probabilidade.
Há alguns que alegam que pode-se atribuir uma probabilidade a qualquer tipo de proposição lógica incerta; esta é a interpretação bayesiana. Há outros que argumentam que a probabilidade só é aplicada apropriadamente a proposições que relacionam-se com sequências de experimentos repetidos, ou da amostragem de uma população grande; esta é a interpretação frequentista. Há ainda diversas outras interpretações que são variações de um ou de outro tipo.
[editar]
Distribuições
A distribuição da probabilidade é uma função que determina probabilidades para eventos ou proposições. Para qualquer conjunto de eventos ou proposições existem muitas maneiras de determinar probabilidades, de forma que a escolha de uma ou outra distribuição é equivalente a criar diferentes hipóteses sobre os eventos ou proposições em questão.
Há várias formas equivalentes de se especificar uma distribuição de probabilidade. Talvez a mais comum é especificar uma função densidade da probabilidade. Daí, a probabilidade de um evento ou proposição é obtida pela integração da função densidade.
A função distribuição pode ser também especificada diretamente. Em uma dimensão, a função distribuição é chamada de função distribuição cumulativa. As distribuições de probabilidade também podem ser especificadas via momentos ou por funções características, ou por outras formas.
Uma distribuição é chamada de distribuição discreta se for definida em um conjunto contável e discreto, tal como o subconjunto dos números inteiros; ou é chamada de distribuição contínua se tiver uma função distribuição contínua, tal como uma função polinomial ou exponencial. A maior parte das distribuições de importância prática são ou discretas ou contínuas, porém há exemplos de distribuições que não são de nenhum desses tipos.
Dentre as distribuições discretas importantes, pode-se citar a distribuição uniforme discreta, a distribuição de Poisson, a distribuição binomial, a distribuição binomial negativa e a distribuição de Maxwell-Boltzmann. Dentre as distribuições contínuas, a distribuição normal, a distribuição gama, the distribuição t de Student e a distribuição exponencial.
[editar]
Probabilidade na matemática
Os axiomas da probabilidade formam a base para a teoria da probabilidade matemática. O cálculo de probabilidades poder ser frequentemente determinado pelo uso da análise combinatorial ou pela aplicação direta dos axiomas. As aplicações da probabilidade vão muito além da estatística, que é geralmente baseada na idéia de distribuições de probabilidade e do teorema do limite central.
Para dar um significado matemático à probabilidade, considere um jogo de cara ou coroa. Intuitivamente, a probabilidade de dar cara, qualquer que seja a moeda, é "obviamente 50%"; porém, esta afirmação por si só deixa a desejar quanto ao rigor matemático - certamente, enquanto se pode esperar que, ao jogar essa moeda 10 vezes, teremos 5 caras e 5 coroas, não há garantias de que isso ocorrerá; é possível, por exemplo, conseguir 10 caras sucessivas. O que então o número "50%" significaria nesse contexto?
Uma proposta é usar a lei dos grandes números. Neste caso, assumimos que é exequível fazer qualquer número de arremessos da moeda, com cada resultado sendo independente - isto é, o resultado de cada jogada não é afetado pelas jogadas anteriores. Se executarmos N jogadas, e seja NH o número de vezes que a moeda deu cara, então pode-se considerar, para qualquer N, a razão NH/N.
Quando N se tornar cada vez maior, pode-se esperar que, em nosso exemplo, a razão NH/N chegará cada vez mais perto de 1/2. Isto nos permite "definir" a probabilidade Pr(H) das caras como o limite matemático, com N tendendo ao infinito, desta sequência de quocientes:
Na prática, obviamente, não se pode arremessar uma moeda uma infinidade de vezes; por isso, em geral, esta fórmula se aplica melhor a situações nas quais já se tem fixada uma probabilidade a priori para um resultado particular (no nosso caso, nossa convenção é a de que a moeda é uma moeda "honesta"). A lei dos grandes números diz que, dado Pr(H) e qualquer número arbitrariamente pequeno ε, existe um número n tal que para todo N > n,
Em outras palavras, ao dizer que "a probabilidade de caras é 1/2", queremos dizer que, se jogarmos nossa moeda tantas vezes o bastante, eventualmente o número de caras em relação ao número total de jogadas tornar-se-á arbitrariamente próximo de 1/2; e permanecerá ao menos tão próximo de 1/2 enquanto se continuar a arremessar a moeda.
Observe que uma definição apropriada requere a teoria da medida, que provê meios de cancelar aqueles casos nos quais o limite superior não dá o resultado "certo", ou é indefinido pelo fato de terem uma medida zero.
O aspecto a priori desta proposta à probabilidade é algumas vezes problemática quando aplicado a situações do mundo real. Por exemplo, na peça Rosencrantz e Guildenstern estão mortos, de Tom Stoppard, uma personagem arremessa uma moeda que sempre dá caras, uma centena de vezes. Ele não pode decidir se isto é apenas um evento aleatório - além do mais, é possível, porém improvável, que uma moeda honesta pudesse dar tal resultado - ou se a hipótese de que a moeda é honesta seja falsa.
[editar]
Notas sobre cálculos de probabilidade
A dificuldade nos cálculos de probabilidade se relacionam com determinar o número de eventos possíveis, contar as ocorrências de cada evento, contar o número total de eventos. O que é especialmente difícil é chegar a conclusões que tenham algum significado, a partir das probabilidades calculadas. Uma piada sobre probabilidade, o problema de Monty Hall, demonstra as armadilhas muito bem.
Para aprender mais sobre o básico da teoria da probabilidae, veja o artigo sobre os axioma da probabilidade e o artigo sobre o teorema de Bayes que explica o uso de probabilidades condicionais no caso em que a ocorrência de dois eventos é relacionada.
[editar]
Aplicações da Teoria da Probabilidade no cotidiano
Um efeito maior da teoria da probabilidade no cotidiano está na avaliação de riscos e no comércio no mercado de comodidades. Governos geralmente aplicam métodos de probabilidade na regulação ambiental onde é chamada de "análise de caminho", e estão frequentemente medindo o bem-estar usando métodos que são estocásticos por natureza, e escolhendo projetos com os quais se comprometer baseados no seu efeito provável na população como um todo, estatisticamente. De fato, não é correcto dizer que estatísticas estejam envolvidas na modelagem em si, dado que, normalmente, estimativas de risco são únicas (one-time) e, portanto, necessitam de modelos mais fundamentais como, por exemplo, para determinar "a probabilidade de ocorrência de outro atentado terrorista como o de 11 de setembro em Nova York". Uma lei de números pequenos tende a se aplicar a todas estas situações e à percepção dos efeitos relacionados a tais situações, o que faz de medidas de probabilidade uma questão política.
Um bom exemplo é o efeito nos preços do petróleo da probabilidade percebida de qualquer conflito mais abrangente no Oriente Médio - o que contagia a economia como um todo. A estimativa feita por um comerciante de comodidades de que uma guerra é mais (ou menos) provável leva a um aumento (ou diminuição) de preços e sinaliza a outros comerciantes aquela opinião. Da mesma forma, as probabilidades não são estimadas de forma independente nem, necessariamente, racional. A teoria de finança comportamental surgiu para descrever o efeito de tal pensamento em grupo (groupthink) na definição de preços, política, paz e conflito.
Uma aplicação importante da teoria das probabilidades no dia-a-dia é a questão da confiabilidade. No desenvolviemnto de muitos produtos de consumo, tais como automóveis e eletro-eletrônicos, a teoria da confiabilidade é utilizada com o intuito de se reduzir a probabilidade de falha que, por sua vez, está estritamente relacionada à garantia do produto. Outro bom exemplo é a aplicação da teoria dos jogos, uma teoria rigorosamente baseada na teoria das probabilidades, à Guerra Fria e à doutrina de destruição mútua assegurada.
Em suma, é razoável pensar que a descoberta de métodos rigorosos para estimar e combinar probabilidades tem tido um impacto profundo na sociedade moderna. Assim, pode ser de extrema importância para muitos cidadãos compreender como estimativas de chance e probabilidades são feitas e como elas contribuem para reputações e decisões, especialmente em uma democracia.
[editar]
Ver também
Probabilidade Bayesiana
Processo de Bernoulli
Teorema de Cox
Teoria da Decisão
Jogo de Azar
Teoria dos Jogos
Teoria da Informação
Lei das Médias
Lei dos Números Grandes
Distribuição Normal
Campos Aleatórios
Variável Aleatória
Estatística
Lista de tópicos estatísticos
Processo Estocástico
Processo de Wiener
Publicações Importantes sobre probabilidade
[editar]
Citações
O Wikiquote tem uma coleção de citações de ou sobre: Probabilidade.Damon Runyon, "It may be that the race is not always to the swift, nor the battle to the strong - but that is the way to bet."
- "pode ser que a corrida não seja sempre para o rápido nem a batalha para o forte - mas é assim que se deve apostar."
Pierre-Simon Laplace "It is remarkable that a science which began with the consideration of games of chance should have become the most important object of human knowledge."
- "É notável uma ciência que começou com jogos de azar tenha se tornado o mais importante objeto do conhecimento humano."
- Théorie Analytique des Probabilités, 1812.
Richard von Mises "The unlimited extension of the validity of the exact sciences was a characteristic feature of the exaggerated rationalism of the eighteenth century" (in reference to Laplace)
- "A extensão ilimitada da validade das ciências exatas era característica do racionalismo exagerado do século XVIII." - sobre Laplace).
- Probability, Statistics, and Truth, p 9. Dover edition, 1981 (republicação da segunda edição em inglês, 1957).
[editar]
Ligações externas
Coleção de artigos sobre Probabilidade, muitos dos quais são acompanhados de simulações em Java
Edwin Thompson Jaynes. Probability Theory: The Logic of Science. Preprint: Washington University, (1996). -- HTML and PDF
Probabilistic football prediction competition, probabilistic scoring and further reading.
"The Not So Random Coin Toss, Mathematicians Say Slight but Real Bias Toward Heads". NPR.
Figuring the Odds (Probability Puzzles)
Dictionary of the History of Ideas: Certainty in Seventeenth-Century Thought
Dictionary of the History of Ideas: Certainty since the Seventeenth Century
Dictionary of the History of Ideas:
Retirado de "http://pt.wikipedia.org/wiki/Probabilidade"
MAIS UMA AULA!!!
Biometria - Bioestatística
Probabilidade
(Leitura complementar ao capítulo 2)
No século XVII os matemáticos franceses Pierre de Fermat (1601-1665) e Blaise Pascal (1623-1662) iniciaram estudos sobre a teoria dos jogos com o objetivo principal de prever um resultado e obter êxito em suas apostas.
Seja nos jogos ou em qualquer outro experimento aleatório é possível associar uma medida para a incerteza quanto à ocorrência, ou não, de algum evento. Essa medida é chamada de probabilidade.
A probabilidade de um acontecimento ocorrer é definida como o quociente do número de eventos desejados pelo total de eventos possíveis (que constitui o espaço amostral).
PROBABILIDADE = número de eventos desejados / número de eventos possíveis
Valores da probabilidade
Assim, a probabilidade de um evento é representada como um número real entre 0 e 1 pois para eventos em que a ocorrência é garantida, dizemos que sua probabilidade é igual a 1 (certeza do acontecimento). Entretanto, para eventos que nunca ocorrerão a sua probabilidade é avaliada como 0 (impossibilidade da ocorrência).
Na prática, a maior parte das probabilidades que ocorrem são números entre 0 e 1, o que indica a posição do evento no "continuum" entre a impossibilidade e a certeza do acontecimento.
Evidentemente, quanto mais próxima a probabilidade de um evento for de 1, é mais provável que o evento ocorra. E ocorre o inverso quando se toma resultados com valor de probailidade próximos a zero: eles tem ocorrência mais improvável.
Já, se dois eventos forem ditos como igualmente prováveis, (Exemplo: lançamento de moeda), pode-se exprimir a probabilidade de cada evento - cara ou coroa - como "1 em 2", ou, "50%", ou ainda "1/2".
Exemplo 1
No lançamento de um dado não viciado, qual a probabilidade de cair face 4?
número de eventos desejados = 1 (só há uma face 4)
número de eventos possíveis = 6 (há 6 faces no dado). Portanto, P = 1/6
Exemplo 2
Um casal, em que ambos são homozigotos dominantes para uma certa característica, qual a probabilidade de terem uma criança também homozigota AA?
A resposta é P (AA) é igual a 1 ou 100%. Ou seja, existe 100% de chance da criança ser AA.
Entretanto, se a pergunta fosse: qual a probabilidade da criança 3 ser homozigota aa?
A ocorrência do evento (aa) tem probabilidade é igual a zero, pois não há genes a na família.
Ocorrência de 2 eventos - Como calcular?
1. Probabilidade de ocorrência de um OU outro acontecimento
Dois eventos são mutuamente exclusivos quando a ocorrência de um impede a ocorrência do outro e vice-versa.
A probabilidade de ocorrerem eventos mutuamente exclusivos é dada pela soma das probabilidades isoladas de ocorrência de cada um dos eventos.
Exemplos
a. Qual a probabilidade de cair face 3 ou face 6 em um único lançamento de dado?
P(3) = 1/6 P(6) = 1/6
P(3 ou 6) = 1/6 + 1/6 = 2/6 = 1/3
b. Qual a probabilidade de se retirar uma dama de um baralho previamente embaralhado?
P (dama copas) = 1/52 P (dama ouro) = 1/52 P (dama espadas) = 1/52 P (dama paus) = 1/52
Portanto, P (dama) = 1/52 + 1/52 + 1/52 + 1/52 = 4/52 = 1/13
2. Probabilidade de ocorrência de um E outro acontecimento
Dois eventos são independentes quando a ocorrência de um não influencia a probabilidade do outro ocorrer.
A probabilidade de ocorrerem eventos independentes é dada pela multiplicação das probabilidades isoladas de ocorrência de cada um dos eventos.
Condição 1: Os acontecimentos são iguais.
Exemplo
Qual a probabilidade de caírem 2 faces 3 no lançamento de 2 dados?
P (3) = 1/6
Logo, P (3 e 3) = 1/6 X 1/6 = 1/36
Condição 2: Os acontecimentos são diferentes.
Neste caso há que se considerar 2 tipos de situação:
2.1. A ordem de ocorrência dos acontecimentos é importante.
Exemplo
Qual a probabilidade de, em 2 lançamentos, cair face 1 no primeiro e face 2 no segundo?
Quais são os eventos possíveis?
Tudo o que pode acontecer é dado pelo Espaço amostral
EVENTOS POSSÍVEIS = ESPAÇO AMOSTRAL = ( S )
{ 1,1 1,2 1,3 1,4 1,5 1,6
2,1 2,2 2,3 2,4 2,5 2,6
3,1 3,2 3,3 3,4 3,5 3,6
4,1 4,2 4,3 4,4 4,5 4,6
5,1 5,2 5,3 5,4 5,5 5,6
6,1 6,2 6,3 6,4 6,5 6,6 }
Portanto: P (1) = 1/6 e P(2) = 1/6
P (1 no primeiro e 2 no segundo) = 1/6 x 1/6 = 1/36
2.2. A ordem de ocorrência dos acontecimentos não é importante.
Notar que no espaço amostral do exercício anterior (S), há a parcela ( 2,1 ), ou seja, caiu o número 2 no lançamento do primeiro dado e o 1 no outro. Isto não satisfazia a questão.
Mas, se a pergunta fosse: Qual a probabilidade de, em 2 lances, caírem faces 1 e 2?
P ( 1,2 ) = 1/36 P ( 2,1 ) = 1/36
Logo: P ( 1,2 ou 2,1) = 1/36 + 1/36 = 2/36 = 1/18
3. Probabilidade condicional
Considerando o lançamento de um dado, qual a probabilidade de em 1 jogada resultar em um número ímpar e menor que 3?
Menor que três: 1 e 2 e Ímpar = 1. Portanto apenas o número 1 satisfaz ambas as condições. Assim, P = 1/6
Potanto, a probabilidade do resultado ser um número ímpar e menor que 3 é a interseção desses eventos:
Menor que três: (1, 2) = 2/6 e Ímpar = (1, 3, 5) = 3/6. Assim, P = 1/6
Exemplos:
De um baralho de 52 cartas (13 de ouro, 13 de espadas, 13 de copas e 13 de paus) qual é a probabilidade de, ao ser retirada uma carta, ser uma dama de copas?
P = 1/52
De um baralho de 52 cartas (13 de ouro, 13 de espadas, 13 de copas e 13 de paus) qual é a probabilidade de, ao ser retirada uma carta, ser uma dama, sabendo-se que a carta retirada é de copas.
Como já se sabe que a carta é de copas, temos apenas 1 dama em um total de 13 cartas. A probabilidade é então: P(Q, copas) = 1/13.
4. Probabilidade de ocorrência de eventos repetidos
Se trabalharmos com muitos eventos haverá um grande número de combinações possíveis (evidentemente, se não considerarmos a ordem de sua ocorrência).
Exemplo: No lançamento de 4 moedas, qual a probabilidade de caírem 3 caras e 1 coroa?
ESPAÇO AMOSTRAL ( S ):
ca ca ca ca ca ca ca co* ca ca co ca* ca co ca ca*
co ca ca ca* ca ca co co ca co ca co ca co co ca
co ca co ca ca co co ca co co ca ca co ca ca co
ca co co co co ca co co co co ca co co co co co
Quantas combinações com 3 caras e 1 coroa são possíveis?
Este número pode ser calculado pela seguinte fórmula: C = n! / ( x!.y! ). Como y = (n-x). Portanto:
C = n! / [ x! . (n - x)! ]
em que:
n = número total de ocorrência dos eventos
! = fatorial
x = número de ocorrência de um dos eventos
Nesse exemplo: C = 4! / [3! x (4-3)!] = 4x3x2x1 / 3x2x1 x 1 = 24 / 6 = 4
Portanto, há 4 combinações possíveis (ca ca ca co - ca ca co ca - ca co ca ca - co ca ca ca).
Levando-se em conta apenas o número de caras e de coroas os 16 tipos de resultados podem ser agrupados em cinco classes, ou seja, com 0, 1, 2, 3 ou 4 resultados coroa (respectivamente com 4, 3, 2, 1 ou 0 resultados cara).
Esses resultados podem ser obtidos pelo desenvolvimento de (p + q )4, Binômio de Newton, cuja expansão gera uma equação em que pode-se usar o Triângulo de Pascal para calcular os coeficientes da equação, em que os coeficientes são: 1 : 4 : 6 : 4 : 1.
(p + q)4 = 1 p4q0+ 4 p3q1 + 6 p2q2 + 4 p1q3 + 1 p0q4
1 p4 q0 4 coroas e 0 caras
4 p3q1 3 coroas e 1 cara
6 p2q2 2 coroas e 2 caras
4 p1q3 1 coroa e 3 caras
1 p0q4 0 coroas e 4 caras
Em Genética, o triângulo é bastante útil em casos de herança quantitativa, determinada por vários pares de genes cumulativos. (Se desejar mais detalhes clicar aqui).
Quantas combinações existem se um casal quer ter 5 filhos, sendo 3 homens e 2 mulheres?
5! 5 x 4 x 3 x 2
C = -------- = ------------------ = 10
3! . 2! 3 x 2 x 2
Portanto, há 10 modos de nascerem 3 homens e 2 mulheres em 5 gestações:
h h h m m - h h m m h - h h m h m - h m m h h - h m h m h
h m h h m - m m h h h - m h m h h - m h h h m - m h h m h
Entretanto, para o cálculo de uma certa probabilidade, pode-se usar a seguinte fórmula P = C x px x q(n-x).
Como y = (n-x) e q = (1-p), chega-se a:
P = C . px . (1-p)(n-x) em que:
C = número de combinações
p = Probabilidade de ocorrência do evento 1
q = Probabilidade de ocorrência do evento 2
x = Número de vezes em que o evento 1 ocorre
n - x = Número de vezes em que o evento 2 ocorre
Exemplo
Qual a probabilidade de, em 5 gestações, um casal ter 3 meninos e 2 meninas?
P(menino) = P(menina) = 1/2 e C = 10
P(total) = 10 x (1/2)3 x (1/2)2 = 10 x 1/ 8 x 1/4 = 10/32 = 5/16
Média, Variância e Desvio padrão, se a distribuição for binomial
Sendo conhecidos os parâmetros da distribuição binomial (n e p):
Média da população = p = n.p usando o dado de um dos acontecimentos ou
q = n.q utilizando o dado do outro acontecimento
Variância da população = 2 2 = n.p.(1 - p) = n.p.q
Desvio padrão da população = = raiz n.p.q
Exemplo
Qual é o número esperado de resultados cara e de resultados coroa em 1000 lances de moeda e seu desvio padrão?
p (cara) = q (coroa) = 0,5
p = n.p = 1000 x 0,5 = 500 caras são esperadas
q = n.q = 1000 x 0,5 = 500 coroas são esperadas
= raiz (n.p.q) = raiz 1000 x 0,5 x 0,5 = 15,81
As últimas fórmulas caracterizam a distribuição binomial de probabilidades para a entidade estatística que está sendo estudada.
É importante notar que para gerar uma distribuição binomial é necessário definir apenas 2 quantidades: n e p, que caracterizam a distribuição de forma exata e são chamadas de parâmetros da distribuição.
Distribuição de Poisson
A distribuição de Poisson pode ser considerada como um caso particular da distribuição binomial, na qual a probabilidade de ocorrência de um dado evento é muito pequena.
Diferentemente da distribuição binomial, que é definida por 2 parâmetros (média e desvio-padrão), a distribuição de Poisson é definida por apenas um, a média, pois a variância é igual à média.
Tomando-se u = , de acordo com a distribuição de Poisson, as probabilidades de amostras ou subamostras apresentarem 0, 1, 2, 3, 4 ou mais vezes o acontecimento cuja probabilidade de ocorrência é muito pequena, são dadas por:
Número de ocorrências do evento: 0 1 2 3 4
Probabilidade de ocorrência: u0 / 1eu u1 / 1.eu u2 / 2.eu u3 / 2.3.eu u4 / 2.3.4.eu
1 / eu u / eu
u2 / 2.eu u3 / 2.3.eu u4 / 2.3.4.eu
Nessas expressões:
. u = : é a esperança matemática, ou seja, a média esperada de ocorrência de algum acontecimento pouco provável em um conjunto de sub-amostras
. o número irracional e tem valor igual a 2,718282, sendo que seu logaritmo natural é, aproximadamente, 0,434295.
Designando por n o número de subamostras analisadas, e simbolizando por u, os números esperados de amostras em que o acontecimento pouco provável ocorre 0, 1, 2, 3, 4 ou mais vezes são: Número de ocorrências do evento: 0 1 2 3 4
Números esperados de amostras n.u0 / eu n.u1 / eu n.u2 / 2.eu n.u3 / 2.3.eu n.u4 / 2.3.4.eu
n/eu n.u/eu n.u2/2.eu n.u3/2.3.eu n.u4/2.3.4.eu
Quando se quer calcular uma sucessão de valores esperados na distribuição de Poisson, por exemplo: número de amostras com 0, 1, 2, etc, eventos, procede-se do seguinte modo:
1. Aceitar a média, (), como o valor paramétrico da distribuição de Poisson,
2. Verifica-se qual é o número de amostras, o qual passa a ser aceito como n,
3. Aplica-se a fórmula para obtenção de amostras com zero eventos: n/eu
(Note que, usando logaritmos: n/eu = log n - (u. log e), onde log e = 0,434295)
4. O antilog do número obtido será o número esperado de amostras com 0 eventos.
Continuando, aplica-se a fórmula para obtenção de amostras com um evento: n.u / eu, em que log e = 0,434295
Note que, usando logaritmos, n.u/eu = log u + log n - (u. log e)
Repare que a parte sublinhada corresponde à primeira fórmula, portanto pode-se tomar o valor ali obtido e lhe acrescentar log u. Depois, toma-se o antilog do valor encontrado e tem-se o número esperado de amostras com 1 evento.
Continuando, aplica-se a fórmula para obtenção de amostras com dois eventos: n.u2 / 2.eu
Note que, usando logaritmos, n.u2/2.eu = 2 log u + log n - (u. log e + log 2),
Repare que a parte sublinhada corresponde à segunda fórmula, portanto pode-se tomar o valor ali obtido e lhe acrescentar log u (já que são 2) e diminuir o logaritmo do número de vezes que se deseja o evento (nesse caso log 2) . Depois, toma-se o antilog do valor encontrado e tem-se o número esperado de amostras com 2 eventos.
Continuando, aplica-se a fórmula para obtenção de amostras com três eventos: n.u3 / 2.3.eu
Note que, usando logaritmos, n.u3 / 2.3.eu = 3 log u + log n - (u. log e + log 2 + log 3)
Repare que a parte sublinhada corresponde à terceira fórmula, portanto pode-se tomar o valor ali obtido e lhe acrescentar log u (já que são 3) e diminuir o logaritmo do número de vezes que se deseja o evento (nesse caso log 3).
Depois, toma-se o antilog do valor encontrado e tem-se o número esperado de amostras com 3 eventos.
E continua-se com esse raciocínio até atingir o número de vezes desejado.
Copie esse texto comprimido como doc ou como odt
clicando na extensão desejada com o botão direito do mouse.
Depois, clique em algo semelhante a "Salvar destino como"
Escolha um drive e uma pasta e clique em OK.
Este "site", destinado prioritariamente aos alunos de Fátima Conti,
está disponível sob FDL (Free Documentation Licence),
pretende auxiliar quem se interessa por Bioestatística,
estando em permanente construção.
Sugestões e comentários são bem vindos.
Se desejar colaborar clique aqui. Agradeço antecipadamente.
2006-09-04 02:17:04
·
answer #1
·
answered by regina o 7
·
0⤊
0⤋