Перед тем как излагать теорему умножения вероятностей, введем ещё одно важное понятие: понятие о независимых и зависимых событиях.
    Событие \(A\) называется независимым от события \(B\), если вероятность события \(A\) не зависит от того, произошло событие \(B\) или нет.
    Событие \(A\) называется зависимым от события \(B\), если вероятность события \(A\) меняется в зависимости от того, произошло событие \(B\) или нет.
    Рассмотрим примеры.
    1) Опыт состоит в бросании двух монет; рассматриваются события:

\(A\) - появление герба на первой монете,

\(B\) - появление герба на второй монете.

    В данном случае вероятность события \(А\) не зависит от того, произошло событие \(B\) или нет; событие \(А\) независимо от события \(В\).
    2) В урне два белых шара и один черный; два лица вынимают из урны по одному шару; рассматриваются события:
\(A\) - появление белого шара у 1-го лица,

\(B\) - появление белого шара у 2-го лица.

    Вероятность события \(A\) до того, как известно что-либо о событии \(A\), равна \(\frac{2}{3}\). если стало известно, что событие \(B\) произошло, то вероятность события \(А\) становится равной \(\frac{1}{2}\), из чего заключаем, что событие \(A\) зависит от события \(В\).
    Вероятность события \(A\), вычисленная при условии, что имело место другое событие \(B\), называется условной вероятностью события \(A\) и обозначается
$$P(A|B).$$

    Теорема. Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое имело место:
$$P(AB)=P(A)P(B|A).$$

    Следствие 1. Если событие \(A\) не зависит от события \(B\), то и событие \(B\) не зависит от события \(A\).
    Доказательство. Дано, что событие \(A\) не зависит от \(B\), т.е.
$$P(A)=P(A|B),$$
Требуется доказать, что событие \(B\) не зависит от \(A\), т.е.
$$P(B)=P(B|A).$$
При доказательстве будем предполагать, что \(P(A)\neq 0.\)
Напишем теорему умножения вероятностей в двух формах:
$$P(AB)=P(A)P(B|A),$$
$$P(AB)=P(B)P(A|B).$$
откуда
$$P(A)P(B|A)=P(B)P(A|B)$$
или, согласно условию \(P(A)=P(A|B)\),
$$P(A)P(B|A)=P(B)P(A)$$
Разделим обе части равенства на \(P(A)\). Получим:
$$P(B|A)=P(B)$$
что и требовалось доказать.
    Из следствия 1 вытекает, что зависимость или независимость событий всегда взаимны. В связи с этим можно дать следующее новое определение независимых событий.
    Два события называются независимыми, если появление одного из них не изменяет вероятности появления другого.
    Понятие независимости событий может быть распространено на случай произвольного числа событий. Несколько событий называются независимыми, если любое из них не зависит от любой совокупности остальных.
    Следствие 2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий.
    Следствие непосредственно вытекает из определения независимых событий.
    Теорема умножения вероятностей может быть обобщена на случай произвольного числа событий. В общем виде она формулируется так.
    Вероятность произведения нескольких событий равна произведению вероятностей этих событий, причем вероятность каждого следующего по порядку события вычисляется при условии, что все предыдущие имели место:
$$P(A_{1}A_{2}...A_{n})=P(A_{1})P(A_{2}|A_{1})P(A_{3}|A_{1}A_{2})...P(A_{n}|A_{1}A_{2}...A_{n}).$$
    В случае независимых событий теорема упрощается и принимает вид:
$$P(A_{1}A_{2}...A_{n})=P(A_{1})P(A_{2})...P(A_{n}).$$
т.е. вероятность произведения независимых событий равна произведению вероятностей этих событий.
    Применяя знак произведения, теорему можно записать в виде:
$$P(\prod_{i=1}^{n}{A_{i}})=\prod_{i=1}^{n}{P(A_{i})}$$


2012-11-04 • Просмотров [ 1921 ]