вероятность события

Теорема Байеса и определение вероятности события

Томас Байес был не только священником в пресвитерианской церкви, но также статистиком и философом, сформулировавшим свою теорему в первой половине XVIII века. При его жизни эта теорема никогда не публиковалась, но впоследствии она сделала революцию в теории вероятности, введя понятие условной вероятности, упомянутой в предыдущем разделе. Благодаря теореме Байеса прогноз вероятности того, что человек является мужчиной или женщиной, становится более простым, если есть доказательство, что у человека длинные волосы. Вот формула, используемая Томасом Байесом:

P(A|B)=P(A)xP(B|A)/P(B)

Преподобный Байес не разрабатывал наивный байесовский классификатор; он только сформулировал теорему. По правде говоря, никакого точного определения этого алгоритма нет. Впервые он появился в одной из книг 1973 года безо всякой ссылки на его создателя и оставался незамеченным более десятилетия, до 1990 года, когда исследователи обратили внимание на то, с какой невероятной точностью он выполняет прогнозы, если предоставить ему достаточно много точных данных. Применение этой формулы к предыдущему примеру в качестве ввода может дать лучшее представление об этой малопонятной в противном случае формуле.

P(A|B). Вероятность веры при данном наборе доказательств. Считайте веру альтернативным выражением гипотезы. В данном случае гипотеза — это то, что человек — женщина, а доказательство — длинные волосы. Знание вероятности веры способно помочь прогнозировать пол человека с некой уверенностью.

P(A). Вероятность наличия длинных волос, когда человек — женщина. Этот термин относится к вероятности доказательства в подгруппе, которая сама является условной вероятностью. В данном случае примерно 60 процентов, что преобразуется в значение 0,6 в формуле.

P(B|A). Общая вероятность того, что человек — женщина, т.е. априорная вероятность веры. В данном случае вероятность составляет 50 процентов, или значение 0,5.

P(B). Общая вероятность наличия длинных волос. Это другая априорная вероятность, на сей раз связанная с наблюдаемым доказательством. Это 35-процентная вероятность, которая в формуле является значением 0,35.

Если решить приведенную выше задачу, используя ее значения и формулу Байеса, получится результат 0,бх0,5/0,35=0,857. Это высокий процент от вероятности, позволяющий утверждать, что при данных обстоятельствах человек, вероятно, является женщиной.

Другим наиболее популярным примером, способным открыть некоторым глаза и обычно приводимым в учебниках и научных журналах, является пример положительного медицинского анализа. Он весьма интересен для лучшего понятия того, как априорные и апостериорные вероятности могут действительно существенно изменяться в зависимости от обстоятельств.

Скажем, вы обеспокоены тем, что могли заболеть очень редкой болезнью, встречающейся у 1% населения. Вы сдаете анализ, и результат положительный. Медицинские анализы никогда не бывают совершенно точными, и в лаборатории вам говорят, что, когда дело плохо, анализ положителен в 99 процентах случаев, тогда как если вы здоровы, анализ будет отрицательным в 99% случаев. Теперь, уже имея представление, вы сразу полагаете, что дело плохо, с учетом весьма высокого процента положительного результата, когда человек действительно болен. Однако действительность совершенно иная. В данном случае теорема Байеса применима следующим образом: вычисление дает 0,01х0,99/0,0198 = 0,5, что соответствует только 50-процентной вероятности заболевания. В конце концов, ваши шансы не быть больным куда больше, чем вы ожидали. Возникает вполне резонный вопрос, как это так? Факт в том, что количество людей, видящих положительный результат анализа, таков.

Действительно больные и получающие правильный результат анализа. Эта группа действительно позитивна, и она составляет 99% больных от 1 процента всего населения.

Здоровые, получившие неправильный результат анализа. Эта группа составляет 1 процент от 99 процентов людей, получивших позитивный результат, даже при том что они не больны. И снова, это умножение 99% и 1 процента. Эта группа соответствует ошибочно позитивным.

Если взглянуть на проблему с этой точки зрения, становится очевидным, почему. Ограничив контекст людьми, получившими положительный результат анализа, можно сказать, что есть вероятность оказаться в группе истинно положительных, но с той же вероятностью можно оказаться и в группе ошибочно положительных.

Представление реального мира

Теорема Байеса может помочь рассчитать, с какой вероятностью произойдет некое событие в определенном контексте, на основании общей вероятности самого факта и исследованных доказательств совместно с вероятностью доказательств данного факта. Иногда одна часть доказательства уменьшает сомнения и обеспечивает достаточную уверенность в прогнозе, чтобы нечто гарантировать. Как истинный детектив, чтобы достигнуть уверенности, вы должны собрать в своем расследовании больше доказательств и заставить отдельные части сложиться вместе. Обратите внимание, что факта наличия у человека длинных волос недостаточно, чтобы утверждать, что человек является женщиной или мужчиной. Но дополнительные данные о росте и весе вполне могут повысить уверенность.

Алгоритм наивного байесовского классификатора позволяет упорядочить все собранные доказательства и достичь более обоснованного прогноза с более высокой вероятностью правильности. Полученное доказательство, рассматриваемое отдельно, не может предохранить вас от риска неправильного предсказания, но суммирование всех доказательств позволяет достичь более категорического результата. Следующий пример демонстрирует, как работает наивный байесовский классификатор. Это известная задача, но она демонстрирует виды возможностей, которых можно ожидать от искусственного интеллекта. Задача требует, чтобы искусственный интеллект предложил наилучшие погодные условия для игры в теннис.

Эти аргументы представляют реальные условия, у которых есть несколько причин или причины которых взаимосвязаны. Алгоритм наивного байесовского классификатора прекрасен, когда справедливо предполагается наличие нескольких причин.

Алгоритм вычисляет балл на основании вероятности принятия конкретного решения, умноженной на вероятность доказательства, связанного с этим решением. Например, чтобы принять решение, играть ли в теннис, когда погода солнечная, но ветер силен, алгоритм вычисляет балл для положительного ответа, умножая общую вероятность игры на вероятность того, что день был солнечным и наличия ветра при игре в теннис. Те же самые правила применимы и в негативном случае:

  • вероятность игры: 9/14х2/9х3/9 = 0,05;
  • вероятность отказа от игры: 5/14х3/5х3/5 = 0,13.

Поскольку балл для вероятности выше, алгоритм решает, что при таких условиях лучше не играть. Эта вероятность вычисляется суммированием двух баллов и делением обоих баллов на их сумму:

  • вероятность игры: 0,05/0,18=0,278
  • вероятность отказа от игры: 0,13 /0,18 = 0,722

Используя байесовскую сеть, состоящую из графов, представляющих взаимосвязь событий, наивный байесовский классификатор можно дополнять и далее, чтобы представлять куда более сложные отношения, чем набор факторов, которые и так намекают на вероятный результат. У байесовских графов есть узлы, представляющие события, и дуги, представляющие связь данного события с другими, а также таблицы условных вероятностей, описывающих эти связи в терминах вероятности.

Представлена сеть Азия. Она демонстрирует возможные состояния пациента и их причины. Например, если у пациента одышка, это может быть симптомом туберкулеза, рака легких или бронхита. Знание, курит ли пациент, был ли в Азии и имеет ли аномалии на рентгеновских снимках, позволяет вычислить реальные вероятности наличия в графе любой из патологий.

В основе байесовских сетей, несмотря на их интуитивную понятность, лежит сложный математический механизм, они куда мощнее простого алгоритма наивного байесовского классификатора, поскольку подражают реальности как последовательности причин и следствий на основании вероятностей. Байесовские сети настолько эффективны, что вы можете использовать их для моделирования любой ситуации. Они применяются для множества целей, таких как медицинская диагностика, обработка неполных данных, поступающих от нескольких сенсоров, экономическое моделирование, а также контроль таких сложных систем, как автомобиль. Например, поскольку вождение в напряженной дорожной обстановке подразумевает сложные ситуации с участием многих транспортных средств, известный консорциум в сотрудничестве с ведущей автомобилестроительной компанией разработал байесовскую сеть, способную распознавать маневры транспортных средств и повышать безопасность.