Байесовская статистика

Байесовская статистика — это теория в области статистики, основанная на байесовской интерпретации вероятности, когда вероятность отражает степень доверия событию, которая может измениться, когда будет собрана новая информация, в отличие от фиксированного значения, основанного на частотном подходе[1]. Степень доверия может основываться на априорных знаниях о событии, таких как результаты предыдущих экспериментов или личное доверие событию. Это отличается от ряда других интерпретаций вероятности, таких как частотная интерпретация, которая рассматривает вероятность как предел относительной частоты выпадения события после большого числа испытаний[2].

Введение

Байесовские статистические методы используют теорему Байеса для вычисления и обновления вероятностей после получения новых данных. Теорема Байеса описывает условную вероятность события на основе как данных, так и априорной информации или доверия событию или условий, связанных с событием. Например, в байесовском выводе теорему Байеса можно использовать для оценки параметра распределения вероятностей или статистической модели. Поскольку байесовская статистика трактует вероятность как степень доверия, теорема Байеса может прямо назначить распределение вероятности, которое даёт количественную оценку параметру или набору параметров[2].

Байесовская статистика названа именем Томаса Байеса, который сформулировал специальный случай теоремы Байеса в своей работе, опубликованной в 1763. В некоторых статьях, выпущенных от конца 1700-х годов до начала 1800-х, Пьер-Симон Лаплас развил байесовскую интерпретацию вероятности. Лаплас использовал методы, которые сейчас считаются байесовскими методами, для решения ряда статистических задач. Многие байесовские методы были разработаны более поздними авторами, но термин не использовался для описания таких методов до 1950-х годов. Большую часть XX века байесовские методы были нежелательными для большей части статистиков вследствие философских и практических соображений. Многие байесовские методы требуют больших вычислений и большинство методов, которые использовались в течение века, основывались на частотной интерпретации. Однако, с появлением мощных компьютеров и новых алгоритмов, таких как метод Монте-Карло для цепей Маркова, байесовские методы начинают с приходом XXI века использоваться с возрастающей интенсивностью[2][3].

Теорема Байеса

Теорема Байеса является фундаментальной теоремой в байесовской статистике, так как она используется байесовскими методами для обновления вероятностей, которые являются степенью доверия, после получения новых данных. Если даны два события и , условная вероятность , при условии, что верно, выражается формулой[4]:

где . Хотя теорема Байеса является фундаментальным результатом теории вероятностей, она имеет конкретную интерпретацию в байесовской статистике. В равенстве выше обычно представляет утверждение (такое, как утверждение, что монета ляжет вверх орлом в пятидесяти процентов случаев), а представляет обоснование, или новые данные, которые следует учитывать (такие как результат серии бросаний монеты). является априорной вероятностью события , которая выражает уверенность в событии до того, как обоснование принимается во внимание. Априорная вероятность может также дать количественную оценку знанию или информации о событии . является функцией правдоподобия, которую можно интерпретировать как вероятность свидетельства , при условии, что произошло событие . Правдоподобие даёт количественное значение степени, насколько свидетельство поддерживают утверждение . является апостериорной вероятностью, вероятностью утверждения после принятия во внимание свидетельства . По существу, теорема Байеса обновляет априорную уверенность после рассмотрения нового свидетельства [2].

Вероятность свидетельства можно вычислить с помощью формулы полной вероятности. Если является разбиением пространства элементарных событий, которое является набором всех исходов эксперимента, то[2][4]

Если имеется бесконечное число исходов, необходимо интегрировать по всем исходам для вычисления с помощью формулы полной вероятности. Часто вычислить трудно, так как приходится вовлекать суммирование или интегрирование, которые занимают много времени, так что часто рассматривается только произведение априорной вероятности и правдоподобия. Апостериорная вероятность пропорциональна этому произведению [2]:

Максимум апостериорной оценки, которая является модой апостериорной оценки и часто вычисляется в байесовской статистике с помощью методов математической оптимизации, остаётся той же. Апостериорная вероятность может быть аппроксимирована даже без точного вычисления значения методами, такими, как метод Монте-Карло для цепей Маркова или вариационные байесовские методы [2].

Байесовские методы

Общий набор статистических техник можно разделить на ряд направлений, многие из которых имеют специальные байесовские версии.

Байесовский вывод

Байесовский вывод относится к статистическим выводам, в которых неопределённость в выводе выражается количественно с помощью вероятности. В классическом частотном выводе параметры модели и гипотезы считаются фиксированными, а вероятности не назначаются параметрам или гипотезам в частотном выводе. Например, не имеет смысла в частотном выводе прямо указывать вероятность события, которое может случиться лишь один раз, такие как результат следующего броска симметричной монеты. Однако, будет иметь смысл утверждение, что доля выпадений орла сходится к одной второй при росте числа бросаний монеты[5].

Статистические модели определяют набор статистических допущений и процессов, которые представляют, как данные выборок формируются. Статистические модели имеют набор параметров, которые могут быть изменены. Например, монета может быть представлена как испытания с распределением Бернулли, которые моделируют два возможных исхода. Распределение Бернулли имеет один параметр, равный вероятности одного исхода, которая в большинстве случаев равна вероятности выпадения орла[6]. Создание хорошей модели для данных является центральным в байесовском выводе. В большинстве случаев модели лишь аппроксимируют действительные процессы и могут не принимать во внимание некоторые факторов, оказывающих влияние на данные[2]. В байесовском выводе вероятности могут быть назначены параметрам модели. Параметры могут быть представлены как случайные величины. Байесовский вывод использует теорему Байеса для обновления вероятностей после получения дополнительных данных[2][7].

Статистическое моделирование

Формулировка статистического моделирования с помощью байесовской статистики имеет отличительную особенность, заключающуюся в требовании указания априорных вероятностей для любых неизвестных параметров. Более того, параметры априорных вероятностей могут сами иметь априорные вероятности, что приводит к байесовскому иерархическому моделированию[8], или могут быть взаимозависимыми, что приводит к байесовским сетям.

Планирование экспериментов

Байесовский дизайн экспериментов включает концепцию, называемую «влияние априорной уверенности». Этот подход использует техники статистического анализа для включения исходов предыдущих экспериментов в планирование следующего эксперимента. Это достигается путём обновления «доверия» через использование априорного и апостериорного распределений. Это позволяет при планировании экспериментов использовать ресурсы всех видов. Примером служит задача о многоруком бандите.

Статистические графики

Статистические графики включает методы для исследования данных, обоснования адекватности модели и т.д. Использование некоторых современных компьютерных техник для байесовского вывода, особенно различных видов техник Монте-Карло для цепей Маркова, привели к необходимости проверки, часто в графическом виде, адекватности таких вычислений, отражающей требуемую апостериорную вероятность.

Примечания

  1. What are Bayesian Statistics?. deepai.org.
  2. Gelman, Carlin, Stern и др., 2013.
  3. Fienberg, 2006, с. 1–40.
  4. Grinstead, Snell, 2006.
  5. Wakefield, 2013.
  6. Имеется ввиду сторона монеты, другая сторона — решка
  7. Congdon, 2014.
  8. Hajiramezanali, Dadaneh и др., 2018.

Литература

  • Andrew Gelman, John B. Carlin, Hal S. Stern, David B. Dunson, Aki Vehtari, Donald B. Rubin. Bayesian Data Analysis, Third Edition. — Chapman and Hall/CRC, 2013. — ISBN 978-1-4398-4095-5.
  • Stephen E. Fienberg. When Did Bayesian Inference Become "Bayesian"? // Bayesian Analysis. — 2006. Т. 1, вып. 1.
  • Charles M. Grinstead, J. Laurie Snell. Introduction to probability. — 2nd. — Providence, RI: American Mathematical Society, 2006. — ISBN 978-0-8218-9414-9.
  • Peter Congdon. Applied Bayesian modelling. — 2nd. — Wiley, 2014. — ISBN 978-1119951513.
  • Hajiramezanali E., Dadaneh S. Z., Karbalayghareh A., Zhou Z., Qian X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data // 32nd Conference on Neural Information Processing Systems (NIPS 2018). — Montréal, Canada, 2018.
  • Jon Wakefield. Bayesian and frequentist regression methods. — New York, NY: Springer, 2013. — ISBN 978-1-4419-0924-4.

Литература для дальнейшего чтения

Ссылки

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.