Частотная вероятность

Эта статья находится на начальном уровне проработки, в одной из её версий выборочно используется текст из источника, распространяемого под свободной лицензией
Материал из энциклопедии Руниверсалис

Частотная вероятность (frequentist probability) — предел относительной частоты наблюдения некоторого события в серии однородных независимых испытаний. То есть

[math]\displaystyle{ P(A)=\lim_{N \rightarrow \infty} \frac{n}{N} }[/math],

где [math]\displaystyle{ N }[/math] — общее количество испытаний, [math]\displaystyle{ n }[/math] — количество наблюдений события [math]\displaystyle{ A }[/math][1][2].

Вероятность того, что будет получен определенный исход процесса интерпретируется как относительная частота получения данного исхода при многократном повторении данного процесса при тех же условиях. Например, при бросании костей вероятность выпадания грани с числом 3 равна 1/3, потому что относительная частота выпадания этой грани при многократном бросании костей будет равна 1/3.

Понятие частотной вероятности является одной из интерпретаций понятия вероятности наряду с логической вероятностью и субъективной вероятностью[3]. Помимо названия «частотная вероятность» для данного понятия в научной литературе также используются названия «статистическая вероятность»[4], «физическая вероятность»[5], «эмпирическая вероятность»[6], «объективная вероятность»[6] или просто «вероятность»[7].

Относительная частота имеет такие же свойства что и вероятность в классическом и геометрическом определениях. (См. Вероятность)

История

Понятие частотной вероятности предложено фон Мизесом и Райхенбахом в начале 20-годов 20 века с целью замены классического определения вероятности, введенного в оборот ещё создателями теории вероятностей, и не отвечающего требованиям современной науки. Согласно классическому определению, вероятность есть отношение числа исходов некоторого эксперимента, которые благоприятствуют нужному результату, к числу всех возможных исходов. Такое определение корректно только тогда, когда вероятности всех возможных исходов имеют одинаковые значения[3].

Критика понятия частотной вероятности

Подобно всякой новой концепции понятие частотной вероятности в фазе своего возникновения подвергалось критике. Главное возражение формулировалось так: никакой наблюдатель не может иметь в своем распоряжении бесконечную последовательность наблюдений и при этом невозможно обеспечить схожие условия, при которых происходит наблюдаемое явление. Ведь, если бы условия, при которых, например, наблюдаются исходы эксперимента были идентичными то и исходы были бы одинаковыми. Так при бросании игральных костей, если бы условия были идентичными, выпадала бы всегда одна и та же грань, с другой стороны если условия не явялется идентичными то могут возникнуть сомнения что речь идет об одном и том же процессе, об одном и том же эксперименте. Таким образом условия не должны быть контролируемыми ради того чтобы обеспечить признак схожести, а должны предполагать некоторую случайность. Еще одним недостатком частотной интерпретации вероятности является то, что она применима только к анализу процессов с болшим количеством повторений.

Фишер в Англии и другие статистики, которые также критиковали классическую теорию, вводили частотное понятие вероятности не с помощью определения, а как исходный, неопределяемый термин в аксиоматической системе[4]. Однако фон Мизес и Рейхенбах показали, что на основе их определения могут быть выведены важные теоремы. В настоящее время это определение считается общепризнанным[3][4].

Примечания

  1. Richard von Mises, Probability, Statistics and Truth, new York, Macmillan, 1939.
  2. Hans Reichenbach, The Theory of Probability, Berkeley, Callifornia, Univerrsity of California Pess, 1949.
  3. 3,0 3,1 3,2 Hajek Alan. (2007). Interpretation of probability. In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, http://plato.stanford.edu/archives/fall2007/-entries/probability-interpret (недоступная ссылка).
  4. 4,0 4,1 4,2 Карнап Р. Философские основания физики: Введение в философию науки/ Пер. с англ., предисл. и коммент. Г.И. Рузавина. Изд. 4-е. – М.: Издательство ЛКИ, 2008. – 360 с.
  5. Maher Patrick, (2010). Explication of Inductive Probability. Journal of Philosophical Logic 39 (6): 593-616.
  6. 6,0 6,1 Zabell S.L. (2004). Carnap and the Logic of Inductive Inference. In Dov M. Gabbay, John Woods & Akihiro Kanamori (eds.), Handbook of the History of Logic. Elsevier 265-309.
  7. Колмогоров А.Н. К логическим основам теории информации и теории вероятностей, в сб.: Проблемы передачи информации, т. 5, в. 3, М., 1969.

См. также