Закон великих чисел

Закон великих чисел в теорії імовірностей стверджує, що емпіричне середнє (арифметичне середнє) великої вибірки із фіксованого розподілу близьке до теоретичного середнього (математичного сподівання) цього розподілу. В залежності від виду збіжності розрізняють слабкий закон великих чисел, коли має місце збіжність за ймовірністю, і посилений закон великих чисел, коли має місце збіжність майже скрізь.

Ілюстрація закону великих чисел використовуючи певний перебіг кидань кості. З тим як кількість кидків збільшується, середнє значення всіх кидків наближується до 3.5. Різні перебіги показуватимуть різні форми кривої у частині, що відображає малу кількість кидків (ліва частина), у частині, що відображає велику кількість кидків (права частина) вони будуть дуже подібні.

Завжди знайдеться така кількість випробувань, при якій з будь-якою заданою наперед імовірністю частота появи деякої події буде як завгодно мало відрізнятися від її імовірності.

Форми ЗВЧ

Нижче описано дві версії ЗВЧ: Слабкий закон великих чисел та Посилений закон великих чисел. Обидва закони стверджують, що з певною достовірністю середнє вибірки

прямує до математичного сподівання

де X1, X2, ... — скінченна послідовність н.о.р. випадкові величини зі скінченним математичним сподіванням E(X1) = E(X2) = ... = µ < ∞.

Слабкий закон великих чисел

Нехай є нескінченна послідовність однаково розподілених і некорельованих випадкових величин , визначених на одному ймовірнісному просторі . Їх коваріація . Нехай . Позначимо вибіркове середнє перших членів:

.

Тоді .

Це означає, що для будь-якого додатного числа ε,

Інтерпретувати цей результат можна так, що слабкий закон говорить про те, що для будь-якої заданої похибки, не важливо наскільки вона буде малою, для значно великих вибірок буде існувати дуже висока імовірність, що середнє значення для спостережень буде близьким до значення сподівання; так що воно буде знаходитися в межах похибки.

Як уже згадувалося, слабкий закон застосовується для незалежних однаково розподілених випадкових величин, але існують і інші випадки в яких він може застосовуватися. Наприклад, у кожної випадкової величини у вибірці може бути різна дисперсія, але математичне сподівання залишається сталим. Якщо ці дисперсії обмежені, тоді це правило можна застосувати аналогічно як це показав Чебишов в 1867 р. (Якщо математичні сподівання змінюються, тоді ми можемо застосувати цей закон до середнього відхилення від відповідних значень математичних сподівань. Тоді закон стверджуватиме, що це збігатиметься за імовірністю до нуля.) Насправді, доведення Чебишова буде працювати доки дисперсія середнього для перших n значень збігатиметься до нуля при n що прямує до нескінченності.[1] Як приклад, припустимо що кожна випадкова величина у вибірці має розподіл Гауса із нульовим середнім значенням, але із дисперсією що дорівнює На кожному етапі, середнє матиме нормальний розподіл (оскільки це є середнє множини нормально розподілених величин). Дисперсія суми величин дорівнює сумі дисперсій, яка є асимптотичною до . Дисперсія середнього в свою чергу буде асимптотичною до і прямує до нуля.

Прикладом це закон великих чисел не виконується Розподіл Коші. Нехай випадкові числа дорівнюють тангенсу кута, що рівномірно розподілений між значеннями −90° і +90°. Медіана дорівнює нулю, але математичне сподівання не існує, і насправді середнє із n таких величин матиме той самий розподіл, що і одна така величина. Воно не прямує до нуля при тому що n прямує до нескінченності.

Але існують і приклади, де слабкий закон великих чисел може бути застосований навіть при умові, що математичне сподівання не існує.

Посилений закон великих чисел

Нехай є нескінченна послідовність незалежних однаково розподілених випадкових величин , визначених на одному ймовірнісному просторі . Нехай . Позначимо вибіркове середнє перших членів:

.

Тоді майже скрізь.

Різниця між слабким і посиленим законами великих чисел

Слабкий закон стверджує, що для великого числа n, середнє значення правдоподібно є близько до μ. Отже, залишається можливість того, що трапляється нескінченну кількість разів, хоча й на рідкісних інтервалах.

Посилений закон стверджує що це майже напевно не станеться. Зокрема, це означає що з імовірністю 1, для кожного ε > 0 нерівність виконується для всіх достатньо великих n.[2]

ЗВЧ Бореля

Закон великих чисел Бореля, на честь Еміля Бореля, стверджує, що якщо повторювати експеримент багато раз за тих самих умов і незалежно від інших спроб, то частота певної події наближено дорівнює ймовірності випадання цієї події в кожному окремому експерименті; чим більша кількість повторень тим краще наближення. Точніше, якщо E — подія, p ймовірність цієї події і Nn(E) — число разів коли в експерименті випадає подія E в n перших спробах, тоді з ймовірністю 1:

Ця теорема строго формалізує інтуїтивне поняття ймовірності як граничної частоти випадання події в експерименті. Теорема є частковим випадком інших загальніших законів великих чисел в теорії ймовірності.

Приклади

Одне підкидання шестигранної гральної кістки може випасти одним із номерів 1, 2, 3, 4, 5, або 6. Кожна з цих подій має однакову імовірність. Таким чином, математичне сподівання для одного підкидання, буде наступним

Відповідно до закону великих чисел, якщо підкинути гральну кістку велику кількість разів, середнє значення отриманих значень (що називають вибірковим середнім) скоріше за все буде мати значення близьке до числа 3,5, так що точність цього наближення буде збільшуватися із тим чим більше буде виконано кидків.

Із закону великих чисел слідує, що емпірична імовірність успішної події для вибірки випробувань Бернуллі буде збігатися до теоретичної імовірності. Для випадкової величини із розподілом Бернуллі, математичне сподівання дорівнює теоретичній імовірності успішної події, а середнє значення для n таких величин (за умови що вони є незалежними і однаково розподіленими) буде відповідати відносній частоті.

Наприклад, підкидання монети є випробуванням Бернуллі. Якщо монету підкинути один раз, теоретична імовірність випадіння монети гербом у верх буде дорівнювати 1/2. Таким чином, відповідно до закону великих чисел, доля випадання гербів при великій кількості незалежних підкидань монети "повинна" приблизно становити 1/2. Зокрема, доля випадання гербів при n незалежних підкиданнях майже певно буде збігатися до 1/2 при n що прямує до нескінченності.

Історія

Італійський математик Джироламо Кардано (1501–1576) стверджував без доказів про те, що точність емпіричної статистики поліпшується із збільшенням кількості випробувань.[3] Згодом цей факт формалізували як закон великих чисел. Окрему форму закону великих чисел для бінарної випадкової величини вперше довів Якоб Бернуллі.[4] Йому знадобилося більше 20 років, аби випрацювати достатньо точне математичне доведення, яке він опублікував у своїй праці Ars Conjectandi (Мистецтво вгадування) в 1713. Він назвав її "Золотою Теоремою", але згодом вона стала загальновідомою як "Теорема Бернулі". Не слід плутати її із Законом Бернуллі, що названий на честь племінника Якоба Бернулі Даніеля Бернуллі. В 1837, С.Д. Пуассон згодом описав її під назвою "la loi des grands nombres" ("Закон великих чисел").[5][6] Після чого вона залишилася відома під обома назвами, але назва "Закон великих чисел" вживається частіше.

Після того, як Бернуллі і Пуассон опублікували свої досягнення, над поліпшенням закону працювали і інші математики, до яких належать Чебишов,[7] Марков, Борель, Кантеллі, Колмогоров і Олександр Хінчін. Марков показав, що при певних слабших припущеннях цей закон можна застосувати до випадкової величини, що не має скінченної дисперсії, а Хінчін в 1929 показав, що якщо вибірка складається із незалежних однаково розподілених випадкових величин, для виконання слабкого закону великих чисел достатньо того, що існує математичне сподівання.[8][1] Ці подальші дослідження призвели до появи двох відомих форм закону великих чисел. Перший називається "слабким" законом, а інший "посиленим" законом, що відповідає двом різним формам наближення кумулятивного вибіркового середнього до математичного сподівання; зокрема, виконання посиленого закону передбачає і виконання слабкого.[8]

Примітки

  1. Yuri Prohorov. Law of large numbers. Encyclopedia of Mathematics.
  2. Ross, (2009)
  3. Mlodinow, L. The Drunkard's Walk. New York: Random House, 2008. p. 50.
  4. Jakob Bernoulli, Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis, 1713, Chapter 4, (Translated into English by Oscar Sheynin)
  5. Poisson names the "law of large numbers" (la loi des grands nombres) in: S.D. Poisson, Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés (Paris, France: Bachelier, 1837), p. 7. He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.
  6. Hacking, Ian. (1983) "19th-century Cracks in the Concept of Determinism", Journal of the History of Ideas, 44 (3), 455-475 JSTOR 2709176
  7. Tchebichef, P. (1846). Démonstration élémentaire d'une proposition générale de la théorie des probabilités. Journal für die reine und angewandte Mathematik (Crelles Journal) 1846 (33): 259–267. doi:10.1515/crll.1846.33.259.
  8. Seneta, 2013.

Література

  • Ширяев А. Н. Вероятность, — М: Наука. 1989. (рос.)
  • Чистяков В. П. Курс теории вероятностей, — М., 1982. (рос.)

Джерела

    This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.