Марковська властивість

У теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості відсутності пам'яті в стохастичного процесу. Його названо на честь російського математика Андрія Маркова.[1]

Одиночна реалізація тривимірного броунівського руху для часу 0 ≤ t ≤ 2. Броунівський рух має марковську властивість, оскільки зміщення частинки не залежить від її попередніх зміщень.

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (англ. Markov process). Термін си́льна ма́рковська власти́вість (англ. strong Markov property) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу.[2]

Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі.

Марковське випадкове поле (англ. Markov random field)[3] розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга.

Стохастичний процес дискретного часу, який задовольняє марковську властивість, відомий як марковський ланцюг.

Введення

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану; тобто, з огляду на теперішнє, майбутнє не залежить від минулого. Процес із цією властивістю називають марковіа́ном (англ. Markovian), або ма́рковським проце́сом (англ. Markov process). Найвідомішим марковським процесом є марковський ланцюг. Також добре відомим марковським процесом є броунівський рух.

Історія

Визначення

Нехай є ймовірнісним простором з фільтрацією для деякої (лінійно впорядкованої) індексної множини , і нехай є вимірним простором. Про -значний стохастичний процес , пристосований до цієї фільтрації, кажуть, що він володіє марковською властивістю, якщо для будь-якої та будь-яких з

[4]

В разі, коли є дискретною множиною з дискретною сигма-алгеброю, а , це може бути переформульовано наступним чином:

.

Альтернативні формулювання

Марковська властивість може мати наступне альтернативне формулювання.

для всіх та обмежених і вимірних .[5]

Сильна марковська властивість

Припустімо, що є стохастичним процесом на ймовірнісному просторі з природною фільтрацією . Для будь-якого ми можемо визначити паросткову сигма-алгебру як перетин усіх для . Тоді для будь-якого моменту зупину на ми можемо визначити

.

Тоді про кажуть, що він має сильну марковську властивість, якщо для кожного моменту зупину , обумовленого подією , ми маємо, що для кожного , є незалежним від за заданого .

Сильна марковська властивість передбачає звичайну марковську властивість, оскільки сильну марковську властивість може бути зведено до неї взяттям моменту зупину .

Приклади

Припустімо, що урна містить дві червоні кулі й одну зелену. Одну кулю витягли вчора, одну кулю витягли сьогодні, й останню кулю витягнуть завтра. Всі витягування є «без повернення».

Припустімо, що вам відомо, що сьогоднішня куля була червоною, але ви не маєте інформації про вчорашню кулю. Шанс того, що завтрашня куля буде червоною, складає 1/2. Це тому, що для цього випадкового експерименту лишилося лише два результати:

ДеньРезультат 1Результат 2
ВчораЧервонаЗелена
СьогодніЧервонаЧервона
ЗавтраЗеленаЧервона

З іншого боку, якщо ви знаєте, що як сьогоднішня, так і вчорашня кулі були червоними, тоді вам гарантовано отримати завтра зелену кулю.

Ця невідповідність показує, що розподіл імовірності завтрашнього кольору залежить не лише від поточного значення, але знаходиться також і під впливом інформації про минуле. Цей стохастичний процес спостережуваних кольорів не має марковської властивості. При використанні такого ж експерименту, як наведено вище, якщо «вибірку без повернення» замінено «вибіркою з поверненням», процес спостережуваних кольорів марковську властивість матиме.[6]

Застосуванням марковської властивості в узагальненому вигляді є обчислення Монте-Карло марковських ланцюгів у контексті баєсової статистики.

Див. також

Примітки

  1. Марков, А. А. (1954). Теория алгорифмов. Тр. МИАН СССР (М.–Л.: Изд-во АН СССР) 42: 3–375. (рос.)
  2. Feller, W. (1971) Introduction to Probability Theory and Its Applications, Vol II (2nd edition),Wiley. ISBN 0-471-25709-5 (pages 9 and 20) (англ.)
  3. Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms OUP. ISBN 0-19-850994-4 (англ.)
  4. Durrett, Rick. Probability: Theory and Examples. Fourth Edition. Cambridge: Cambridge University Press, 2010. (англ.)
  5. Øksendal, Bernt K. (2003). Stochastic Differential Equations: An Introduction with Applications. Springer, Berlin. ISBN 3-540-04758-1. (англ.)
  6. Example of a stochastic process which does not have the Markov property. Mathematics Stack Exchange. (англ.)
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.