Поточкова взаємна інформація

Пото́чкова взає́мна інформа́ція (ПВІ, англ. pointwise mutual information, PMI),[1] або то́чкова взає́мна інформа́ція (англ. point mutual information) — це міра пов'язаності, що використовується в теорії інформації та статистиці. На відміну від взаємної інформації (ВІ), що будується на ПВІ, вона стосується одиничних подій, тоді як ВІ стосується усереднення всіх можливих подій.

Визначення

ПВІ пари результатів x та y, що належать дискретним випадковим змінним X та Y, дає кількісну оцінку розбіжності між імовірністю їхнього збігу за заданого їхнього спільного розподілу, та їхніми особистими розподілами за умови їхньої незалежності. Математично:

Взаємна інформація (ВІ) випадкових змінних X та Y є математичним сподіванням значення ПВІ над усіма можливими результатами (по відношенню до спільного розподілу ).

Ця міра є симетричною (). Вона може набувати додатних та від'ємних значень, але є нульовою, якщо X та Y є незалежними. Зауважте, що хоча ПВІ й може бути додатною або від'ємною, її математичне сподівання над усіма спільними подіями (ВІ) є додатним. ПВІ досягає максимуму тоді, коли X та Y є цілком пов'язаними (тобто, або ), даючи наступні межі:

Нарешті, збільшуватиметься за незмінної , але зменшуваної .

Ось приклад для ілюстрації:

xyp(x, y)
000.1
010.7
100.15
110.05

Використовуючи цю таблицю, ми можемо здійснити відособлювання, щоби отримати наступну додаткову таблицю для особистих розподілів:

p(x)p(y)
00.80.25
10.20.75

У цьому прикладі ми можемо обчислити чотири значення . Із застосуванням логарифмів за основою 2:

pmi(x=0;y=0)=1
pmi(x=0;y=1)=0.222392
pmi(x=1;y=0)=1.584963
pmi(x=1;y=1)=-1.584963

(Для довідки, взаємною інформацією тоді буде 0.2141709)

Схожості зі взаємною інформацією

Поточкова взаємна інформація має багато відношень, однакових зі взаємною інформацією. Зокрема,

де є власною інформацією, або .

Нормалізована поточкова взаємна інформація (НПВІ)

Поточкову взаємну інформацію може бути нормалізовано в проміжку [-1,+1], що дає в результаті -1 (у границі) для спільної появи ніколи, 0 — для незалежності та +1 — для цілковито спільної появи.[2]

Варіанти ПВІ

На додачу до наведеної вище НПВІ, ПВІ має багато інших цікавих варіантів. Порівняльне дослідження цих варіантів можна знайти в [3]

Ланцюгове правило для ПВІ

Як і взаємна інформація,[4] поточкова взаємна інформація слідує ланцюговому правилу, тобто,

Це може бути легко доведено як

Застосування

В математичній лінгвістиці ПВІ використовували для знаходження сполучень та пов'язаності слів. Наприклад, підрахунок появ та спільних появ слів у корпусі текстів можна використовувати для наближення ймовірностей та відповідно. Наступна таблиця показує кількості пар слів, що отримали найвищі та найнижчі рівні ПВІ у перших 50 мільйонах слів англомовної Вікіпедії (дамп від жовтня 2015 року), відфільтрованих за 1 000 чи більше спільних появ. Частоту кожної з кількостей можна отримати діленням її значення на 50 000 952. (Зауваження: в цьому прикладі для обчислення значень ПВІ використано натуральний логарифм замість логарифму за основою 2)

слово 1слово 2кількість слів 1кількість слів 2кількість спільних появПВІ
puertorico19381311115910.0349081703
hongkong2438269422059.72831972408
losangeles3501280827919.56067615065
carbondioxide4265135310329.09852946116
prizelaureate5131167612108.85870710982
sanfrancisco5237247717798.83305176711
nobelprize4098513124988.68948811416
icehockey5607300219338.6555759741
startrek8264159414898.63974676575
cardriver5578274913848.41470768304
itthe28389132932963347-1.72037278119
areof23445817614361019-2.09254205335
thisthe19988232932961211-2.38612756961
isof56567917614361562-2.54614706831
andof137539617614362949-2.79911817902
aand98444213753961457-2.92239510038
inand118765213753961537-3.05660070757
toand102565913753961286-3.08825363041
toin102565911876521066-3.12911348956
ofand176143613753961190-3.70663100173

Добре сполучені пари мають високу ПВІ, оскільки ймовірність спільної появи є лише трошки нижчою за ймовірності появи кожного зі слів. З іншого боку, пара слів, ймовірності появи яких є значно вищими за ймовірність їхньої спільної появи, отримує низький рівень ПВІ.

Примітки

  1. Kenneth Ward Church and Patrick Hanks (March 1990). Word association norms, mutual information, and lexicography. Comput. Linguist. 16 (1): 22–29. (англ.)
  2. Bouma, Gerlof (2009). Normalized (Pointwise) Mutual Information in Collocation Extraction. Proceedings of the Biennial GSCL Conference. (англ.)
  3. Francois Role, Moahmed Nadif. Handling the Impact of Low frequency Events on Co-occurrence-based Measures of Word Similarity:A Case Study of Pointwise Mutual Information. Proceedings of KDIR 2011 : KDIR- International Conference on Knowledge Discovery and Information Retrieval, Paris, October 26-29 2011 (англ.)
  4. Paul L. Williams. INFORMATION DYNAMICS: ITS THEORY AND APPLICATION TO EMBODIED COGNITIVE SYSTEMS. (англ.)

Література

  • Fano, R M (1961). chapter 2. Transmission of Information: A Statistical Theory of Communications. MIT Press, Cambridge, MA. ISBN 978-0262561693. (англ.)

Посилання

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.