Відносна правдоподібність
Припустімо, що в статистиці нам було надано деякі дані, й ми будуємо статистичну модель цих даних. Відно́сна правдоподі́бність (англ. relative likelihood) порівнює відносні вірогідності (англ. plausibilities) різних моделей-кандидатів, або різних значень параметра єдиної моделі.
Відносна правдоподібність значень параметрів
Припустімо, що нам надано деякі дані x, для яких ми маємо статистичну модель із параметром θ. Припустімо, що оцінкою θ методом максимальної правдоподібності є . Відносні вірогідності інших значень θ може бути знайдено порівнюванням правдоподібностей цих інших значень із правдоподібністю . Відносну правдоподібність θ означують як[1][2][3][4][5]
де позначує функцію правдоподібності. Таким чином, відносна правдоподібність є відношенням правдоподібностей з незмінним знаменником .
Функція
є функцією відносної правдоподібності (англ. relative likelihood function).
Область правдоподібності
О́бласть правдоподі́́́бності (англ. likelihood region) — це множина всіх значень θ, чиї відносні правдоподібності є більшими або рівними заданому порогові. В термінах відсотків, p%-ву область правдоподібності для θ означують як[1][3][6]
Якщо θ є єдиним дійснозначним параметром, то p%-ва область правдоподібності зазвичай становить проміжок дійсних значень. Якщо ця область дійсно становить проміжок, то її називають про́міжком правдоподі́бності (англ. likelihood interval).[1][3][7]
Проміжки правдоподібності, та, загальніше, області правдоподібності використовують для проміжкового оцінювання в правдоподібницькій статистиці: вони є подібними до довірчих проміжків у частотницькій статистиці та ймовірних проміжків у баєсовій статистиці. Проміжки правдоподібності тлумачать безпосередньо в термінах відносної правдоподібності, а не в термінах ймовірності накриття (частотництво) чи апостеріорної ймовірності (баєсівство).
Для заданої моделі проміжки правдоподібності можливо порівнювати з довірчими проміжками. Якщо θ є єдиним дійснозначним параметром, то, за певних умов 14.65%-й проміжок правдоподібності (правдоподібність близько 1:7) для θ буде таким же, як і 95%-й довірчий проміжок (ймовірність накриття 19/20).[1][6] У дещо відмінному формулюванні, пристосованому для використання логарифмічних правдоподібностей (див. теорему Уілкса), перевірна статистика є подвоєною різницею логарифмічних правдоподібностей, а розподіл імовірності цієї перевірної статистики приблизно є розподілом хі-квадрат зі ступенями вільності, що дорівнюють різниці в ступенях вільності між цими двома моделями (тому проміжок правдоподібності e−2 є таким же, як і довірчий проміжок 0.954, за припущення, що різницею в ступенях вільності є 1).[6][7]
Відносна правдоподібність моделей
Означення відносної правдоподібності може бути узагальнено для порівнювання різних статистичних моделей. Це узагальнення ґрунтується на ІКА (інформаційному критерієві Акаіке, англ. AIC), або іноді на ІКАк (інформаційному критерієві Акаіке з коригуванням, англ. AICc).
Припустімо, що для деяких наданих даних ми маємо дві статистичні моделі, M1 та M2. Також припустімо, що AIC(M1 ) ≤ AIC(M2 ). Тоді відносну правдоподібність M2 по відношенню до M1 означують наступним чином:[8]
Щоби побачити, що це є узагальненням ранішого означення, припустімо, що ми маємо деяку модель M із (можливо, багатомірним) параметром θ. Тоді для будь-якого θ встановімо M2 = M(θ), а також встановімо M1 = M(). Це загальне означення тепер дає той самий результат, що й раніше означення.
Див. також
- Функція правдоподібності
- Обирання моделі
- Визначення статистичної моделі
- Затверджування статистичної моделі
Примітки
- Kalbfleisch, J. G. (1985). Probability and Statistical Inference. Springer. §9.3. (англ.)
- Azzalini, A. (1996). Statistical Inference—Based on the likelihood. Chapman & Hall. §1.4.2. (англ.)
- Sprott, D. A. (2000). Statistical Inference in Science. Springer. chap. 2. (англ.)
- Davison, A. C. (2008). Statistical Models. Cambridge University Press. §4.1.2. (англ.)
- Held, L.; Sabanés Bové, D. S. (2014). Applied Statistical Inference—Likelihood and Bayes. Springer. §2.1. (англ.)
- Rossi, R. J. (2018). Mathematical Statistics. Wiley. с. 267. (англ.)
- Hudson, D. J. (1971). Interval estimation from the likelihood function. Journal of the Royal Statistical Society, Series B 33: 256–262. (англ.)
- Burnham, K. P.; Anderson, D. R. (2002). Model Selection and Multimodel Inference: A practical information-theoretic approach. Springer. §2.8. (англ.)