Умовне випадкове поле

Умо́вні випадко́ві поля́ (УВП, англ. conditional random fields, CRFs) — це клас методів статистичного моделювання, які часто застосовують в розпізнаванні образів та машинному навчанні, й використовують для структурового передбачування. УВП належать до родини моделювання послідовностей. На відміну від дискретного класифікатора, який передбачує мітку для окремого зразка без врахування «сусідніх» зразків, УВП може брати до уваги контекст; наприклад, лінійно-ланцюгове УВП (що є популярним в обробці природної мови) передбачує послідовності міток для послідовностей входових зразків.

УВП є одним з типів розрізнювальних неспрямованих імовірнісних графових моделей. Їх використовують для кодування відомих взаємозв'язків між спостереженнями та побудови узгоджених представлень, і часто використовують для розмічування або розбирання послідовних даних, таких як обробка природних мов та біологічні послідовності,[1] та в комп'ютерному баченні.[2] Зокрема, УВП, серед інших задач, знаходять застосування в розмічуванні частин мови, поверхнево-синтаксичному аналізі,[3] розпізнаванні іменованих сутностей,[4] пошуку генів та пошуку пептидних критичних функційних областей,[5] будучи альтернативою спорідненим прихованим марковським моделям (ПММ). У комп'ютерному зорі УВП часто використовують для розпізнавання об'єктів[6] та сегментування зображень.

Опис

Лафферті, Маккалум та Перейра[1] визначили УВП на спостереженнях та випадкових змінних наступним чином:

Нехай є таким графом, що

, так що індексовано вершинами . Тоді є умовним випадковим полем, коли випадкові змінні , обумовлені , володіють марковською властивістю по відношенню до цього графу: , де означає, що та є сусідами в .

Це означає, що УВП є неспрямованою графовою моделлю, чиї вершини може бути поділено на рівно дві неперетинні множини та , спостережувані та виходові змінні, відповідно; тоді моделюють умовний розподіл .

Висновування

Для графів загального вигляду задача точного висновування в УВП є нерозв'язною. Задача висновування для УВП є по суті такою ж, як і для МВП, і мають місце ті самі аргументи.[7] Проте, існують особливі випадки, для яких висновування є здійсненним:

  • Якщо граф є ланцюгом або деревом, то точні розв'язки дають алгоритми передавання повідомлень. Алгоритми, що застосовують в цих випадках, є аналогічними до послідовно-зворотного алгоритму та алгоритму Вітербі для випадку ПММ.
  • Якщо УВП містить лише попарні потенціали, й ця енергія є субмодулярною, то точні розв'язки дають комбінаторні алгоритми мінімального розрізу/максимального потоку.

Якщо точне висновування є неможливим, то можливо застосовувати декілька алгоритмів для отримування наближених розв'язків. До них належать:

  • Петлясте поширення переконання
  • Альфа-розширення (англ. alpha expansion)
  • Висновування середнього поля (англ. mean field inference)
  • Лінійне програмування з послабленням

Навчання параметрів

Навчання параметрів зазвичай виконують навчанням максимальної правдоподібності для . Якщо всі вузли мають розподіли експоненційного сімейства, та є спостережуваними під час тренування, то ця оптимізація є опуклою.[7] Її можливо розв'язувати, наприклад, застосуванням алгоритмів градієнтного спуску, або квазі-ньютоновими методами, такими як алгоритм L-BFGS. З іншого боку, якщо деякі змінні є неспостережуваними, то для цих змінних має бути розв'язано задачу висновування. Для графів загального вигляду точне висновування є непіддатливим, тож мають застосовуватися наближення.

Приклади

У послідовнісному моделюванні, граф, який становить інтерес, зазвичай є ланцюговим. Входова послідовність спостережуваних змінних представляє послідовність спостережень, а представляє приховану (або невідому) змінну стану, висновки про яку потрібно отримувати зі спостережень. структурують так, щоби утворити ланцюг, з ребрами між кожними та . Маючи просте представлення як «міток» для кожного з елементів послідовності входу, це компонування також уможливлює дієві алгоритми для:

  • тренування моделі, навчання умовних розподілів між та функціями ознак для деякого корпусу тренувальних даних.
  • декодування, визначення ймовірності заданої послідовності міток за заданої .
  • висновування, визначення найправдоподібнішої послідовності міток за заданої .

Умовну залежність кожної з від визначають через фіксований набір функцій ознак вигляду , які можливо розглядати як вимірювання на послідовності входу, що частково визначають правдоподібність кожного з можливих значень . Ця модель призначує кожній ознаці числову вагу, й поєднує їх для визначення ймовірності певного значення .

Лінійно-ланцюгові УВП мають багато таких же застосувань, як і концептуально простіші приховані марковські моделі (ПММ), але послаблюють деякі вихідні положення щодо розподілів послідовностей входу та виходу. ПММ можливо грубо розуміти як УВП з дуже особливими функціями ознак, які використовують сталі ймовірності для моделюванні переходів станів та виходів. І навпаки, УВП можливо грубо розуміти як узагальнення ПММ, яке робить сталі ймовірності переходів довільними функціями, що міняться над позиціями в послідовності прихованих станів, залежно від послідовності входу.

Примітно, що, на противагу до ПММ, УВП можуть містити будь-яке число функцій ознак, ці функції ознак можуть оглядати всю послідовність входу в будь-який момент висновування, і спектрові функцій ознак не потрібно мати ймовірнісної інтерпретації.

Варіанти

УВП вищих порядків, та напівмарковські УВП

УВП можливо розширити до моделей вищих порядків, зробивши кожну з залежною від фіксованого числа попередніх змінних . У звичайних формулюваннях УВП вищих порядків тренування та висновування є дієвими лише для маленьких значень (таких як k ≤ 5),[8] оскільки їхня обчислювальна витратність зростає з експоненційно.

Проте, іншому нещодавньому просуванню вдалося поліпшити ці нюанси шляхом задіювання понять та інструментів з області баєсової непараметрії. Конкретніше, УВП-нескінченний (англ. CRF-infinity) підхід[9] становить УВП-модель, здатну навчатися нескінченно тривалої часової динаміки масштабованою манерою. Це здійснюється введенням новітньої функції потенціалу для УВП, яка ґрунтується на «запам'ятовувачі послідовностей» (ЗП, англ. Sequence Memoizer, SM), непараметричній баєсовій моделі для навчання нескінченно тривалих динамік у послідовних спостереженнях.[10] Щоби зробити таку модель обчислювально піддатливою, УВП-нескінченність застосовує наближення середнього поля[11] запостульованих новітніх функцій потенціалу (які веде ЗП). Це дозволяє винаходити дієві алгоритми наближеного тренування та висновування для цієї моделі, не підриваючи її здатності схоплювати та моделювати часові залежності довільної тривалості.

Існує ще одне узагальнення УВП, напівма́рковське умо́вне випадко́ве по́ле (напів-УВП, англ. semi-Markov conditional random field, semi-CRF), яке моделює сегментування довільної довжини послідовності міток .[12] Воно забезпечує майже таку ж потужність для моделювання довготривалих залежностей , як і УВП вищих порядків, за помірних обчислювальних витрат.

Нарешті, як альтернативу процедурі тренування УВП можливо розглядати моделі з широким розділенням (англ. large-margin models) для структурового передбачування, такі як структурові опорно-векторні машини.

Латентно-динамічне умовне випадкове поле

Лате́нтно-динамі́чні умо́вні випадко́ві по́ля (ЛДУВП, англ. latent-dynamic conditional random fields, LDCRF), або розрі́знювальні імові́рнісні моде́лі з лате́нтними змі́нними (РІМЛЗ, англ. discriminative probabilistic latent variable models, DPLVM) — це один із типів УВП для задач маркування послідовностей. Вони є моделями з латентними змінними, що тренують розрізнювально.

В ЛДУВП, як і в будь-якій задачі маркування послідовностей, для заданої послідовності спостережень x = головною задачею, яку ця модель мусить розв'язати, є як призначити послідовність міток y = з однієї скінченної множини міток Y. Замість моделювати P(y|x) безпосередньо, як робило би звичайне лінійно-ланцюгове УВП, між x та y «вставляють» множину латентних змінних h, застосовуючи ланцюгове правило ймовірності:[13]

Це дозволяє схоплювати латентну структуру між спостереженнями та мітками.[14] В той час як ЛДУВП може бути треновано з використанням квазі-ньютонових методів, для них на основі алгоритму структурового перцептрону Коллінза також було розроблено особливу версію алгоритму перцептрону, названу перцептро́ном з лате́нтними змі́нними (англ. latent-variable perceptron).[13] Ці моделі знаходять застосування в комп'ютерному баченні, зокрема в розпізнаванні жестів для потоків відео,[14] та в поверхнево-синтаксичному аналізі.[13]

Програмне забезпечення

Це — частковий перелік програмного забезпечення, що втілює загальні інструменти УВП.

  • RNNSharp УВП на основі рекурентних нейронних мереж (C#, .NET)
  • CRF-ADF лінійно-ланцюгові УВП зі швидким інтерактивним ADF-тренуванням (C#, .NET)
  • CRFSharp лінійно-ланцюгові УВП (C#, .NET)
  • GCO УВП з субмодулярними функціями енергії (C++, Matlab)
  • DGM загальні УВП (C++)
  • GRMM загальні УВП (Java)
  • factorie загальні УВП (Scala)
  • CRFall загальні УВП (Matlab)
  • Sarawagi's CRF лінійно-ланцюгові УВП (Java)
  • HCRF library приховано-станові УВП (C++, Matlab)
  • Accord.NET лінійно-ланцюгові УВП, ПУВП та ПММ (C#, .NET)
  • Wapiti швидкі лінійно-ланцюгові УВП (C)[15]
  • CRFSuite швидкі обмежені лінійно-ланцюгові УВП (C)
  • CRF++ лінійно-ланцюгові УВП (C++)
  • FlexCRFs марковські УВП першого та другого порядків (C++)
  • crf-chain1 лінійно-ланцюгові УВП першого порядку (Haskell)
  • imageCRF УВП для сегментування зображень та томів зображень (C++)
  • MALLET лінійно-ланцюгові для маркування послідовностей (Java)
  • PyStruct структурове навчання в Python (Python)
  • Pycrfsuite python-обв'язка для crfsuite (Python)
  • Figaro ймовірнісна мова програмування, здатна визначати УВП та інші графові моделі (Scala)
  • CRF моделювальні та обчислювальні інструменти для УВП та інших неспрямованих графових моделей (R)
  • OpenGM бібліотека для дискретних розкладово-графових моделей та розподілених операцій на цих моделях (C++)
  • UPGMpp[6] бібліотека для побудови, тренування неспрямованих графових моделей, та виконання висновування на них (C++)
  • KEG_CRF швидкі лінійні УВП (C++)

Це — частковий перелік програмного забезпечення, що втілює пов'язані з УВП інструменти.

  • MedaCy розпізнавач медичних іменованих сутностей (Python)
  • Conrad передбачувач генів на основі УВП (Java)
  • Stanford NER розпізнавач іменованих сутностей (Java)
  • BANNER розпізнавач іменованих сутностей (Java)

Див. також

Примітки

  1. Lafferty, J., McCallum, A., Pereira, F. (2001). Conditional random fields: Probabilistic models for segmenting and labeling sequence data. Proc. 18th International Conf. on Machine Learning. Morgan Kaufmann. с. 282–289. (англ.)
  2. He, X.; Zemel, R.S.; Carreira-Perpinñán, M.A. (2004). Multiscale conditional random fields for image labeling. IEEE Computer Society. Проігноровано невідомий параметр |citeseerx= (довідка) (англ.)
  3. Sha, F.; Pereira, F. (2003). shallow parsing with conditional random fields. (англ.)
  4. Settles, B. (2004). Biomedical named entity recognition using conditional random fields and rich feature sets. Proceedings of the International Joint Workshop on Natural Language Processing in Biomedicine and its Applications. с. 104–107. (англ.)
  5. Chang KY; Lin T-p; Shih L-Y; Wang C-K (2015). Analysis and Prediction of the Critical Regions of Antimicrobial Peptides Based on Conditional Random Fields. PLoS ONE. PMC 4372350. doi:10.1371/journal.pone.0119490. (англ.)
  6. J.R. Ruiz-Sarmiento; C. Galindo; J. Gonzalez-Jimenez (2015). UPGMpp: a Software Library for Contextual Object Recognition.. 3rd. Workshop on Recognition and Action for Scene Understanding (REACTS). (англ.)
  7. Sutton, Charles; McCallum, Andrew (2010). «An Introduction to Conditional Random Fields». arXiv:1011.4088v1 [stat.ML]. (англ.)
  8. Lavergne, Thomas; Yvon, François (September 7, 2017). Learning the Structure of Variable-Order CRFs: a Finite-State Perspective. Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen, Denmark: Association for Computational Linguistics. с. 433. (англ.)
  9. Chatzis, Sotirios; Demiris, Yiannis (2013). The Infinite-Order Conditional Random Field Model for Sequential Data Modeling. IEEE Transactions on Pattern Analysis and Machine Intelligence 35 (6): 1523–1534. PMID 23599063. doi:10.1109/tpami.2012.208. (англ.)
  10. Gasthaus, Jan; Teh, Yee Whye (2010). Improvements to the Sequence Memoizer. Proc. NIPS. (англ.)
  11. Celeux, G.; Forbes, F.; Peyrard, N. (2003). EM Procedures Using Mean Field-Like Approximations for Markov Model-Based Image Segmentation. Pattern Recognition 36 (1): 131–144. doi:10.1016/s0031-3203(02)00027-4. Проігноровано невідомий параметр |citeseerx= (довідка) (англ.)
  12. Sarawagi, Sunita; Cohen, William W. (2005). Semi-Markov conditional random fields for information extraction. У Lawrence K. Saul, Yair Weiss, Léon Bottou (eds.). Advances in Neural Information Processing Systems 17. Cambridge, MA: MIT Press. с. 1185–1192. (англ.)
  13. Xu Sun; Takuya Matsuzaki; Daisuke Okanohara; Jun'ichi Tsujii (2009). Latent Variable Perceptron Algorithm for Structured Classification IJCAI. с. 1236–1242. (англ.)
  14. Morency, L. P.; Quattoni, A.; Darrell, T. (2007). Latent-Dynamic Discriminative Models for Continuous Gesture Recognition. 2007 IEEE Conference on Computer Vision and Pattern Recognition. с. 1. ISBN 978-1-4244-1179-5. doi:10.1109/CVPR.2007.383299. Проігноровано невідомий параметр |citeseerx= (довідка) (англ.)
  15. T. Lavergne, O. Cappé and F. Yvon (2010). Practical very large scale CRFs Архівовано 2013-07-18 у Wayback Machine.. Proc. 48th Annual Meeting of the ACL, pp. 504—513. (англ.)

Література

  • McCallum, A.: Efficiently inducing features of conditional random fields. In: Proc. 19th Conference on Uncertainty in Artificial Intelligence. (2003) (англ.)
  • Wallach, H.M.: Conditional random fields: An introduction. Technical report MS-CIS-04-21, University of Pennsylvania (2004) (англ.)
  • Sutton, C., McCallum, A.: An Introduction to Conditional Random Fields for Relational Learning. In «Introduction to Statistical Relational Learning». Edited by Lise Getoor and Ben Taskar. MIT Press. (2006) Online PDF (англ.)
  • Klinger, R., Tomanek, K.: Classical Probabilistic Models and Conditional Random Fields. Algorithm Engineering Report TR07-2-013, Department of Computer Science, Dortmund University of Technology, December 2007. ISSN 1864-4503. Online PDF (англ.)
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.