Навчання на прикладах

У машинному навчанні, навчання на прикладах (інколи також навчання на основі пам'яті[1]) — група навчальних алгоритмів, що порівнюють нові приклади з тими, що зустрічалися при попередньому навчанні і зберігаються в пам'яті. Навчання на прикладах іноді називають ледачим навчанням.

Ці алгоритми будують гіпотези безпосередньо з навчальних прикладів[2]. Це означає, що складність гіпотези може рости з розміром даних[2]: в найгіршому випадку, гіпотеза — це список n навчальних прикладів і обчислювальна складність класифікації одного нового екземпляра є O(N). Одна з переваг навчання на прикладах, порівняно з іншими алгоритмами машинного навчання, є його здатність адаптувати свою модель до раніше небачених, нових даних: навчені класифікатори можуть просто зберегти новий екземпляр або викинути старий екземпляр.

Прикладами алгоритмів, що навчаються на прикладах, є метод найближчих k-сусідів, ядрові методи та RBF-мережі[3]. Ці алгоритми зберігають (підмножину) їх навчальної множини; при передбаченні значення/класу нового прикладу, вони обчислюють відстань або схожість між цим прикладом та тренувальними прикладами, щоб прийняти рішення.

Щоб вирішити проблему використання пам'яті для збереження всіх вхідних прикладів, а також ризику перенавчання на зашумленних даних в навчальній множині прикладів, були запропоновані алгоритми зменшення прикладів[4].

Посилання

  1. Walter Daelemans; Antal van den Bosch (2005). Memory-Based Language Processing. Cambridge University Press.
  2. Stuart Russell and Peter Norvig (2003). Artificial Intelligence: A Modern Approach, second edition, p. 733. Prentice Hall. ISBN 0-13-080302-2
  3. Tom Mitchell (1997). Machine Learning. McGraw-Hill.
  4. D. Randall Wilson; Tony R. Martinez (2000). Reduction techniques for instance-based learning algorithms. Machine Learning.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.