Навчання на прикладах
У машинному навчанні, навчання на прикладах (інколи також навчання на основі пам'яті[1]) — група навчальних алгоритмів, що порівнюють нові приклади з тими, що зустрічалися при попередньому навчанні і зберігаються в пам'яті. Навчання на прикладах іноді називають ледачим навчанням.
Ці алгоритми будують гіпотези безпосередньо з навчальних прикладів[2]. Це означає, що складність гіпотези може рости з розміром даних[2]: в найгіршому випадку, гіпотеза — це список n навчальних прикладів і обчислювальна складність класифікації одного нового екземпляра є O(N). Одна з переваг навчання на прикладах, порівняно з іншими алгоритмами машинного навчання, є його здатність адаптувати свою модель до раніше небачених, нових даних: навчені класифікатори можуть просто зберегти новий екземпляр або викинути старий екземпляр.
Прикладами алгоритмів, що навчаються на прикладах, є метод найближчих k-сусідів, ядрові методи та RBF-мережі[3]. Ці алгоритми зберігають (підмножину) їх навчальної множини; при передбаченні значення/класу нового прикладу, вони обчислюють відстань або схожість між цим прикладом та тренувальними прикладами, щоб прийняти рішення.
Щоб вирішити проблему використання пам'яті для збереження всіх вхідних прикладів, а також ризику перенавчання на зашумленних даних в навчальній множині прикладів, були запропоновані алгоритми зменшення прикладів[4].
Посилання
- Walter Daelemans; Antal van den Bosch (2005). Memory-Based Language Processing. Cambridge University Press.
- Stuart Russell and Peter Norvig (2003). Artificial Intelligence: A Modern Approach, second edition, p. 733. Prentice Hall. ISBN 0-13-080302-2
- Tom Mitchell (1997). Machine Learning. McGraw-Hill.
- D. Randall Wilson; Tony R. Martinez (2000). Reduction techniques for instance-based learning algorithms. Machine Learning.