Резервуарне обчислення
Резервуа́рне обчи́слення (англ. reservoir computing) — це система обчислення, яку можна розглядати як розширення нейронних мереж.[1] Як правило, входовий сигнал подається до незмінної (випадкової) динамічної системи, що називають резервуаром (англ. reservoir), і динаміка резервуара відображує вхід до вищого виміру. Потім простий механізм зчитування (англ. readout) тренують читати стан резервуару й відображувати його на бажаний вихід. Головна перевага полягає в тім, що тренування виконується лише на стадії зчитування, а резервуар є незмінним. Двома основними типами резервуарних обчислень є рідкі скінченні автомати[2] та мережі з відлунням стану.[3][4]
Резервуар
Резервуар складається з зібрання рекурентно з'єднаних вузлів. Структура зв'язності, як правило, є випадковою, а вузли, як правило, є нелінійними. Загальна динаміка резервуара задається його входом, а також залежить від минулого. Багате зібрання динамічних відображень входів-виходів є вирішальною перевагою над простими нейронними мережами з часовою затримкою.
Зчитування
Зчитування здійснюється із застосуванням лінійного перетворення виходу резервуару. Це перетворення підлаштовують до потрібної задачі, застосовуючи лінійну або гребеневу регресію з використанням навчального сигналу.
Типи
Контекстно-ревербераційна мережа
Раннім прикладом резервуарних обчислень була контекстно-ревербераційна мережа (англ. context reverberation network).[5] В цій архітектурі входовий шар подається до динамічної системи високої розмірності, яку читають тренованим одношаровим перцептроном. Було описано два види динамічних систем: рекурентна нейронна мережа з незмінними випадковими вагами, і неперервна реакційно-дифузна система, натхнена моделлю морфогенезу Алана Тюрінга. У тренованому шарі перцептрон пов'язує поточний вхід із сигналами, які реверберують у динамічній системі; про останню казали, що вона забезпечує динамічний «контекст» для входів. Мовою пізніших праць, реакційно-дифузна система слугувала резервуаром.
Мережа з відлунням стану
Зворотне поширення — декореляція
Зворотне поширення — декореляція (ЗПДК, англ. backpropagation-decorrelation, BPDC)
Рідкий скінченний автомат
Див. також
Примітки
- Schrauwen, Benjamin, David Verstraeten, and Jan Van Campenhout. «An overview of reservoir computing: theory, applications, and implementations.» Proceedings of the European Symposium on Artificial Neural Networks ESANN 2007, pp. 471—482. (англ.)
- Mass, Wolfgang, T. Nachtschlaeger, and H. Markram. «Real-time computing without stable states: A new framework for neural computation based on perturbations.» Neural Computation 14(11): 2531—2560 (2002). (англ.)
- Jaeger, Herbert, «The echo state approach to analyzing and training recurrent neural networks.» Technical Report 154 (2001), German National Research Center for Information Technology. (англ.)
- Echo state network, Scholarpedia (англ.)
- Kirby, Kevin. «Context dynamics in neural sequential learning.» Proceedings of the Florida Artificial Intelligence Research Symposium FLAIRS (1991), 66-70. (англ.)
- Gallicchio, Claudio; Micheli, Alessio (2013). Tree Echo State Networks. Neurocomputing 101: 319–337. (англ.)
Література
- Reservoir Computing using delay systems, Nature Communications 2011
- Optoelectronic Reservoir Computing, Scientific Reports February 2012
- Optoelectronic Reservoir Computing, Optics Express 2012
- All-optical Reservoir Computing, Nature Communications 2013
- Memristor Models for Machine learning, Neural Computation 2014 arxiv