Дельта-правило
Дельта-правило — метод навчання перцептрону за принципом градієнтного спуску по поверхні помилки. Дельта-правило розвинулося з першого і другого правил Хебба. Його подальший розвиток привів до створення методу зворотного поширення помилки.
Правила Хебба
Перцептрон Розенблата у початковому його виконанні складався з фотоелементів, які, залежно від поданого на них сигналу виробляли сигнал логічної одиниці, або логічного нуля. Сигнали з фотоелементів надходили на зважений суматор (елементарний процесор, штучний нейрон) з пороговою функцією активації. Нейрон також видавав сигнал логічного нуля, або логічної одиниці [1]. Мета навчання перцептрона полягала в тому, щоб при подачі на фотоелементи закодованого образу на його виході з'являлася логічна одиниця в разі належності поданого образу до заздалегідь певного класу і нуль в іншому випадку. Логіка навчання наступна: якщо сигнал перцептрона при деякому образі вірний, то нічого коригувати не потрібно, якщо немає — проводиться коригування ваги суматора. Правило коригування ваг запропоноване Хебом в 1949 році [2] має наступний зміст:
«Якщо аксон клітини А знаходиться досить близько, щоб збуджувати клітку B, і неодноразово або постійно бере участь в її збудженні, то спостерігається певний процес росту або метаболічних змін в одній або обох клітинах, що веде до збільшення ефективності А, як однієї з збудливих клітин В ».
З вищенаведеної цитати помилково виводять 2 правила[3]:
- Перше правило Хебба — Якщо сигнал перцептрона невірний, і дорівнює нулю, то необхідно збільшити ваги тих входів, на які була подана одиниця.
- Друге правило Хебба — Якщо сигнал перцептрона невірний і дорівнює одиниці, то необхідно зменшити вагу тих входів, на які була подана одиниця.[4]
Правила застосовуються послідовно для всіх образів, на яких здійснюється навчання. На питання про те, чи прийде перцептрон до стійкого стану, коли він буде коректно класифікувати всі вхідні образи відповідає теорема збіжності перцептрона.
Дельта-правило
Власне дельта-правилом називають математичну, трохи загальнішу форму запису правил Хебба. Нехай вектор — вектор вхідних сигналів, а вектор — вектор сигналів, які повинні бути отримані від перцептрона під впливом вхідного вектора. Тут — кількість нейронів, що входять до перцептрону. Вхідні сигнали, поступивши на входи перцептрону, були зважені і підсумовані, в результаті чого отримано вектор вихідних значень перцептрона. Тоді можна визначити вектор помилки , розмірність якого збігається розмірністю вектором вихідних сигналів. Компоненти вектора помилок визначаються як різниця між очікуваним і реальним значенням вихідного сигналу нейрону перцептрона:
За таких позначеннях формулу для коригування j-ї ваги i-го нейрона можна записати так:
Номер сигналу змінюється в межах від одиниці до розмірності вхідного вектора . Номер нейрону змінюється в межах від одиниці до кількості нейронів . Величина — номер поточної ітерації навчання. Таким чином, вага вхідного сигналу нейрона змінюється у бік зменшення помилки пропорційно величині сумарної помилки нейрона. Часто вводять коефіцієнт пропорційності , на який множиться величина помилки. Цей коефіцієнт називають швидкістю навчання. Таким чином, підсумкова формула для коректування ваг зв'язків перцептрону має наступний вигляд:
Узагальнене дельта-правило
З метою розширення кола завдань, що вирішуються перцептроном, Уїдроу і Хофом [5] була запропонована сигмоїдаальна функція активації для нейронів. Це дозволило перцептрону оперувати з неперервними сигналами, але виникла необхідність модифікації алгоритму навчання.[6] Модифікований алгоритм спрямований на мінімізацію функції середньоквадратичної помилки:
Ця функція визначається матрицею вагових коефіцієнтів . Тут — номер нейрона, а — номер входу. Поверхня, що описується цією функцією має форму псевдопараболоіди.[7] Завданням навчання є знаходження глобального мінімуму цієї поверхні. Одним із способів знаходження мінімуму є метод градієнтного спуску. Коригування ваг проводиться в напрямку антиградієнта поверхні:
Тут — коефіцієнт швидкості навчання.
Функція помилки є складною і залежить в першу чергу від вихідних сигналів перцептрона. Відповідно до правил диференціювання складних функцій:
Вихідний сигнал кожного нейрона визначається за формулою:
Тут — кількість входів перцептрона, — сигнал на j-му вході, а — функція активації. Тоді отримаємо:
Продиференціювавши функцію помилки за значенням вихідного сигналу, отримаємо:
Підставивши формули (**) і (***) у вираз (*) отримаємо вираз для коригування ваги j-го входу у i-го нейрона при будь-якій активаційний функції[8]:
З цієї формули видно, що активаційна функція при використанні узагальненого дельта-правила повинна бути неперевно диференційована на всій осі абсцис. Перевагу мають функції активації з простою похідною (наприклад — логістична крива або гіперболічний тангенс).
На основі дельта-правила Уїдроу і Хопфа був створений один з перших апаратних нейрокомп'ютерів Adaline (1960).
Примітки
- Можливий варіант використання замість сигналів
- Hebb DO — The Organization of Behavior. John Wiley & Sons, New York, 1949
- Правило Хебба: «универсальный нейрофизиологический постулат» и великое заблуждение математиков. habr.com (рос.). Процитовано 26 червня 2020.
- Ясницкий Л. Н. Введение в искусственный интеллект. М.: Издательский центр «Академия», 2005 — c. 30—32
- Widrow B., Hoff M.E. — Adaptive switching circuits. 1969 IRE WESTCON Conferencion Record. — New York, 1960
- Л. Н. Ясницкий — Введение в искусственный интеллект. — с.34-36
- Л. Н. Ясницкий — Введение в искусственный интеллект. — с.35
- Л. Н. Ясницкий — Введение в искусственный интеллект. — с.36
Література
- Ясницкий Л. Н. Введение в искусственный интеллект. М.: Издательский центр «Академия», 2005. — 176с.
- Lakhmi C. Jain; N.M. Martin Fusion of Neural Networks, Fuzzy Systems and Genetic Algorithms: Industrial Applications. - CRC Press, CRC Press LLC, 1998