Метод стохастичного градієнта
Стохастичний градієнтний спуск (англ. stochastic gradient descent, incremental gradient descent) — ітеративний метод оптимізації градієнтного спуску за допомогою стохастичного наближення. Використовується для прискорення пошуку цільової функції шляхом використання обмеженого за розміром тренувального набору, який вибирається випадкового при кожній ітерації.
Недавня стаття[1] недвозначно приписує розробку метода Герберту Роббінсу та Саттону Монро (англ. Sutton Monro), які описали його у статті 1951 року «Метод стохастичного наближення» (англ. A Stochastic Approximation Method).[2]
Основна ідея
Градієнтні методи — це широкий клас оптимізаційних алгоритмів, які використовують не лише в машинному навчанні. В даному випадку градієнтний підхід буде розглядатись як спосіб підбору векторів синаптичних ваг в лінійному класифікаторі. Нехай — цільова залежність, яка відома лише на об'єктах навчальної вибірки: .
Знайдемо алгоритм , що апроксимує залежність . У випадку лінійного класифікатора шуканий алгоритм має вигляд:
- ,
де грає роль функції активації (в найпростішому випадку можна використовувати ).
Згідно з принципом мінімізації емпіричного ризику, для цього достатньо вирішити оптимізаційну задачу:
- ,
де — задана функція втрат.
Позначимо через значення функції втрат на -му спостереженні. Тоді,
Для мінімізації використаємо метод градієнтного спуску. Це покроковий алгоритм, на кожній ітерації якого вектор змінюється в напрямку найбільшого спадання функціоналу (тобто в напрямку протилежному градієнту):
де — додатній параметр, який називається швидкістю навчання.
Існують такі підходи в реалізації градієнтного спуску:
- Пакетний (batch), коли на кожній ітерації навчальна вибірка переглядається цілком, тільки після чого змінюється . Такий підхід потребує великих обчислювальних затрат та дуже добре надається при паралельних обчисленнях.
- Стохастичний (stochastic/online), коли на кожній ітерації алгоритму з навчальної вибірки випадковим чином обирається лише один об'єкт. Таким чином вектор налаштовується кожен раз на новобраний об'єкт.
Алгоритм
Вхід:
- — навчальна вибірка
- — темп навчання
- — параметр згладжування функціоналу
Вихід:
- Вектор ваг
Тіло:
- Ініціалізувати ваги , (, де — розмірність простору ознак);
- Ініціалізувати поточну оцінку функціоналу:
- ;
- Повторювати:
- Вибрати об'єкт із (наприклад, випадковим чином);
- Обчислити вихідне значення алгоритму та помилку:
- ;
- Зробити крок градієнтного спуску:
- ;
- Оцінити значення функціоналу:
- ;
- Поки значення не стабілізується та/або ваги не припинять змінюватись.
Порядок вибору об'єктів
Вище сказано, що у випадку стохастичного градієнтного спуску об'єкти слід обирати випадковим чином. Однак існують евристики, що направлені на покращення збіжності, які дещо модифікують звичайний випадковий вибір:
- Перемішування (shuffling). Пропонується випадково обирати об'єкти, але поперемінно з різних класів. Ідея в тому, що об'єкти з різних класів скоріше за все менш «схожі», ніж об'єкти з одного класу, тому вектор буде кожного разу змінюватись сильніше.
- Можливий варіант алгоритму, коли вибір кожного об'єкта нерівноймовірний, при чому ймовірність випадення об'єкта обернено пропорційна величині помилки на об'єкті. Слід зауважити, що за такої евристики метод стає дуже чутливим до шумів.
Способи ініціалізації ваг
- Ініціалізувати вектор нулями. Цей спосіб використовується в багатьох системах, але не завжди є найкращим.
- , де — розмірність простору ознак. Цей метод більш вдалий, ніж попередній, якщо відповідним чином нормалізувати опис ознак. (див. «Недоліки та способи боротьби з ними».)
- Ще один підхід полягає в тому, щоб вирішити вихідну задачу оптимізації у випадку статистично незалежних ознак, лінійної функції активації () та квадратичної функції втрат (). Тоді рішення має вигляд:
- .
Параметр згладжування
В алгоритмі для оцінки функціоналу на кожній ітерації використовується його наближене значення за методом експоненціального згладжування, звідки краще брати порядку . Якщо довжина вибірки надмірно велика, то слід збільшувати.
Деякі окремі випадки алгоритму
Метод стохастичного градієнта (за відповідного вибору функцій активації та втрат) є узагальненням таких широко розповсюджених евристик підбору та алгоритмів класифікації:
- Адаптивний лінійний елемент (ADALINE);
- Правило Хебба;
- Алгоритм k-середніх;
- Квантизація навчального вектора (LVQ).
Переваги методу
- Метод пристосований для динамічного (online) навчання, коли навчальні об'єкти надходять потоком, та потрібно швидко оновлювати вектор .
- Алгоритм здатен навчатись на надмірно великих вибірках за рахунок того, що випадкової підвибірки може вистачати для навчання.
- Можливі різноманітні стратегії навчання. Якщо вибірка надмірно велика, або навчання відбувається динамічно, то є допустимим не зберігати навчальні об'єкти. Якщо вибірка маленька, то можна повторно подавати для навчання ті самі об'єкти.
Недоліки та способи боротьби з ними
- Алгоритм може не збігатись або збігатись занадто повільно (див. «Збіжність алгоритму».)
- Як правило, функціонал має багато екстремумів та процес градієнтного спуску може «застрягти» на одному із локальних мінімумів. Для боротьби з цим використовують техніку струшування коефіцієнтів (англ. jog of weights). Вона полягає у тому, що при кожній стабілізації функціонала робити випадкові модифікації вектора в достатньо широкому околі поточного значення та запускати процес градієнтного спуску з нових точок.
- За великої розмірності простору ознак та/або малої довжини вибірки можливе перенавчання, тобто класифікація стає нестійкою, і ймовірність помилки збільшується. При цьому сильно виростає норма вектора ваг. Для боротьби з цим недоліком використовують регуляризацію Тихонова. Він полягає в тому, щоб обмежити можливий ріст норми , додавши до штрафний доданок:
- .
В результаті правило обновлення ваг приймає вигляд:
- .
- Якщо функція активації має горизонтальні асимптоти, то процес може потрапити в стан «паралічу». За великих значень скалярного добутку значення стає близьким до нуля і вектор перестає суттєво змінюватися. Тому звичною практикою є попередня нормалізація ознак:
- , де — відповідно мінімальне та максимальне відхилення j-ї ознаки. Якщо при цьому , то
Відзначимо, що регуляризація також є способом попередження «паралічу».
Збіжність алгоритму
Як вже було сказано, збіжність в загальному випадку не гарантується, але встановлено, що у випадку опуклої функції та при виконанні таких трьох умов:
- ;
- ;
процес градієнтного спуску буде збіжним. Наприклад, можна закласти: . Проте, як свідчить практика, це не дуже вдалий спосіб.
Примітки
- Mei, Song (2018). A mean field view of the landscape of two-layer neural networks. Proceedings of the National Academy of Sciences. doi:10.1073/pnas.1806579115.
- Herbert Robbins, Sutton Monro (September 1951). A stochastic approximation method. The Annals of Mathematical Statistics 22 (3): 400—407. JSTOR 2236626.
Література
- Машинное обучение (курс лекций, К. В. Воронцов) (рос.)
- Stochastic Learning (англ.)
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). 5.9 Stochastic gradient descent. Deep Learning. MIT Press. с. 149–150. ISBN 978-0262035613. (англ.)
- Bottou, Léon (2004). Stochastic Learning. Advanced Lectures on Machine Learning. LNAI 3176. Springer. с. 146–168. ISBN 978-3-540-23122-6. (англ.)
- Buduma, Nikhil; Locascio, Nicholas (2017). Beyond Gradient Descent. Fundamentals of Deep Learning : Designing Next-Generation Machine Intelligence Algorithms. O'Reilly. (англ.)
- LeCun, Yann A.; Bottou, Léon; Orr, Genevieve B.; Müller, Klaus-Robert (2012). Efficient BackProp. Neural Networks: Tricks of the Trade. Springer. с. 9–48. ISBN 978-3-642-35288-1. (англ.)
- Spall, James C. (2003). Introduction to Stochastic Search and Optimization. Wiley. ISBN 978-0-471-33052-3. (англ.)
- Використання стохастичного градієнту в C++, Boost, Ublas для лінійної регресії (англ.)
- Алгоритми машинного навчання (англ.)
- Goh (4 квітня 2017). Why Momentum Really Works. Distill.Gradient Descent, How Neural Networks Learn. 3Blue1Brown. 16 жовтня 2017 — через YouTube. Інтерактивна стаття з поясненням моментів. (англ.)