Рівняння Гамільтона — Якобі — Беллмана

У теорії оптимального управління рівняння Гамільтона — Якобі — Беллмана (HJB) дає необхідну та достатню умову оптимальності керування щодо функції втрат.[1] Загалом це нелінійне диференціальне рівняння з частинними похідними у функції значення, що означає, що його розв'язком є сама функція значення. Як тільки цей розв'язок знайдено, його можна використовувати для отримання оптимального управління, взявши максимізер (або мінімізатор) гамільтоніан, що бере участь у рівнянні HJB.[2][3]

Рівняння є результатом теорії динамічного програмування, яка була започаткована в 1950-х роках Річардом Беллманом та його колегами.[4][5][6] Зв'язок із рівнянням Гамільтона–Якобі з класичної фізики вперше встановив Рудольф Кальман.[7] У задачах з дискретним часом відповідне рекурентне співвідношення зазвичай називають рівнянням Беллмана.

Хоча класичні варіаційні задачі, такі як проблема брахістохрони, можна розв'язати за допомогою рівняння Гамільтона–Якобі–Беллмана,[8] цей метод можна застосувати до більш широкого спектру задач. Далі його можна узагальнити на стохастичні системи, у цьому випадку рівняння HJB є еліптичним диференціальним рівнянням у частинних похідних другого порядку.[9] Головним недоліком, однак, є те, що рівняння HJB допускає класичні рішення лише для достатньо гладкої функції значення, що не гарантується в більшості ситуацій. Натомість потрібне поняття в'язкісного рішення, в якому звичайні похідні замінюються (з заданим значенням) підпохідними.[10]

Проблеми оптимального управління

Розглянемо наступну задачу детермінованого оптимального управління за період часу  :

де  — скалярна функція норми втрат і є функцією, яка дає успадковану цінність у кінцевому стані,  — вектор стану системи, передбачається даним, і для  — це вектор управління, який ми намагаємося знайти.

Система також повинна підпорядковуватися

де дає вектор, що визначає фізичну зміну вектора стану з часом.

Диференціальне рівняння з частинними похідними

Для цієї простої системи (нехай ), диференціальне рівняння з частинними похідними Гамільтона–Якобі–Беллмана представляє собою

залежно від термінальної умови

Невідомий скаляр у наведеному вище диференціальному рівнянні з частинними похідними є функцієї цінності Беллмана, яка представляє втрати, понесені від початку роботи в стані під час і оптимальне управління системою з тих пір і до часу .

Виведення рівняння

Інтуїтивно рівняння HJB можна вивести наступним чином. Якщо є оптимальною функцією втрат на доставку (також званою «функцією цінності»), то відповідно до принципу оптимальності Річарда Беллмана, переходячи від часу t до t + dt, маємо

Зауважте, що розкладання Тейлора першого члена в правій частині є

де позначає елементи в розкладанні Тейлора вищого порядку за одиницю у нотації з маленьким о. Тоді, якщо відняти з обох сторін, поділити на dt і знайти границю, коли dt наближається до нуля, то ми отримуємо рівняння HJB, визначене вище.

Розв'язування рівняння

Рівняння HJB зазвичай розв'язується у зворотному напрямку в часі, починаючи з і закінчується на .

При розв'язанні на всьому просторі станів є безперервно диференційованою, рівняння HJB є необхідною та достатньою умовою оптимуму, коли кінцевий стан є необмеженим.[11] Якщо ми зможемо вирішити , то матимемо змогу знайти з нього елемент управління , що забезпечує мінімальну вартість (цінність).

У загальному випадку рівняння HJB не має класичного (гладкого) розв'язку. Для охоплення таких ситуацій було розроблено кілька понять про узагальнені рішення, включаюч в'язкісне рішення (П'єр-Луї Лайонс і Майкл Крендалл),[12] мінімаксне рішення (Андрій Ізмаїлович Субботін), та інші.

Наближене динамічне програмування було введено Д. П. Берцекасом та Дж. Цициклісом із використанням штучних нейронних мереж (багатошарових персептронів) для апроксимації функції Беллмана в цілому.[13] Це ефективна стратегія пом'якшення для зменшення впливу розмірності шляхом заміни запам'ятовування повного відображення функцій для всієї просторової області запам'ятовуванням окремих параметрів нейронної мережі. Зокрема, для систем безперервного часу введено наближений підхід динамічного програмування, який поєднує обидва ітераційних підходи з нейронними мережами.[14] У дискретному часі було введено підхід до вирішення рівняння HJB, що поєднує ітерації значень і нейронні мережі.[15]

Крім того, було показано, що оптимізація суми квадратів може дати наближений поліноміальний розв'язок рівняння Гамільтона-Якобі-Беллмана довільно добре по відношенню до норми.[16]

Ідею вирішення задачі управління шляхом застосування з подальшою розробкою стратегії оптимізації назад у часі можна узагальнити на стохастичні задачі управління. Розглянемо

де є стохастичним процесом для оптимізації та є управлінням. Спочатку використавши принцип оптимальності Беллмана, а потім розширивши за правилом Іто, можна знайти стохастичне рівняння HJB

де представляє стохастичний оператор диференціювання, і підлягає термінальній умові

Зауважте, що випадковість зникла. В даному випадку останнє рішення не обов'язково вирішує основну задачу, воно є лише кандидатом і потрібен додатковий перевіряючий аргумент. Цей метод широко використовується у фінансовій математиці для визначення оптимальних інвестиційних стратегій на ринку (див., наприклад, проблему портфеля Мертона).

Застосування до LQG Control

Як приклад можна розглянути систему з лінійною стохастичною динамікою та квадратичною вартістю. Якщо динаміка системи задана

і вартість накопичується зі швидкістю , рівняння HJB задається як

з оптимальною дією, заданою

Прийнявши квадратичну форму для функції значення, ми отримуємо звичайне рівняння Ріккаті для гесіана функції значення, як це зазвичай відбувається для лінійно-квадратично-гауссового управління.

Див. також

Посилання

  1. Kirk, Donald E. (1970). Optimal Control Theory: An Introduction. Englewood Cliffs, NJ: Prentice-Hall. с. 86–90. ISBN 0-13-638098-0.
  2. Yong, Jiongmin; Zhou, Xun Yu (1999). Dynamic Programming and HJB Equations. Stochastic Controls : Hamiltonian Systems and HJB Equations. Springer. с. 157–215 [p. 163]. ISBN 0-387-98723-1.
  3. Naidu, Desineni S. (2003). The Hamilton–Jacobi–Bellman Equation. Optimal Control Systems. Boca Raton: CRC Press. с. 277–283 [p. 280]. ISBN 0-8493-0892-5.
  4. Bellman, R. E. (1954). Dynamic Programming and a new formalism in the calculus of variations. Proc. Natl. Acad. Sci. 40 (4): 231–235. Bibcode:1954PNAS...40..231B. PMC 527981. PMID 16589462. doi:10.1073/pnas.40.4.231. Проігноровано невідомий параметр |doi-access= (довідка)
  5. Bellman, R. E. (1957). Dynamic Programming. Princeton, NJ.
  6. Bellman, R.; Dreyfus, S. (1959). An Application of Dynamic Programming to the Determination of Optimal Satellite Trajectories. J. Br. Interplanet. Soc. 17: 78–83.
  7. Kálmán, Rudolf E. (1963). The Theory of Optimal Control and the Calculus of Variations. У Bellman, Richard. Mathematical Optimization Techniques. Berkeley: University of California Press. с. 309–331. OCLC 1033974.
  8. Kemajou-Brown, Isabelle (2016). Brief History of Optimal Control Theory and Some Recent Developments. У Budzban, Gregory; Hughes, Harry Randolph; Schurz, Henri. Probability on Algebraic and Geometric Structures. Contemporary Mathematics 668. с. 119–130. ISBN 9781470419455. doi:10.1090/conm/668/13400.
  9. Chang, Fwu-Ranq (2004). Stochastic Optimization in Continuous Time. Cambridge, UK: Cambridge University Press. с. 113–168. ISBN 0-521-83406-6.
  10. Bardi, Martino; Capuzzo-Dolcetta, Italo (1997). Optimal Control and Viscosity Solutions of Hamilton–Jacobi–Bellman Equations. Boston: Birkhäuser. ISBN 0-8176-3640-4.
  11. Bertsekas, Dimitri P. (2005). Dynamic Programming and Optimal Control. Athena Scientific.
  12. Bardi, Martino; Capuzzo-Dolcetta, Italo (1997). Optimal Control and Viscosity Solutions of Hamilton-Jacobi-Bellman Equations. Boston: Birkhäuser. ISBN 0-8176-3640-4.
  13. Bertsekas, Dimitri P.; Tsitsiklis, John N. (1996). Neuro-dynamic Programming. Athena Scientific. ISBN 978-1-886529-10-6.
  14. Abu-Khalaf, Murad; Lewis, Frank L. (2005). Nearly optimal control laws for nonlinear systems with saturating actuators using a neural network HJB approach. Automatica 41 (5): 779–791. doi:10.1016/j.automatica.2004.11.034.
  15. Al-Tamimi, Asma; Lewis, Frank L.; Abu-Khalaf, Murad (2008). Discrete-Time Nonlinear HJB Solution Using Approximate Dynamic Programming: Convergence Proof. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) 38 (4): 943–949. PMID 18632382. doi:10.1109/TSMCB.2008.926614.
  16. Jones, Morgan; Peet, Matthew (2020). Polynomial Approximation of Value Functions and Nonlinear Controller Design with Performance Bounds. arXiv:2010.06828.

Бібліографія

  • Bertsekas, Dimitri P. (2005). Dynamic Programming and Optimal Control. Athena Scientific.
  • Pham, Huyên (2009). The Classical PDE Approach to Dynamic Programming. Continuous-time Stochastic Control and Optimization with Financial Applications. Springer. с. 37–60. ISBN 978-3-540-89499-5.
  • Stengel, Robert F. (1994). Conditions for Optimality. Optimal Control and Estimation. New York: Dover. с. 201–222. ISBN 0-486-68200-5.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.