Метод Нелдера – Міда
Метод Нелдера — Міда (метод симплексного спуску, метод амеби, або політопний метод)) є популярним чисельним методом, що використовується для пошуку мінімуму або максимуму цільової функції в багатовимірному просторі. Це метод прямого пошуку (на основі порівняння функцій) і часто застосовується до нелінійних задач оптимізації, для яких похідні можуть не бути відомі. Проте, підхід Нелдера-Міда є евристичним методом пошуку, який може сходитися до нестаціонарних точок[1], стикаючись з проблемами, які можуть бути розв'язані альтернативними методами[2].
Послідовні симплекси в функції Нелдера-Міда для Функції Розенброка (вгорі) та функції Химмельблау (внизу) | |
Метод Нелдера — Міда запропонували Джон Нелдер і Роджер Мід у 1965 році[3], як варіант модифікації методу Спендлі[4].
Загальний опис
У методі використовується поняття симплексу, який є спеціальним політопом n + 1 вершин в n вимірах. Приклади симплексів включають відрізок на лінії, трикутник на площині, тетраедр у тривимірному просторі тощо.
Метод апроксимує локальний оптимум задачі з n змінними, коли цільова функція змінюється плавно і є унімодальною. Типові реалізації мінімізують функції, максимум можна знайти за допомогою мінімізації .
Наприклад, інженер підвісного моста повинен вибрати, якою має бути товщина кожної стійки, кабелю і причалу. Ці елементи взаємозалежні, але нелегко візуалізувати вплив зміни стану будь-якого конкретного елемента. Моделювання таких складних конструкцій часто є надзвичайно обчислювально складним для запуску, можливо, тому що вони потребують більше годин на виконання. Метод Нелдера — Міда вимагає у вихідному варіанті не більше двох оцінок на ітерацію, за винятком описаної пізніше операції стягування, що є перевагою порівняно з іншими методами оптимізації прямого пошуку. Однак загальна кількість ітерацій пропонованого оптимуму може бути великою.
Метод у n вимірах зберігає набір n+1 тестових точок, розташованих як симплекс. Потім він екстраполює поведінку цільової функції, виміряної в кожній тестовій точці, щоб знайти нову тестову точку і замінити одну зі старих тестових точок на нову, це складає основний цикл методу. Найпростіший підхід полягає в тому, щоб замінити найгіршу точку точкою, відбитою через центроїд решти n точок. Якщо ця точка краща, ніж краща поточна точка, то ми можемо спробувати розтягнути експоненціально по цій лінії. З іншого боку, якщо ця нова точка не є набагато кращою, ніж попередня величина, то ми переходимо до наступного значення, тому ми стягуємо симплекс у кращу точку. Інтуїтивне пояснення алгоритму представлено в[5]:
Метод спадання симплекса тепер виконує ряд кроків, більшість кроків просто переміщує точку симплекса, де функція набуває найбільшого значення («найвища точка») через протилежну сторону симплекса до нижньої точки. Ці кроки називаються відбиттями, і вони побудовані для збереження обсягу симплекса (і, отже, збереження його невиродженості). Коли це може зробити, метод розширює симплекс в тому чи іншому напрямку, щоб зробити великі кроки. Коли він досягає «найнижчої точки», метод починає рухатися в поперечному напрямку і намагається просунутися вздовж лінії спадання. У ситуації, коли симплекс намагається «пройти крізь голку», то він стискається у всіх напрямках, стягуючи себе навколо своєї найнижчої (кращої) точки.
На відміну від сучасних методів оптимізації, евристика Нелдера — Міда може сходитися до нестаціонарної точки, якщо задача не задовольняє сильнішим умовам, ніж це необхідно для сучасних методів.[1] Сучасні поліпшення евристики Нелдера-Мід відомі з 1979 року.[2]
Існує багато варіацій залежно від фактичної природи розв'язуваної проблеми. Звичайний варіант використовує невеликий симплекс постійного розміру, який приблизно відповідає напрямку градієнта (який дає найшвидший спуск). Візуалізуйте маленький трикутник на карті висоти, що перевертається по долині до найнижчої точки на місцевості. Цей метод також відомий «як гнучкий метод багатогранника». Це, однак, має тенденцію до поганого виконання методу, описаного в цій статті(?), оскільки він робить невеликі, непотрібні кроки в областях, що представляють малий інтерес.
Один з можливих варіантів алгоритму Нелдера-Міда
(Це близько до процедури, яка описана в оригінальній статті Нелдера-Міда.)
Ми намагаємося мінімізувати функцію , де . Наші поточні контрольні точки є .
1. Порядок відповідно до значень у вершинах:
- Перевірте, чи слід зупинити метод. Дивіться Завершення нижче. Іноді неправильно називають «збіжністю».
2. Розрахуйте , центроїд всіх точок, окрім .
3. Відбиття
- Обчислити симетрично віддзеркалену або, як будемо казати далі, відбиту точку з .
- Якщо відбита краща, ніж друга найгірша, але не краща, ніж краща, тобто ,
- тоді отримайте новий симплекс, замінивши найгіршу точку симетрично віддзеркаленою точкою , і перейдіть до кроку 1.
4.Розширення
- Якщо відбита точка є найкращою точкою досі, ,
- потім обчислити розширену точку з .
- Якщо розширена точка краще відбитої точки, ,
- отримуємо новий симплекс, замінюючи найгіршу точку розширеною точкою , і перейдіть до кроку 1;
- інакше отримуємо новий симплекс, замінюючи найгіршу точку відбитою точкою і перейдіть до кроку 1.
5. Скорочення
- Тут напевно . (Зауважте що це друге чи «наступне» після найвищого.): Обчислити контрактну точку до з .
- Якщо контрактна точка краща, ніж найгірша точка, тобто ,
- потім отримують новий симплекс шляхом заміни найгіршої точки на контрактну точку і переходять до кроку 1;
6. Стягування
- Замініть всі точки, крім кращих () з
- ,і перейдіть до кроку 1.
Примітка: , , і відповідно коефіцієнти відбиття, розширення, скорочення і стягування. Стандартними значеннями , , та .
Для відбиття, оскільки це вершина з вищою асоційованою величиною серед вершин, можливо буде менше значення при відбитті у бік протилежній стороні, утвореній всіма вершинами , крім .
Для розширення, якщо точка відбиття i є новим мінімумом уздовж вершин, можна розраховувати знайти шукані значення вздовж напрямку від до .
Що стосується скорочення, якщо , то можна очікувати, що краще значення буде всередині симплекса, утвореного всіма вершинами .
Нарешті, стягування обробляє рідкісний випадок, коли скорочення від найбільшої точки збільшує , що не може трапитись досить близько до несингулярного мінімуму. У цьому випадку ми скорочуємо у бік найнижчої точки в очікуванні знайти простішу ландшафт. Проте, Неш зазначає, що арифметика зі скінченною точністю іноді не може фактично стягнути симплекс, і виконати перевірку того, що розмір насправді зменшився.[6]
Початковий симплекс
Початковий симплекс важливий. Дійсно, занадто малий початковий симплекс може призвести до локальних пошуків, отже, метод може легше зупинитися. Отже, цей симплекс повинен залежати від природи проблеми. А проте, оригінальна стаття запропонувала симплекс, де дається початкова точка , а інші генеруються з фіксованим кроком по кожному виміру по черзі. Таким чином, метод чутливий до масштабування змінних, які складають .
Завершення
Критерії необхідні для розриву ітераційного циклу. Нелдер і Мід використовували зразкове стандартне відхилення значень функцій поточного симплекса. Якщо вони опускаються нижче певних обмежень, то цикл зупиняється і найнижча точка в симплексі видається як запропонований оптимум. Зауважимо, що дуже «плоска» функція може мати майже однакові значення функцій над великим доменом, так що рішення буде чутливим до обмежень. Неш[6] додає тест на усадку як ще один критерій переривання роботи. Зауважте, що програми припиняються, тоді як ітерації можуть сходитися.
Див. також
- Оптимізація без похідних
- COBYLA
- NEWUOA
- LINCOA
- Нелінійний сполучений градієнтний метод
- Алгоритм Левенберга — Марквардта
- Бройден–Флетчер–Голдфарб-Шано або BFGS метод
- Диференціальна еволюція
- Метод Гука — Дживса
- CMA-ES
Примітки
-
- Powell, Michael J. D. (1973). On Search Directions for Minimization Algorithms. Mathematical Programming 4: 193–201. doi:10.1007/bf01584660.
- McKinnon, K.I.M. (1999). Convergence of the Nelder–Mead simplex method to a non-stationary point. SIAM Journal on Optimization 9: 148–158. doi:10.1137/S1052623496303482. Проігноровано невідомий параметр
|citeseerx=
(довідка) (algorithm summary online).
-
- Yu, Wen Ci. 1979. «Positive basis and a class of direct search techniques». Scientia Sinica [Zhongguo Kexue]: 53—68.
- Yu, Wen Ci. 1979. «The convergent property of the simplex evolutionary technique». Scientia Sinica [Zhongguo Kexue]: 69–77.
- Kolda, Tamara G.; Lewis, Robert Michael; Torczon, Virginia (2003). Optimization by direct search: new perspectives on some classical and modern methods. SIAM Rev. 45 (3): 385–482. doi:10.1137/S003614450242889. Проігноровано невідомий параметр
|citeseerx=
(довідка) - Lewis, Robert Michael; Shepherd, Anne; Torczon, Virginia (2007). Implementing generating set search methods for linearly constrained minimization. SIAM J. Sci. Comput. 29 (6): 2507–2530. doi:10.1137/050635432. Проігноровано невідомий параметр
|citeseerx=
(довідка)
- Nelder, John A.; R. Mead (1965). A simplex method for function minimization. Computer Journal 7 (4): 308–313. doi:10.1093/comjnl/7.4.308.
- Spendley, W; Hext, GR; Himsworth, FR (1962). Sequential Application of Simplex Designs in Optimisation and Evolutionary Operation. Technometrics 4 (4): 441–461. doi:10.1080/00401706.1962.10490033.
-
- Press, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007). Section 10.5. Downhill Simplex Method in Multidimensions. Numerical Recipes: The Art of Scientific Computing (вид. 3rd). New York: Cambridge University Press. ISBN 978-0-521-88068-8.
- Nash, JC (1979). Compact Numerical Methods: Linear Algebra and Function Minimisation. Bristol: Adam Hilger. ISBN 978-0-85274-330-0.
Література
- Avriel, Mordecai (2003). Nonlinear Programming: Analysis and Methods. Dover Publishing. ISBN 978-0-486-43227-4.
- Coope, I. D.; Price, C. J. (2002). Positive Bases in Numerical Optimization. Computational Optimization & Applications 21 (2): 169–176. doi:10.1023/A:1013760716801.
- Gill, Philip E.; Murray, Walter; Wright, Margaret H. (1981). Methods for Multivariate Non-Smooth Functions. Practical Optimization. New York: Academic Press. с. 93–96. ISBN 978-0-12-283950-4.
- Kowalik, J.; Osborne, M. R. (1968). Methods for Unconstrained Optimization Problems. New York: Elsevier. с. 24–27. ISBN 0-444-00041-0.
- Swann, W. H. (1972). Direct Search Methods. У Murray, W. Numerical Methods for Unconstrained Optimization. New York: Academic Press. с. 13–28. ISBN 978-0-12-512250-4.
Посилання
- Nelder–Mead (Simplex) Method
- Nelder–Mead (Downhill Simplex) explanation and visualization with the Rosenbrock banana function
- John Burkardt: Nelder–Mead code in Matlab — note that a variation of the Nelder–Mead method is also implemented by the Matlab function fminsearch.
- nelder-mead — A Python implementation of the Nelder–Mead method
- SOVA 1.0 (freeware) — Simplex Optimization for Various Applications
- — HillStormer, a practical tool for nonlinear, multivariate and linear constrained Simplex Optimization by Nelder Mead.