Теорія складності обчислень

Теорія складності обчислень — підрозділ теоретичної інформатики, що займається дослідженням складності алгоритмів для розв'язання задач на основі формально визначених моделей обчислювальних пристроїв. Складність алгоритмів вимірюється за необхідними ресурсами, в основному це тривалість обчислень або необхідний обсяг пам'яті. В окремих випадках досліджуються інші міри складності, такі як розмір мікросхем, або кількість процесорів, необхідна для роботи паралельних алгоритмів.

Слід не плутати теорію складності обчислень з теорією обчислюваності, яка займається пошуком відповіді на запитання про те, які задачі можуть бути взагалі розв'язані за допомогою алгоритмів. Основна задача досліджень в теорії складності обчислень полягає у класифікації всіх розв'язних задач. Зокрема, робляться спроби відокремити множину задач з ефективними алгоритмами розв'язання від множини важко розв'язних задач.

Огляд

Обчислювальну складність алгоритму звичайно виражають через символ «О велике», що вказує порядок величини обчислювальної складності. Це просто член розкладання функції складності, що найшвидше зростає за умови зростання n; всі члени нижчого порядку ігноруються. Наприклад, якщо часова складність порядку n2, то вона виражається як O(n2).

Часова складність, виміряна подібним чином, не залежить від реалізації.

Не потрібно знати ні точного часу виконання окремих інструкцій, ні числа бітів, які являють різні змінні, ні навіть швидкості процесора. Один комп'ютер може бути на 50 % швидший від іншого, а в третього ширина шини даних може бути вдвічі більше, проте складність алгоритму, що оцінена порядком величини, не зміниться. І це не є хитрим трюком. Під час оцінки доволі складних алгоритмів усім іншим можна знехтувати (з точністю до постійного множника).

Оцінка обчислювальної складності наочно демонструє, як об'єм вхідних даних впливає на вимоги до часу та об'єму пам'яті.

Наприклад, якщо T=O(n), подвоєння вхідних даних подвоїть і час виконання алгоритму. Якщо T=O(2n), додання лише одного біту до вхідних даних подвоїть час виконання алгоритму.

Головною ціллю теорії складності є забезпечення механізмів класифікації обчислювальних задач згідно з ресурсами, необхідних для їх розв'язання. Класифікація не має залежати від конкретної обчислювальної моделі, а скоріше оцінювати внутрішню складність задачі.

Ресурси, що оцінюються, як уже було зазначено раніше, можуть бути такими: час, простір пам'яті, випадкові біти, кількість процесорів, тощо, але зазвичай головним фактором є час, а іноді й простір.

Теорія розглядає мінімальний час і об'єм пам'яті для розв'язання найскладнішого варіанта задачі на теоретичному комп'ютері, відомому як машина Тюрінга. Машина Тюрінга є кінцевим автоматом з безкінечною магнітною стрічкою пам'яті для читання/запису. Це означає, що машина Тюрінга — реалістична обчислювальна модель.

Задачі, які можна розв'язати за допомогою алгоритмів з поліноміальним часом, називають такими, що можуть бути розв'язані, оскільки за умов нормальних вхідних даних вони можуть бути розв'язані за прийнятний час (точне визначення «прийнятності» залежить від конкретних умов).

Задачі, які можуть бути вирішені тільки за допомогою суперполіноміальних алгоритмів з поліноміальним часом, є обчислювально складними навіть за відносно малими значеннями n.

Алан Тюрінг довів, що деякі задачі неможливо розв'язати. Навіть без урахування часової складності алгоритму, створити алгоритм для їх розв'язання неможливо.

Асимптотична складність

Позначення Інтуїтивне пояснення Визначення
обмежена згори функцією (з точністю до постійного множника) асимптотично або
обмежена знизу функцією (з точністю до постійного множника) асимптотично
обмежена знизу і згори функцією асимптотично
домінує над асимптотично
домінує над асимптотично
еквівалентна асимптотично

Поширені складності алгоритмів

Позначення Пояснення Приклади
Сталий час роботи, незалежно від розміру задачі. Очікуваний час пошуку в хеші.
Дуже повільне зростання необхідного часу. Очікуваний час роботи інтерполюючого пошуку елементів.
Логарифмічне зростання — подвоєння розміру задачі збільшує час роботи на сталу величину. Обчислення; двійковий пошук в масиві з елементів.
Лінійне зростання — подвоєння розміру задачі подвоїть і необхідний час. Додавання/віднімання чисел з цифр; лінійний пошук в масиві з елементів.
Лінеаритмічне зростання — подвоєння розміру задачі збільшить необхідний час трохи більше ніж вдвічі. Сортування злиттям або купою елементів; нижня границя сортування порівнянням елементів.
Квадратичне зростання — подвоєння розміру задачі вчетверо збільшує необхідний час. Елементарні алгоритми сортування.
Кубічне зростання — подвоєння розміру задачі збільшує необхідний час у вісім разів. Звичайне множення матриць.
Експоненціальне зростання — збільшення розміру задачі на
призводить до кратного збільшення необхідного часу; подвоєння розміру задачі підносить необхідний час у квадрат
Деякі задачі комівояжера, алгоритми пошуку повним перебором.

Класи складності

Клас складності — це множина задач розпізнавання, для вирішення яких існують алгоритми, схожі за обчислювальною складністю. Задачі можна розбити на класи згідно зі складністю їх розв'язання. Всі класи складності знаходяться в ієрархічному відношенні: одні містять у собі інші. Однак про більшість включень невідомо, чи є вони суворими. Клас P, що є найнижчим, містить усі задачі, які можна розв'язати за поліноміальний час. До класу NP входять усі задачі, які можна розв'язати за поліноміальний час тільки на недетермінованій машині Тюрінга (це варіант звичайної машини Тюрінга, що може робити припущення). Така машина робить припущення щодо розв'язку задачі — чи «вдало вгадуючи», чи перебираючи усі припущення паралельно — та перевіряє своє припущення за поліноміальний час.

Клас P

Клас P (від англ. polynomial) — множина задач, для яких існують «швидкі» алгоритми рішення (час роботи яких поліноміально залежить від розміру вхідних даних). Клас P включений у ширші класи складності алгоритмів. Для будь-якої мови програмування можна визначити клас P подібним чином (замінивши у визначенні машину Тюрінга на реалізацію мови програмування). Якщо компілятор мови, на якому реалізовано алгоритм, уповільнює виконання алгоритму поліноміальної (тобто час виконання алгоритму на машині Тюрінга менше деякого многочлена від часу виконання його на мові програмування), то визначення класів P для цієї мови і для машини Тюрінга збігаються. Код на асемблері допускає перетворення в машину Тюрінга з невеликим поліноміальним уповільненням, а оскільки всі існуючі мови допускають компіляцію в асемблер (знову ж таки, з поліноміальним уповільненням), то визначення класу P для машин Тюрінга і для будь-якої існуючої мови програмування збігаються.

Клас NP

Клас NP (від англ. non-deterministic polynomial) — множина задач розпізнавання, розв'язання яких є можливим за наявності деяких додаткових відомостей (так званого сертифіката рішення), тобто є можливість «швидко» (за час, що не перевершує полінома від розміру даних) перевірити розв'язок на машині Тьюрінга. Еквівалентно клас NP можна визначити як сукупність завдань, які можна «швидко» вирішити на недетермінованій машині Тьюрінга.

Клас складності NP визначається для множини мов, тобто множин слів над кінцевим алфавітом Σ. Мова L належить класу NP, якщо існують двомісний предикат з класу P (тобто обчислюваний за поліноміальний час) і константа такі, що для будь-якого слова умова рівносильна умові .

Відношення класів складності NP та P

У теорії алгоритмів питання про рівність класів складності P і NP є однією з центральних відкритих проблем вже більше трьох десятиліть. Якщо на нього буде дана ствердна відповідь, це буде означати, що теоретично можливо вирішувати багато складних завдань істотно швидше, ніж зараз.
З визначення класів P і NP відразу випливає наслідок: . Проте до цих пір нічого не відомо про суворість цього включення, тобто чи існує завдання, що лежить в NP, але не лежить в P. Якщо такого завдання не існує, то всі завдання, що належать класу NP, можна буде вирішувати за поліноміальний час, що обіцяє величезну вигоду з обчислювальної точки зору. Зараз найскладніші завдання з класу NP (так звані NP-повні задачі) можна вирішити за експоненційний час, що майже завжди неприйнятно.
В даний час більшість математиків вважають, що ці класи не рівні. Згідно з опитуванням, проведеним у 2002 році серед 100 вчених,[1] 61 людина вважає, що відповідь — «не рівні»; 9 — «рівні»; 22 не змогли відповісти; 8 вважають, що гіпотеза не виводиться з поточної системи аксіом і, таким чином, не може бути доведена або спростована. З вищезазначеного видно, що проблема дослідження відношення класів P та NP є актуальною в науковому середовищі і потребує глибшого аналізу.

Непіддатливість

Задачі які можна розв'язати теоретично (маючи величезний але скінченний час), але які на практиці займають занадто багато часу аби їх розв'язок міг бути корисним, називаються непіддатливими (англ. intractable).[2]

Приклади

При порівнянні різних алгоритмів важливо знати, як їх складність залежить від обсягу вхідних даних. Припустимо, при сортуванні одним методом обробка тисячі чисел займає 1 с., А обробка мільйона чисел — 10 с., При використанні іншого алгоритму може знадобитися 2 с. і 5 с. відповідно. У таких умовах не можна однозначно сказати, який алгоритм краще.
У загальному випадку складність алгоритму можна оцінити по порядку величини. Алгоритм має складність , якщо при збільшенні розмірності вхідних даних , час виконання алгоритму зростає з тією ж швидкістю, що і функція . Розглянемо код, який для матриці знаходить максимальний елемент у кожному рядку.

Приклад:

 for i:=1 to N do
  begin
   max:=A[i,1];
   for j:=1 to N do
    begin
     if A[i,j]>max then
     max:=A[i,j]
    end;
   writeln(max);
 end;

У цьому алгоритмі змінна змінюється від до . При кожній зміні , змінна теж змінюється від до . Під час кожної з ітерацій зовнішнього циклу, внутрішній цикл теж виконується раз. Загальна кількість ітерацій внутрішнього циклу дорівнює . Це визначає складність алгоритму . Оцінюючи порядок складності алгоритму, необхідно використовувати тільки ту частину, яка зростає найшвидше. Припустимо, що робочий цикл описується виразом . У такому разі його складність буде дорівнювати . Розгляд швидко зростаючої частини функції дозволяє оцінити поведінку алгоритму при збільшенні . Наприклад, при , то різниця між та дорівнює всього лише , що становить . При обчисленні можна не враховувати постійні множники у виразах. Алгоритм з робочим кроком розглядається, як . Це робить залежність ставлення від зміни розміру задачі більш очевидною.

Найбільш складними частинами програми зазвичай є виконання циклів і виклик процедур. У попередньому прикладі весь алгоритм виконаний за допомогою двох циклів. Якщо одна процедура викликає іншу, то необхідно більш ретельно оцінити складність останньої. Якщо в ній виконується певне число інструкцій (наприклад, виведення на друк), то на оцінку складності це практично не впливає. Якщо ж викликана процедура виконується кроків, то функція може значно ускладнити алгоритм. Якщо ж процедура викликається всередині циклу, то вплив може бути набагато більшим. До прикладу розглянемо дві процедури: Slow зі складністю і Fast зі складністю .

Приклад:

 procedure Slow;
 var
 i,j,k: integer;
 begin
  for i:=1 to N do
   for j:=1 to N do
    for k:=1 to N do
    {будь-яка дія}
    end;
 procedure Fast;
 var
 i,j: integer;
 begin
  for i:=1 to N do
   for j:=1 to N do
   Slow;
 end;
 procedure Both;
 begin
  Fast;
 end;

Якщо у внутрішніх циклах процедури Fast відбувається виклик процедури Slow, то складності процедур перемножуються. У даному випадку складність алгоритму становить . Якщо ж основна програма викликає процедури по черзі, то їх складності додаються: . Наступний фрагмент має саме таку складність:

Приклад:

 procedure Slow;
 var
 i,j,k: integer;
 begin
  for i:=1 to N do
   for j:=1 to N do
    for k:=1 to N do
    {будь-яка дія}
 end;
 procedure Fast;
 var
 i,j: integer;
 begin
  for i:=1 to N do
   for j:=1 to N do
   {будь-яка дія}
 end;
 procedure Both;
 begin
  Fast;
  Slow;
 end;

Історія

Прикладом раннього аналізу складності алгоритмів є проведений аналіз алгоритму Евкліда, який зробив Габрієль Ламе 1844 року.

До початку досліджень, що були явно присвячені вивченню складності алгоритмів, багато дослідників заклали цьому теоретичний фундамент. Найвпливовішим серед них був Алан Тюрінг, що ввів поняття машин Тюрінга 1936 року, що виявилися дуже вдалими й гнучкими спрощеними моделями комп'ютера.

Див. також

Примітки

  1. Gasarch W.I. «The P=?NP poll.» / William I. Gasarch SIGACT News. Volume 33. [Електронний ресурс] — 2002 — С. — Режим доступу: http://www.cs.umd.edu/~gasarch/papers/poll.pdf - ст. 34-47
  2. Hopcroft, John E.; Motwani, Rajeev; Ullman, Jeffrey D. (2001). Introduction to Automata Theory, Languages, and Computation (вид. 2). Addison-Wesley.

Література

  • Christos H. Papadimitriou: Computational Complexity. Addison-Wesley, Reading/Mass. 1995, ISBN 0-201-53082-1.
  • Lance Fortnow, Steve Homer: A Short History of Computational Complexity. Online-Manuskript (PDF, 225 kB)
  • Jan van Leeuwen (Hrsg.): Handbook of Theoretical Computer Science, Volume A: Algorithms and Complexity. The MIT Press/Elsevier, Amsterdam 1994, ISBN 0-262-72020-5.
  • Juris Hartmanis, Richard Edwin Stearns: On the computational complexity of algorithms. In: Trans. American Mathematical Society. 117/1965, S. 285—306, ISSN 0002-9947. (англ.)
  • Ding-Zhu Du, Ker-I Ko: Theory of Computational Complexity. John Wiley & Sons, New York 2000, ISBN 0-471-34506-7.
  • Michael R. Garey, David S. Johnson: Computers and Intractability: A guide to the theory of NP-completeness. Freeman, New York 2003, ISBN 0-7167-1045-5.
  • Michael Sipser: Introduction to the Theory of Computation. 2. Auflage. Thomson, Boston 2006, ISBN 0-534-95097-3. (International Edition)
  • Кузюрін М. М., Фомін С. А. Ефективні алгоритми та складність обчислень. 2008
  • Немирівський А. С., Юдін Д. Б. Складність і ефективність методів оптимізації. М.: Наука, 1979

Посилання

  • Complexity Zoo — «Зоопарк» класів складності.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.