Моделювання свідомості

Штучна свідомість[1] (англ. Artificial consciousness), також відома, як машина свідомості (MC) або синтетична свідомість (Gamez, 2008; Reggia, 2013) — це наукова галузь, пов'язана зі штучним інтелектом та когнітивною робототехнікою, метою яких є визначення того, що мало б бути штучною свідомістю (Aleksander, 1995).

Неврологія припускає, що свідомість породжується із інтероперабельності різних частин мозку, які називаються нейронними корелятами свідомості або НКС. Прихильники штучного інтелекту вважають, що можна побудувати машини (наприклад, комп'ютерні системи), які зможуть емулювати дану систему інтероперабельності.[2]

Штучну свідомість можна розглядати як розширення штучного інтелекту, припускаючи, що поняття інтелекту, в його зазвичай використовуваному сенсі, дуже вузьке для того, щоб включати всі аспекти свідомості.[3]

Філософські погляди на штучну свідомість

Існує багато типів свідомості, отже можливе й існування різних типів штучної свідомості. У філософській літературі, мабуть, найбільш поширеними таксономіями свідомості є «доступ» і «феноменальність». Свідомість доступу стосується тих аспектів досвіду, які піддаються функціональному опису, а свідомість феноменальності стосується тих аспектів досвіду, які, здається, кидають виклик функціональному зображенню відчуття світу.

Домінік Парізі, науковий співробітник Інституту когнітивної науки і технологій, пише у своїй статті «Психіка Робота», що для того, щоб роботи володіли штучною свідомістю, вони також повинні мати те, що він називає «психічне життя». Парізі осмислив психічне життя як можливість «мати внутрішні уявлення сенсорної інформації за відсутністю вхідного сигналу.»

Дебати з приводу правдивості штучної свідомості

Скептична думка теоретиків відносного струму в провідниках різної природи (наприклад, теоретиків типу ідентичності), які вважають, що свідомість може бути реалізована тільки в особливих фізичних системах, оскільки свідомість має властивості, які обов'язково залежать від фізичної конституції (блок, 1978; Bickle, 2003).[4][5]

У своїй статті «Штучна свідомість: утопія чи реальна можливість» Георгіка Бутазо каже, що, незважаючи на здатність наших сучасних технологій для імітації автономії, «Працюючи в повністю автоматичному режимі, вони [комп'ютери] не можуть проявляти творчість, емоції, або вільну волю, як пральна машина що працює за попередньо заданим алгоритмом»[6].

Для інших теоретиків (наприклад, функціоналістів), які визначають психічні стани з точки зору причинно-наслідкових функцій, будь-яка система, яка може створити екземпляр тією ж схемою причинно-наслідкових функцій, незалежно від фізичної конституції, буде екземпляром з тим же психічним станом, в тому числі свідомості (Putnam, 1967) ,

Аргумент Чалмерса для штучної свідомості

Один з найбільш явних аргументів на користь правдоподібності штучної свідомості висловив Девід Чалмерс. Його пропозиція, знайдена у рукописах Фонду із вивчення обчислювальної техніки, полягає у тому, що комп'ютерного виконання, обчислення й різних видів розрахунків достатньо для створення свідомості. Взагалі, він аргументує свою думку наступним чином: Комп'ютери виконують обчислення. Їх розрахунки можуть мати абстрактну причинно-наслідкову організацію. Психічні властивості не що інше, як абстрактна причинно-наслідкова організація. Таким чином, комп'ютери під управлінням правильних розрахунків будуть прикладом психічних властивостей.

Найбільш спірна частина пропозиції Чалмерса це «організаційний інваріант», тобто, немає нічого понад абстрактної причинно-наслідкової організації. Його грубий аргумент, полягає в наступному: Психологічні властивості, такі як впевненість і сприйняття, характеризуються причинною роллю в рамках загальної системи причинно-наслідкового сприйняття, стверджуючи, що система з тією ж топологією причинно-наслідкового сприйняття поділяє психологічні властивості.

Феноменальні властивості, на перший погляд, визначаються в термінах їх причинних ролей. Твердження, що феноменальні властивості піддаються індивідуалізації причинної ролі, вимагають аргументів. Чалмерс забезпечує їх для цієї мети.

Чалмерс припускає, що агенти з однаковими причинними організаціями можуть мати різний досвід, різні матеріальні конституції (наприклад, кремній та нейрони). Потім він просить нас уявити собі зміну одного агента в іншого, замінюючи частини (наприклад, нейронні деталі замінені кремнієм), зберігаючи при цьому свою причинно-наслідкову організацію. За припущенням, досвід агента при перетворенні зміниться (коли будуть замінені деталі), але не буде ніяких змін в причинно-наслідковій топології і, отже, у агента може бути «повідомлення» про зрушення в досвіді.

Критики штучного інтелекту заперечили, що Чалмерс напрошує питання, вважаючи, що всі психічні властивості недостатньо враховуються в абстрактній організації причинно-наслідкового усвідомлення.

Етика штучної свідомості

Якщо припустити, що деяка машина буде мати свідомість, то її права будуть етичним питанням, яке потрібно буде вирішувати (наприклад, які права вона буде мати за законом). Наприклад, у свідомості комп'ютера, який належав і використовувався як інструмент або центрального комп'ютера будівлі або у великій машині, конкретна неоднозначність. Якщо закони будуть для такого випадку, свідомість також вимагатиме юридичного визначення (наприклад здатність машини відчувати задоволення або біль, як свідоме відчуття). Бо штучна свідомість значною мірою теоретичний об'єкт, тому етика не обговорювалася і не розроблялася в значній мірі, хоча це є обговорюваною темою в художній літературі (див нижче).

Для премії Лоєбнера на конкурсі 2003 р. докладно розглянуто питання про права роботів:

6.1. Якщо в тому чи іншому році, публічно доступний з відкритим вихідним кодом увійшов в Університет Суррея або Кембриджського центру виграє срібну медаль або золоту медаль, то медаль і премією будуть нагороджені органи, відповідальні за розвиток цього штучного інтелекту. Якщо немає такого органу або не може бути ідентифікований або, якщо існують розбіжності між двома або більше заявниками, медаль і премія будуть знаходитися в довірчому управлінні доти, доки штучний інтелект може юридично володіти, або в США або в місці проведення конкурсу, премією та золотою медаллю у своєму власному праві[7].

Свідомість в цифрових обчислювальних машинах

Аспекти свідомості

Є різні аспекти свідомості і в цілому необхідною для машини вважається штучна свідомість. Різноманітність функцій, в яких свідомість відіграє значну роль, була запропонованою Бернардом Баарсом. Функції свідомості, запропоновані Бернардом визначають контекст установки, адаптацію і навчання, редагування, маркування та налагодження, рекрутинг та управління, пріоритет і контроль доступу, прийняття рішень або виконання функцій, функцію формування аналогії, метакогнітивного і самостійного функціювання, моніторингу та автопрограмування, функції самообслуговування. Ігор Олександр запропонував 12 принципів для штучної свідомості у своїй книжці «Неможливі розуми»: «Мозок— статична машина, внутрішні нейронні, створення розділів, свідоме і несвідоме сприйняття навчання і пам'яті, прогнозування, усвідомлення самого себе, представлення сенсу, навчання висловлювання, вивчення мови, воля, інстинкт і емоції. Метою штучної свідомості є визначення того, як ці та інші аспекти свідомості можуть бути синтезовані в інженерії артефакту, такі як цифровий комп'ютер». Цей список є не вичерпним, існує багато інших, непоширених аспектів.

Усвідомлення

Усвідомлення може бути одним обов'язковим аспектом, але є багато проблем з точним визначенням свідомості. Результати експериментів нейросканування на мавпах припускають, що процеси, а не тільки стан або об'єкт, активізують нейрони. Усвідомлення включає в себе створення і тестування альтернативних моделей кожного процесу, заснованого на інформації, отриманої через органи чуття чи уявної інформації, а також є корисною для передбачення. Таке моделювання вимагає великої гнучкості. Створення такої моделі включає в себе моделювання фізичного світу, моделювання своїх власних внутрішніх станів і процесів, а також моделювання інших свідомих осіб.

Є принаймні три типи свідомості[8] : усвідомлення сприяння, усвідомлення мети, і розуміння сенсомоторії, які також можуть бути свідомими чи ні. Наприклад, в усвідомленні сприяння ви можете бути в курсі, що виконали певну дію вчора, але зараз не усвідомлюєте цього. В усвідомленні мети ви можете розуміти, що ви повинні шукати загублений предмет, але зараз не усвідомлююте цього. В усвідомленні сенсомоторії, ви можете знати, що ваша рука спочиває на предметі, але зараз не усвідомлюєте цього.

Тому, що об'єкти усвідомлення часто свідомі, різниця між усвідомленням і свідомістю розпливчата, або навіть синонімічна.[9]

Пам'яті

Свідомі події взаємодіють з пам'яттю в системах навчання, репетицій і пошуку.[10] У Іда моделі[11] підкреслюється роль свідомості в актуалізації перцептивної пам'яті[12], скороминуща епізодична пам'ять, і процедурна пам'ять. Транзиторні епізодичні і декларативні спогади розподілених представлень в Іда, існують доказу того, що ця теж справа в нервовій системі.[13] У Іда, ці два спогади реалізуються обчислювально використовуючи модифіковану версію Канерва «Розріджена розподіленою пам'яттю архітектура»[14].

Навчання

Навчання також визнане необхідним для штучної свідомості. За ствердженням Бернардом Баарсем — свідомий досвід необхідний, щоб представляти і адаптуватися до нових і важливих подій. За Акселем Кліремансом і Луїсом Хіменесом — навчання визначається як «філогенетична сукупність». Розширення адаптаційних процесів, що в значній мірі залежать від розвитку чутливості до суб'єктивного досвіду, з тим щоб агенти мали гнучкий контроль над своїми діями в складних, непередбачуваних умовах".

Очікування

Здатність передбачати прогнозовані події вважається важливою для штучного інтелекту (за Ігорем Олександром)[15] . Принципи емерджентістского законопроекту, запропоновані Деніелем Деннеттом у поясненні свідомості можуть бути корисні для прогнозування. Вони включають в себе оцінку і вибір «проекту» найбільш відповідного поточному середовищу. Очікування включає в себе прогнозування наслідків своїх власних запропонованих заходів та прогнозування наслідків можливих дій інших осіб.

Відносини між реальними державами світу знаходять відображення в державній структурі свідомого організму, що дозволяє організму прогнозувати події. Машина зі штучним інтелектом має бути в змозі передбачити події правильно, щоб бути готовою реагувати на них, коли вони відбуваються або прийняти попередні заходи для запобігання очікуваних подій. Сенс полягає в тому, що машина повинна бути гнучкою, в режимі реального часу для побудови компонентів з яких просторові, динамічні, статистичні, функціональні та причинно-наслідкові моделі реального світу і передбачення світу, що дозволяє продемонструвати, що вона володіє штучною свідомістю в даний час і майбутньому, а не тільки в минулому. Для того, щоб зробити це, свідома машина повинна робити когерентні прогнози і плани дій у надзвичайних ситуаціях, не тільки в світах з фіксованими правилами, як шахівниці, але і для нових умов, які можуть змінюватися, можуть бути виконані тільки при необхідності моделювати і контролювати в режимі реального світу.

Суб'єктивний досвід

Суб'єктивні переживання або кваліа вважаються важкою проблемою штучної свідомості. Справді, вони існують, щоб представляти проблему для фізикалізму. З іншого боку, є проблеми в інших галузях науки, які обмежують те, що ми можемо спостерігати, наприклад, принцип невизначеності у фізиці, які не роблять дослідження в цих галузях науки неможливим.

Інтелектуальний агент розповсюджувача Франкліна

Стен Франклін (1995, 2003) визначає автономного агента, як володіючого функціональною свідомістю, коли він здатний на кілька функцій свідомості, як це визначено в теорії глобального робочого простору Бернардом Баарсем. Його мозок дитини IAD(Intelligent Agent Distribution) є програмна реалізація GWT, що робить його функціонально свідомим за визначенням. Завдання IAD — це обговорення нових завдань для моряків у ВМФ США після того, як закінчиться чергування, шляхом зіставлення навичкок та переваг кожної людини з урахуванням потреб ВМФ. IAD взаємодіє з базами даних ВМФ і спілкується з моряками через електронну пошту, але підкоряючись великому набору стратегій ВМФ. Обчислювальна модель IAD була розроблена Software Research Group Стена Франкліна в університеті Мемфіса в 1996—2001. Цей агент складався з приблизно чверть мільйона рядків коду Java, і майже повністю поглинає ресурси 2001 висококласної робочої станції. Ця програма значною мірою спирається на кодекси, які мають спеціальне призначення, відносно незалежних, міні-агентів зазвичай реалізується у вигляді невеликого фрагменту коду працює в окремому потоці. В архітектурі зверху вниз IAD, високого рівня когнітивних функцій явно за зразком (див Франклін 1995 і Франклін 2003 для деталей). Хоча IDA функціонально свідоме за визначенням, Франклін "Не приписував феноменальної свідомості до свого «свідомого „програмного агенту“, IAD, незважаючи на її численні людські подібності форм поведінки. І незважаючи на це кілька Detailers ВМС США неодноразово кивали головами кажучи „Так, от як я це роблю, спостерігаючи внутрішні і зовнішні дії IAD, яка виконує своє завдання“.

Когнітивна архітектура CLARION Рона Санса

Архітектура CLARION має дворівнеий вид, що пояснює розходження між свідомими і несвідомими психічними процесами.

CLARION успішна в області бухгалтерського обліку для різних психологічних даних. Відомі навички виконання завдань були змодельовані з використанням CLARION, охоплюють спектр від простих реактивних навичок до складних когнітивних. Завдання включають в себе задачі на серійний час реакції (SRT), завдання на штучну граматику (AGL), задачі на управління процесом (PC), задачі на категоричний висновок (CI), задачі на алфавітну арифметику (AA), і задача про Ханойську Вежу (ToH)(ВС 2002). Серед них, СТО, AGL і PC є типовими неявними завданнями навчання, що також мають відношення до проблеми свідомості, оскільки вони представляють поняття свідомості в контексті психологічних експериментів.

Проект OpenCog Бен Герцель

Бен Герцель проводить втілення AGI через OpenCog проект з відкритим вихідним кодом. Поточний код включає в себе втілення віртуальних домашніх тварин, здатних навчатися простим командам англійською мовою, а також інтеграцію з реальною робототехнікою, що відбувається в Гонконзькому політехнічному університеті.

Когнітивна архітектура Хаіконена

Пентті Хаіконен (2003) вважає, класичне правило на основі обчислень недостатньо для досягнення штучної свідомості. „Мозок, безумовно, не комп'ютер мислення — не виконання запрограмованих рядків команд, мозок не чисельний калькулятор адже ми не думаємо числами“. Замість того, щоб досягти розуму і свідомості шляхом визначення і здійснення, що лежать в основі обчислювальних правил, Хаіконен пропонує „спеціальну когнітивну архітектуру“ для відтворення процесів сприйняття, образу, внутріособистісного зв'язку, білі, радості, емоцій і пізнання, що стоять за цим. Йдучи знизу вгору архітектурою буде вироблятися високорівнева функція силою елементарних блоків обробки, штучних нейронів, без алгоритмів і програм». Хаіконен вважає, що при реалізації з достатньою складністю, ця архітектура буде розвивати свідомість, він вважає «стиль і спосіб роботи, характеризується розподіленим представленням сигналу, процес сприйняття, уявлення крос-модальності та доступності для ретроспекції.» Хаіконен не самотній у цьому поданні процесу свідомості, вважає, що штучна свідомість спонтанно виникає в автономних агентів, які мають відповідну нервову архітектуру складності; цю теорію поділяють багато вчених, наприклад, Фріман (1999) та Котеріл (2003). Виконання архітектури низької складності, запропонованої Хаіконеном (2003), як повідомляється, неможливо штучним інтелектом, але це не проявляє емоції, як очікувалося.

Когнітивна архітектура Shanahan

Мюррей Шанахан описує когнітивну архітектуру, яка поєднує в собі ідею Баарсевого глобального робочого механізма для внутрішнього моделювання («уява») (Shanahan 2006). Для обговорення архітектури Shanahan, див (GÁMEZ 2008) та (Reggia 2013) і глави 20 (Haikonen 2012).

Дослідження самосвідомості Такено

Самосвідомість роботів досліджується Дзюн'іті Такено[16] в університеті Мейдзі в Японії. Такено заявляє про те, що він розробив робота, здатного розрізняти між своїм відображенням в дзеркалі і будь-яким іншим, що має ідентичне зображення[17][18], і ця вимога вже була розглянута (Такено, Інаба і Suzuki 2005). Такено стверджує, що він вперше створив обчислювальний модуль під назвою монада, що має самосвідомість функції, і тоді він побудував штучну систему свідомості, сформулювавши відносини між емоціями, почуттями і розумом, з'єднуючи модулі в ієрархії (Igarashi, Такено 2007). Такено завершив пізнання експерименту дзеркального зображення за допомогою робота, оснащеного системою монади. Такено запропонував теорію Self-Body про те, що «люди відчувають, що їх власні дзеркальні зображення ближче до себе, ніж актуальна частина себе.» Найбільш важливим моментом у розвитку штучної свідомості або уточнення людської свідомості є розвиток функції самосвідомості, і він стверджує, що він продемонстрував фізичні й математичні докази для цього у своїй дисертації[19]. Він також показав, що роботи можуть вчитися епізодам в пам'яті, де були стимульовані емоції і використовувати цей досвід для прогнозування заходів щодо недопущення повторення неприємних емоцій (Torigoe, Такено 2009).

Неможливий розум Олександра

Ігор Олександр, почесний професор-емеріт інженерії нейронних систем Імперського коледжу, вже широко вивчає штучні нейронні мережі і висловлюється у своїй книзі «Неможливі розуми: Мої нейрони, моя свідомість» про те, що принципи для створення свідомої машини вже існують, але, потрібно сорок років, щоб навчати таку машину розуміти мову[20]. Чи вірно це ще необхідно довести, і основний принцип, викладений у нездійсненній свідомості — це мозок, який викликає сумніви[21].

Творча машина Талера

Стівен Тайлер запропонував можливий зв'язок між свідомістю і творчістю в його патенті, під назвою «Пристрій для автономної генерації Корисної інформації» (DAGUI)[22][23][24] , або так звана «Творча машина», в якій обчислювальні процеси управляються ін'єкцією синаптичного шуму і деградацією в нейронних мережах для того, щоб викликати помилкові спогади, які можуть бути визначені як потенційні ідеї або стратегії[25] . Він використовує цю нейронну архітектуру і методологію для обліку суб'єктивного відчуття свідомості, стверджуючи, що подібні шуми створюють нейронні вузли, що в межах мозку винаходить сумнівні значення загальної активності кори головного мозку[26][27][28]. Теорія Талера і патенти в машинобудуванні свідомості були натхненні експериментами, в яких він внутрішньо порушує твердження про нейронні мережі для того, щоб подивитися на послідовність нервових варіантів активації, що він порівнював з потоком свідомості.[27][29][30][31][32][33]

Нещодавно він запропонував просте рівняння, яке зв'язує новизну нейронних моделей активації, що виникають в результаті таких DAGUI архітектур і ритм, в якому вони утворюються. З цього співвідношення очевидно, що величина синаптичного шуму є ключовим фактором у визначенні новизни концепції, що виходять з таких нейронних систем. Точно так само він виявив, що у людини потік свідомості, мабуть, з цього ж приводу, з утворенням нової концепції, що супроводжує зростання синаптичного шуму. Такий сплеск, швидше за все, проводиться через обсяг нейромедіатора (тобто, адреналінового впуску), викликаного асоціативними ланцюжками нервових модулів, що закінчуються на тих, які кодують екзистенціальні загрози. Так званий «шум» свідомості моделюється за допомогою принципу DAGUI за рахунок використання відносного спокою нервових модулів, які, не явно пов'язують швидкий і лінійний потік свідомості з примітивними чуттєвими сприйманнями, які могли б в буквальному сенсі представляти звуки. Повільні і спазматичні ритми, що характеризують нову думку, наприклад, нові теорії свідомості, легко помітили супутні кіркові мережі через їх швидкість утворення попередніми.

Талер вважає, що мозок, як і архітектури DAGUI, є нейронна державна машина, ґрунтуючи більшу частину своєї теорії на вимірюванні державного обороту обох систем. Він також підтвердив, що свідомість не результат складності, але поступається, що багатство свідомості пропорційна ширині і глибині отриманого досвіду нейронної системи.

Тестування штучної свідомості

Найбільш відомим методом для тестування штучної свідомості є Тест Тюрінга. Але він суперечить принципу теорії залежності спостереження. Крім того, було припущено, що імітаційні рекомендації Алана Тюринга, не до дорослої людської свідомості, а до свідомості дитини, слід приймати всерйоз.[34]

Інші тести, такі як ConsScale, перевіряють наявність ознак наявних біологічним системам, або виміряють когнітивний розвиток штучних систем.

Qualia, або феноменологічна свідомість, по суті перше особливе явище. Хоча різні системи можуть відображати різні ознаки поведінки, немає ніякої думки про те, яким чином тести третьої особи можуть мати доступ до феноменологічних особливостей першої особи. Через це немає ніяких емпіричних визначень свідомості.[35] Тест присутності свідомості в штучному інтелекті не може бути можливим.

Див. також

Посилання

  1. Thaler, S. L. (1998). The emerging intelligence and its critical look at us. Journal of Near-Death Studies 17 (1). doi:10.1023/A:1022990118714.
  2. Graziano, Michael (2013). Consciousness and the Social Brain. Oxford University Press. ISBN 978-0199928644.
  3. Artificial Intelligence: A Modern Approach includes the philosophical foundations of AI including the questions of consciousness http://aima.cs.berkeley.edu/contents.html, Russell, Stuart J., Norvig, Peter, 2003, Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2
  4. «Why not artificial consciousness or thought?», Schlagel, R. H., 1999, Minds and Machines, 9(1), 3-28
  5. «Minds, brains, and programs», Searle, J. R., 1980, Behavioral and brain sciences, 3(3), 417—457
  6. Artificial consciousness: Utopia or real possibility? Buttazzo, Giorgio, July 2001, Computer, ISSN 0018-9162
  7. Loebner Prize Contest Official Rules — Version 2.0 The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  8. Joëlle Proust in Neural Correlates of Consciousness, Thomas Metzinger, 2000, MIT, pages 307—324
  9. Christof Koch, The Quest for Consciousness, 2004, page 2, footnote 2
  10. Tulving, E. 1985. Memory and consciousness. Canadian Psychology 26:1-12
  11. Franklin, Stan, et al. «The role of consciousness in memory.» Brains, Minds and Media 1.1 (2005): 38.
  12. Franklin, Stan. «Perceptual memory and learning: Recognizing, categorizing, and relating.» Proc. Developmental Robotics AAAI Spring Symp. 2005.
  13. Shastri, L. 2002. Episodic memory and cortico-hippocampal interactions. Trends in Cognitive Sciences
  14. Kanerva, Pentti. Sparse distributed memory. MIT press, 1988.
  15. Aleksander 1995
  16. Архівована копія. Архів оригіналу за 3 липня 2007. Процитовано 14 лютого 2016.
  17. Takeno — Archive No…
  18. The world first self-aware robot and The success of mirror image cognition, Takeno
  19. A Robot Succeeds in 100 % Mirror Image Cognition, Takeno, 2008
  20. Aleksander I (1996) Impossible Minds: My neurons, My Consciousness, Imperial College Press ISBN 1-86094-036-6
  21. Wilson RJ (1998) review of Impossible Minds. Journal of Consciousness Studies 5(1), 115-6.
  22. Thaler, S.L., «Device for the autonomous generation of useful information»
  23. N. Marupaka, L. Lyer, A. Minai (2012). Connectivity and thought: The influence of semantic network structure in a neurodynamical model of thinking, Neural Networks (2012), doi:10.1016/j.neunet.2012.02.004
  24. Roque, R. and Barreira, A. (2011). "O Paradigma da «Máquina de Criatividade» e a Geração de Novidades em um Espaço Conceitual, " 3º Seminário Interno de Cognição Artificial — SICA 2011 — FEEC — UNICAMP.
  25. Minati, G. and Vitiello, G (2006) Mistakemaking machines, "inSyst.Emer.:Res.Develop.(Springer, NewYork), pp.67-68.
  26. Thaler, S. L. (2013) The Creativity Machine Paradigm, Encyclopedia of Creativity, Invention, Innovation, and Entrepreneurship, (ed.) E.G. Carayannis, Springer Science+Business Media
  27. Thaler, S. L. (2011). "The Creativity Machine: Withstanding the Argument from Consciousness, " APA Newsletter on Philosophy and Computers
  28. Thaler, S. L. (2014). Synaptic Perturbation and Consciousness, Int. J. Mach. Conscious., 06, 75 (2014). DOI: 10.1142/S1793843014400137.
  29. Thaler, S. L. (1995). «Virtual Input Phenomena» Within the Death of a Simple Pattern Associator, Neural Networks, 8(1), 55–65
  30. Thaler, S. L. (1995). Death of a gedanken creature, Journal of Near-Death Studies, 13(3), Spring 1995
  31. Thaler, S. L. (1996). Is Neuronal Chaos the Source of Stream of Consciousness? In Proceedings of the World Congress on Neural Networks, (WCNN'96), Lawrence Erlbaum, Mawah, NJ.
  32. Mayer, H. A. (2004). A modular neurocontroller for creative mobile autonomous robots learning by temporal difference, Systems, Man and Cybernetics, 2004 IEEE International Conference(Volume:6)
  33. Ricciardiello, L.; Fornaro, P. (2013). Beyond the cliff of creativity, a novel key to Bipolar Disorder and creativity. Medical Hypotheses 80: 534–543. doi:10.1016/j.mehy.2012.12.018.
  34. Mapping the Landscape of Human-Level Artificial General Intelligence
  35. «Consciousness». In Honderich T. The Oxford companion to philosophy. Oxford University Press. ISBN 978-0-19-926479-7

Бібліографія

  • Ericsson-Zenith, Steven (2010). Explaining Experience In Nature. Sunnyvale, CA: Institute for Advanced Science & Engineering. Архів оригіналу за 1 квітня 2019. Процитовано 28 вересня 2019.
  • Aleksander, Igor (1995). Artificial Neuroconsciousness: An Update. IWANN. Архів оригіналу за 2 березня 1997. Процитовано 22 грудня 2015. BibTex
  • Armstrong, David (1968). A Materialist Theory of Mind. Routledge.
  • Arrabales, Raul (2009). Establishing a Roadmap and Metrics for Conscious Machines Development. Proceedings of the 8th IEEE International Conference on Cognitive Informatics (Hong Kong): 94–101. Архів оригіналу за 21 липня 2011. Процитовано 22 грудня 2015.
  • Baars, Bernard (1988). A Cognitive Theory of Consciousness. Cambridge, MA: Cambridge University Press. ISBN 0-521-30133-5. Процитовано 22 грудня 2015.
  • Baars, Bernard (1997). In the Theater of Consciousness. New York, NY: Oxford University Press. ISBN 0-19-510265-7.
  • Bickle, John (2003). Philosophy and Neuroscience: A Ruthless Reductive Account. New York, NY: Springer-Verlag.
  • Block, Ned (1978). Troubles for Functionalism. Minnesota Studies in the Philosophy of Science 9: 261-325.
  • Block, Ned (1997). On a confusion about a function of consciousness in Block, Flanagan and Guzeldere (eds.) The Nature of Consciousness: Philosophical Debates. MIT Press.
  • Chalmers, David (1996). The Conscious Mind. Oxford University Press. ISBN 0-19-510553-2.
  • Cotterill, Rodney (2003). Cyberchild: a Simulation Test-Bed for Consciousness Studies. У Holland, Owen. Machine Consciousness. Exeter, UK: Imprint Academic.
  • Doan, Trung (2009). Pentti Haikonen's architecture for conscious machines. Архів оригіналу за 15 грудня 2009. Процитовано 22 грудня 2015.
  • Franklin, Stan (1995). Artificial Minds. Boston, MA: MIT Press. ISBN 0-262-06178-3.
  • Franklin, Stan (2003). IDA: A Conscious Artefact. У Holland, Owen. Machine Consciousness. Exeter, UK: Imprint Academic.
  • Freeman, Walter (1999). How Brains make up their Minds. London, UK: Phoenix. ISBN 0-231-12008-7.
  • Gamez, David (2008). Progress in machine consciousness. Consciousness and Cognition 17: 887–910. doi:10.1016/j.concog.2007.04.005.
  • Haikonen, Pentti (2003). The Cognitive Approach to Conscious Machines. Exeter, UK: Imprint Academic. ISBN 0-907845-42-8.
  • Haikonen, Pentti (2012). Consciousness and Robot Sentience. Singapore: World Scientific. ISBN 978-981-4407-15-1.
  • Koch, Christof (2004). The Quest for Consciousness: A Neurobiological Approach. Pasadena, CA: Roberts & Company Publishers. ISBN 0-9747077-0-8.
  • Lewis, David (1972). Psychophysical and theoretical identifications. Australasian Journal of Philosophy 50:249-258.
  • Putnam, Hilary (1967). The nature of mental states in Capitan and Merrill (eds.) Art, Mind and Religion. University of Pittsburgh Press.
  • Reggia, James (2013). The rise of machine consciousness: Studying consciousness with computational models. Neural Networks 44: 112–131. doi:10.1016/j.neunet.2013.03.011.
  • Sanz, Ricardo; López, I; Rodríguez, M; Hernández, C (2007). Principles for consciousness in integrated cognitive control. Neural Networks 20 (9): 938–946. PMID 17936581. doi:10.1016/j.neunet.2007.09.012.
  • Searle, John (2004). Mind: A Brief Introduction. Oxford University Press.
  • Shanahan, Murray (2006). A cognitive architecture that combines internal simulation with a global workspace. Consciousness and Cognition 15: 443–449. doi:10.1016/j.concog.2005.11.005.
  • Sun, Ron (December 1999). Accounting for the computational basis of consciousness: A connectionist approach. Consciousness and Cognition 8 (4): 529–565. PMID 10600249. doi:10.1006/ccog.1999.0405.
  • Sun, Ron (2001). Computation, reduction, and teleology of consciousness. Cognitive Systems Research 1 (4): 241–249. doi:10.1016/S1389-0417(00)00013-9.
  • Takeno, Junichi; Inaba, K; Suzuki, T (June 27–30, 2005). Experiments and examination of mirror image cognition using a small robot. The 6th IEEE International Symposium on Computational Intelligence in Robotics and Automation (Espoo Finland: CIRA 2005): 493–498. ISBN 0-7803-9355-4. doi:10.1109/CIRA.2005.1554325.
  • Cleeremans, Axel (2001). Implicit learning and consciousness.
  • Chalmers, David (2011). A Computational Foundation for the Study of Cognition. Journal of Cognitive Science (Seoul Republic of Korea): 323–357. Архів оригіналу за 23 грудня 2015. Процитовано 22 грудня 2015.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.