Етика штучного інтелекту

Е́тика шту́чного інтеле́кту є частиною етики технологій, що стосується роботів та інших штучно інтелектуальних істот. Вона зазвичай поділяється на робоетику, яка вирішує питання моральної поведінки людей під час проєктування, конструювання, використання та лікування штучно розумних істот і машинну етику, яка зачіпає проблеми моральної поведінки штучних моральних агентів (ІМА).

Етика роботів

Термін «етика роботів» (або «робоетика») стосується моральних аспектів того, як люди проєктують, конструюють, використовують і поводяться з роботами та іншими штучно інтелектуальними істотами[1]. Вона розглядає, як штучно розумні істоти можуть бути використані на шкоду або в інтересах людей.

Права роботів

«Права роботів» — це концепція, згідно з якою люди повинні мати моральні зобов'язання перед своїми машинами, подібні до прав людини або тварин[2]. Є пропозиція, що права роботів, такі як право на існування і виконання власної місії, можна пов'язати з обов'язком робота служити людині, за аналогією з пов'язанням прав людини з обов'язками людини перед суспільством[3]. Вони можуть включати право на життя і свободу, свободу думки і висловлювань, а також рівність перед законом[4]. Це питання розглядав Інститут майбутнього[5] і Міністерство торгівлі та промисловості Великої Британії[6].

Експерти не мають спільної думки, чи потрібні конкретні і докладні закони вже найближчим часом, чи тільки у віддаленому майбутньому[6]. Гленн Макгі повідомляє, що до 2020 року може з'явитися досить гуманоїдний робот[7]. Рей Курцвейл вважає, що це відбудеться до 2029 року[8]. У 2007 році інша група вчених припускала, що пройде, принаймні, 50 років, перш ніж зможе існувати досить просунута система[9].

Правила конкурсу премії Льобнера 2003 року передбачали можливість того, що роботи можуть мати власні права.

У жовтні 2017 року андроїд Софія отримала «почесне» громадянство в Саудівській Аравії, хоча деякі спостерігачі визнали це швидше рекламним ходом, аніж осмисленим юридичним визнанням[10]. Деякі розглядали цей жест як відкрите приниження прав людини і верховенства закону[11].

Філософія сентитизму надає право на моральне ставлення всім чутливим істотам, передусім людям і більшості тварин. Якщо штучні або інопланетні інтелектуальні істоти демонструють докази своєї чуттєвості, ця філософія вважає, що до них слід проявити співчуття і надати права.

Джоанна Брайсон стверджувала, що створення ШІ, який вимагає прав, можна уникнути, і саме по собі неетично, що це буде тягарем і для агентів ШІ і для людського суспільства[12].

Загроза людській гідності

Джозеф Вейценбаум стверджував у 1976 році, що технологія штучного інтелекту не повинна використовуватися для заміни людей на посадах, які вимагають поваги і турботи, таких як:

  • співробітник служби підтримки клієнтів (технології ШІ вже використовуються в телефонних системах інтерактивних голосових відповідей)
  • терапевт (як запропонував Кеннетом Колбі в 1970-х роках)
  • доглядальниця для літніх людей (як розповіла Памела Маккордак у книзі «П'яте покоління»)
  • солдат
  • суддя
  • поліціянт

Вайзенбаум пояснює, що від людей на цих посадах ми очікуємо справжнього почуття емпатії. Якщо машини їх замінять, ми опинимося відчуженими, знеціненими і розчарованими. Штучний інтелект, якщо його використовувати таким чином, є загрозою для людської гідності. Вайзенбаум стверджує, що факт того, що ми розглядаємо можливість машинам займати ці позиції, говорить про те, що ми пережили «атрофію людського духу, яка виникає через те, що ми думаємо про себе як про комп'ютери»[13].

Памела Маккордак заперечує, кажучи про жінок і меншини, «я воліла б ризикнути з неупередженим комп'ютером», вказуючи на умови, за яких ми б вважали за краще мати автоматичних суддів і поліцію, у яких взагалі немає особистих інтересів Проте, Каплан і Хенлейн підкреслюють, що системи штучного інтелекту інтелектуальні точно згідно з даними, які використовувалися для їх навчання, оскільки за своєю суттю вони являють собою не що інше, як машини для наближення за допомогою кривих: використання штучного інтелекту для підтримки судового рішення може стати досить проблематичним, якщо минулі рішення демонструють упередженість до певних груп, оскільки ці упередження формалізуються та закріплюються, що робить виявлення і боротьбу з ними ще важчою[14]. Засновник ШІ Джон Маккарті заперечує проти моралізаторського тону критики Вейзенбаума. Він пише: «Коли моралізаторство несамовите і розпливчасте, воно заохочує авторитарне насильство».

Білл Гіббард[15] зазначав, що «людська гідність вимагає, щоб ми прагнули усунути наше незнання природи буття, і для цього необхідний ШІ».

Прозорість, відповідальність і відкритий сирцевий код

Білл Гіббард стверджує, що, оскільки ШІ дуже вплине на людство, зусилля розробників ШІ етично мають бути прозорими[16]. Бен Гертцель і Девід Гарт створили OpenCog як фреймворк з відкритим сирцевим кодом для розробки ШІ[17]. OpenAI — це некомерційна дослідницька компанія зі штучного інтелекту, яку створили Ілон Маск, Сем Альтман та інші для розробки корисного для людства програмного забезпечення ШІ з відкритим сирцевим кодом[18]. Існує багато інших розробок ШІ з відкритим сирцевим кодом.

На жаль, відкритість коду не робить його зрозумілим, тобто ШІ, який ним закодовано, не є прозорим. IEEE намагається стандартизувати прозорість ШІ[19]. При цьому IEEE виділяє для різних користувачів декілька ступенів прозорості. Крім того, є побоювання, що надання повного потенціалу сучасного ШІ деяким організаціям може завдати суспільству більше шкоди, ніж користі. Наприклад, Microsoft висловила стурбованість з приводу надання загального доступу до свого програмного забезпечення для розпізнавання облич, навіть з числа тих, хто може за нього заплатити. Microsoft опублікувала незвичайний блог на цю тему з проханням про урядове регулювання з метою визначення правильності цих дій[20].

Не тільки компанії, але й багато інших дослідників і цивільні адвокати рекомендують державне регулювання для забезпечення прозорості і, як наслідок, відповідальності людини. Оновлену збірку (список) етики ШІ підтримує організацією AlgorithmWatch. Ця стратегія спірна, так як дехто побоюється, що вона призведе до уповільнення темпів інновацій. Інші стверджують, що регулювання призводить до системної стабільності, що сприяє підтримці інновацій у довгостроковій перспективі[21]. ОЕСР, ООН, ЄС і багато країн працюють над стратегіями регулювання ШІ і шукають відповідні правові рамки[22][23][24]. 26 червня Група високорівневих експертів Європейської комісії зі штучного інтелекту (AI HLEG) опублікувала свої «Рекомендації щодо політики та інвестицій в галузі надійного штучного інтелекту». Це другий документ AI HLEG, який вийшов слідом за публікацією в квітні 2019 «Керівництва з етики для надійного ШІ». Нові рекомендації стосуються чотирьох основних областей: люди і суспільство в цілому, приватний сектор, державний сектор, а також дослідження і наука. Рекомендації HLEG відбивають розуміння як можливостей для технологій штучного інтелекту стимулювати економічне зростання, процвітання та інновації, так і потенційних ризиків. Європейський Союз має амбіції очолити розробку політик, що регулюють ШІ у всьому світі. Однак, якщо Європа не прискорить розгортання і впровадження і не створить виробничі, дослідницькі та дослідно-конструкторські потужності, її можливості для цього будуть обмежені[25].

Упередженість у системах ШІ

ШІ стає невід'ємною частиною систем розпізнавання обличчя і голосу. Деякі з цих систем мають реальний вплив на бізнес і людей. Ці системи вразливі щодо упереджень і помилок, внесених творцями-людьми. Крім того, дані, які використовуються для навчання самих цих систем ШІ, можуть мати спотворення[26][27][28][29]. Наприклад, алгоритми розпізнавання облич, розроблені Microsoft, IBM і Face++, виявилися необ'єктивними, коли справа дійшла до визначення статі людей[30]. Ці системи штучного інтелекту були в змозі визначати стать білих чоловіків точніше, ніж стать темношкірих чоловіків. Ще одним прикладом необ'єктивності ШІ стало припинення з боку Amazon's.com Inc використання ШІ для найму співробітників. Алгоритм надавав перевагу кандидатам-чоловікам. Це сталося тому, що система Amazon була навчена з використанням даних, зібраних за 10-річний період, які надходили переважно основному від кандидатів-чоловіків[31].

Упередженість може потрапити в алгоритми різними шляхами. В дуже впливовій гілці ШІ, відомій як «обробка природної мови», можуть виникнути проблеми з «текстового зводу» — вхідного матеріалу, який використовує алгоритм, щоб дізнатися про взаємозв'язки між різними словами[32].

Проблему упередженості почали досліджувати та вирішувати великі компанії, такі як IBM, Google та інші[33][34][35].

Проблема упередженості в машинному навчанні, ймовірно, стане ще серйознішою, оскільки технологія поширюється на такі критичні галузі, як медицина, юриспруденція, і оскільки завдання її розгортання доручають все більшому числу людей, які не мають глибоких технічних знань. Деякі експерти попереджають, що алгоритмічна необ'єктивність вже поширена в багатьох галузях, і що майже ніхто не робить зусиль для її виявлення або виправлення[36].

Відповідальність за частково або повністю безпілотні автомобілі

Є всі підстави вважати, що в майбутньому неминуче широке використання частково або повністю безпілотних автомобілів. Але повністю автономні технології ставлять перед нами нові проблеми і виклики[37][38]. Останнім часом піднялися дебати з приводу юридичної відповідальності сторін при попаданні безпілотних автомобілів в аварії[39][40]. В одному зі звітів[41] автомобіль без водія збив пішохода і постала проблема, хто винен в аварії. Незважаючи на те, що водій під час аварії перебував в автомобілі, керування повністю здійснював комп'ютер. Необхідно вирішити такого роду питання перш, ніж безпілотні автомобілі набудуть масового поширення[42][43][44].

Озброєний штучний інтелект

Деякі експерти і вчені ставлять під сумнів використання роботів у бойових діях, особливо коли таким роботам надається певний ступінь автономності[45][46]. ВМС США профінансували доповідь, у якій зазначається, що, оскільки бойові роботи стають все складнішими, слід приділяти більше уваги наслідкам їх здібності приймати самостійні рішення[47]. Є думка одного дослідника, який стверджує, що автономні роботи можуть бути гуманнішими, оскільки можуть приймати рішення ефективніше[джерело?].

Протягом останнього десятиліття проводилися інтенсивні дослідження в галузі самонавчання автономності з призначуваною моральною відповідальністю. «Результати можна використати при розробці майбутніх військових роботів для контролю за небажаними тенденціями покладання відповідальності на роботів»[48]. З точки зору консеквенціалізму є ймовірність, що роботи будуть розвивати здібності приймати свої власні логічні рішення про те, кого вбивати, і тому необхідні моральні обмеження, які ШІ не зможе обійти[49].

Нещодавно були протестні голоси проти розробки ШІ-зброї, яка включала б ідеї захоплення людства роботом. ШІ-зброя несе небезпеку іншого роду, на відміну від зброї, контрольованої людиною. Багато урядів уже почали фінансувати програми з розробки ШІ-озброєння. ВМС США нещодавно оголосили про плани розробки ударного безпілотника, паралельно з аналогічними заявами Росії та Південної Кореї. У зв'язку з тим, що ШІ-зброя стає більш небезпечним, ніж керована людиною зброю, Стівен Гокінг і Макс Тегмарк підписали петицію «Майбутнє життя»[50] про заборону ШІ-зброї. У повідомленні, опублікованому Гокінгом і Тегмарком, йдеться, що ШІ-зброя являє собою безпосередню небезпеку і що необхідно вжити заходів, щоб уникнути катастрофічних наслідків у найближчому майбутньому[51].

«Якщо яка-небудь велика військова сила просуває розробку ШІ-зброї, практично неминуча глобальна гонка озброєнь, і в підсумку автономна зброя стане автоматом Калашникова завтрашнього дня», — йдеться в петиції, яку підписали противники збройного штучного інтелекту: засновник Skype Яан Таллінн і професор лінгвістики Массачусетського технологічного інституту Ноам Чомскі[52].

Фізик і астроном сер Мартін Ріс попереджає про такі катастрофічних прикладах, як «дурні роботи, які стають ізгоями, або мережа, яка розвиває власний розум». Г'ю Прайс, колега Ріса з Кембриджа, озвучив подібне попередження про те, що люди можуть не вижити, якщо інтелект «вислизне від біологічних обмежень». У Кембриджському університеті створили Центр вивчення екзистенційного ризику в надії уникнути цієї загрози людському існуванню[51]

Що стосується можливості використання «розумніших від людини» систем у військовій справі, проєкт «Відкрита філантропія» пише, що ці сценарії «здаються потенційно настільки ж важливими, як і ризики, пов'язані зі втратою контролю», але дослідні організації, які займаються довгостроковим соціальним впливом ШІ, недостатньо вивчили цю проблему: «цей клас сценаріїв не був у центрі уваги організацій, що займаються цими питаннями, таких як Науково-дослідний інститут машинного інтелекту (MIRI) та Інститут майбутнього людства (FHI) і тому менше обговорювалися»[53].

Машинна етика

Машинна етика (або машинна мораль) — це галузь досліджень, пов'язаних з розробкою штучних моральних агентів (ШМА), роботів або штучно інтелектуальних комп'ютерів, які поводяться морально або ніби морально[54][55][56][57]. Щоб врахувати природу цих агентів, запропоновано розглянути деякі філософські ідеї, такі як стандартні характеристики суб'єктності, раціональних агентів, моральних агентів і штучної суб'єктності, які пов'язані з концепцією ШМА[58].

Айзек Азімов розглянув цю проблему в 1950-х роках у своїй серії оповідань «Я, робот». За наполяганням редактора Джона Кемпбелла молодшого для керування штучно інтелектуальними системами він запропонував три закони робототехніки. Він доклав багато зусиль для перевірки меж трьох його законів, щоб побачити, де вони можуть зламатися або спричинити парадоксальну чи непередбачувану поведінку. Його робота передбачає, що жоден із встановлених законів не може достатньою мірою передбачати всі можливі обставини. Останнім часом вчені і багато урядів поставили під сумнів ідею про притягнення до відповідальності ШІ[59]. Комісія, скликана у Великій Британії в 2010 році, переглянула закони Азімова, щоб уточнити, що ШІ належить до відповідальності або його виробників, або його власника/оператора[60].

У 2009 році, під час експерименту в Лабораторії інтелектуальних систем у Політехнічній школі Лозанни у Швейцарії, роботи, запрограмовані на співпрацю один з одним (у пошуку корисних ресурсів та уникнення отруйних), врешті решт навчилися брехати один одному, намагаючись накопичити корисні ресурси[61]. Однією з проблем у цьому випадку могло бути те, що цілі були «скінченними» (тоді як основні людські мотиви зазвичай перебувають у нескінченному навчанні)[62].

Деякі експерти і вчені ставлять під сумнів використання роботів для бойових дій, особливо коли таким роботам надається певна автономність[45]. ВМС США профінансували доповідь, у якій зазначається, що в міру ускладнення військових роботів слід приділяти більше уваги наслідкам їх здатності приймати самостійні рішення[47].

Вернор Вінжі припустив, що може настати момент, коли деякі комп'ютери стануть розумнішими за людей, назвавши це явище сингулярністю[63]. Він припускає, що це може бути частково або навіть дуже небезпечно для людини[64]. Науково-дослідний інститут машинного інтелекту висловив припущення про необхідність створення «дружнього ШІ», маючи на увазі, що прогрес, який вже відбувається з ШІ, маєтакож включати зусилля, спрямовані на створення більш дружнього і гуманного ШІ.

У 2009 році вчені та технічні експерти взяли участь у конференції, організованій Асоціацією з розвитку штучного інтелекту, щоб обговорити потенційну роль роботів і комп'ютерів і вплив гіпотетичної можливості того, що вони можуть стати самодостатніми і здатними приймати власні рішення. Вони обговорили можливість і ступінь, з яким комп'ютери і роботи могли б набути будь-якого рівня автономії, і якою мірою вони могли б використовувати такі можливості, щоб становити певну загрозу чи небезпеку. Вони відзначили, що деякі машини набули різних форм напівавтономності, зокрема можливості самостійно знаходити джерела енергії і самостійно вибирати цілі для атаки зброєю. Вони також відзначили, що деякі комп'ютерні віруси можуть уникати знищення і досягли «інтелекту тарганів». Вони відзначили, що самосвідомість, як зображено в науковій фантастиці, малоймовірна, але є інші потенційні небезпеки і «підводні камені»[63].

Проте, існує одна технологія, яка дійсно може призвести до роботів з моральними здібностями. У статті про набуття моральних цінностей роботами Наєф Аль-Родхан згадує випадок нейроморфних чіпів, які прагнуть обробляти інформацію подібно до людей, нелінійно і з мільйонами взаємопов'язаних штучних нейронів[65]. Роботи зі вбудованою нейроморфною технологією можуть вивчати і розвивати знання унікальним чином. Це неминуче піднімає питання про довкілля, в якому такі роботи пізнають світ і мораль яку вони успадкують, або якщо вони врешті решт також розвинуть людські «слабкості»: егоїзм, ставлення до виживання, коливання тощо.

У книзі «Моральні машини: навчання роботів правильному через неправильне»[66] Венделл Воллах і Колін Аллен роблять висновок, що спроби навчити роботів чинити правильно через неправильно можуть просунути розуміння людської етики, мотивуючи людей на усунення прогалин сучасної нормативної теорії і надаючи платформу для експериментального дослідження. Для прикладу він задає нормативним фахівцям з етики спірне питання про те, які конкретні алгоритми машинного навчання потрібно використовувати. Нік Бостром і Еліезер Юдковський наводять аргументи на користь дерев рішень (таких як ID3) проти нейронних мереж і генетичних алгоритмів, тому що дерева рішень підпорядковуються сучасним соціальним нормам прозорості та передбачуваності (наприклад, stare decisis)[67], тоді як Кріс Сантос-Ланг заперечує, що норми будь-якого віку можна змінювати і що природна нездатність повністю задовольнити ці конкретні норми має важливе значення для того, щоб зробити людей менш уразливими для злочинних «хакерів»[62]

Згідно зі звітом Центру управління ШІ в Оксфордському університеті за 2019 рік, 82 % американців вважають, що необхідно ретельно керувати роботами і ШІ. Обговорювані проблеми варіювалися від того, як ШІ використовується для стеження і поширення фальшивого вмісту в Інтернеті (відомого як глибокі фейки, які включають підроблені відео і аудіо, згенеровані за допомогою ШІ), до кібератак, посягань на конфіденційність даних, упередженості під час найму на роботу, безпілотних транспортних засобів і дронів, які не вимагають керування людиною[68].

Несподівані наслідки

Багато дослідників стверджують, що внаслідок «інтелектуального вибуху», що стався десь у XXI столітті, самовдосконалюваний ШІ може стати настільки могутнішим від людей, що ми не зможемо перешкодити йому досягти своїх цілей[69]. У своїй статті «Етичні проблеми просунутого штучного інтелекту» філософ Нік Бостром стверджує, що штучний інтелект здатний викликати вимирання людини. Він стверджує, що загальний надрозум здатний на самостійну ініціативу і на створення власних планів, і тому його доцільно розглядати як автономного агента. Оскільки штучний інтелект не зобов'язаний розділяти людські мотивації, розробники суперінтелекту мали б закласти його первісну мотивацію. Теоретично, надінтелектуальний ШІ зможе привести до практично будь-якого можливого результату і припинити будь-яку спробу перешкодити досягненню головної мети, що може спричинити багато неконтрольованих ненавмисних наслідків. Це може вбити всіх інших агентів, переконати їх змінити свою поведінку або заблокувати їхні спроби втручання[70].

Однак замість того, щоб перевершити людську расу і вести її до руйнації, Бостром також стверджує, що супер-інтелект може допомогти нам вирішити багато складних проблеми, таких як хвороби, бідність, руйнування навколишнього середовища, і може допомогти нам «поліпшити» себе[71].

Складність систем людських цінностей веде до високої складаності створення зручних для людини мотивацій ШІ[69][70]. Поки моральна філософія не дає нам бездоганної етичної теорії, функція корисності ШІ може допускати безліч потенційно шкідливих сценаріїв, які відповідають даній етичній структурі, але не відповідають здоровому глузду". За словами Елізера Юдковського, у нас мало підстав вважати, що штучно створений розум буде володіти такою адаптацією[72].

Білл Гіббард[15] запропонував такий дизайн штучного інтелекту, який уникає деяких типів ненавмисної поведінки, зокрема самообман, ненавмисні інструментальні дії та пошкодження генератора винагород.

Організації

Amazon, Google, Facebook, IBM і Microsoft створили некомерційне партнерство для розробки передового досвіду в галузі технологій штучного інтелекту, поліпшення розуміння громадськістю та забезпечення платформи ШІ. Вони заявили: «Це партнерство щодо ШІ буде проводити дослідження, організовувати дискусії, забезпечувати інтелектуальне лідерство, консультуватися з відповідними третіми сторонами, відповідати на питання громадськості та засобів масової інформації, а також створювати навчальні матеріали, що сприяють розумінню технологій ШІ, включно з машинним сприйняттям, навчанням і автоматичними міркуваннями»[73]. Apple приєдналася до іншим технологічних компаніям як один із засновників Партнерства зі штучного інтелекту в січні 2017 року. Корпоративні учасники будуть робити фінансовий і дослідницький внесок у роботу групи, взаємодіючи з науковою спільнотою, щоб залучити вчених до ради директорів[74].

IEEE розробив Глобальну ініціативу з етики автономних та інтелектуальних систем, яка розробляє і переглядає за допомогою громадської думки методичні рекомендації.

Традиційно, громадськість використовує уряд для контролю відповідності етиці рамок законодавства і правопорядку. Нині національні уряди, а також міжнародні урядові та неурядові організації докладають багато зусиль для забезпечення етичного застосування ШІ.

В художній літературі

Фільм «Тринадцятий поверх» показує майбутнє, в якому на гральних консолях створюються для розваги симульовані світи з розумними мешканцями. Фільм «Матриця» показує майбутнє, де домінівним видом на планеті Земля є розумні машини, а людство зазнає граничної дискримінації. В оповіданні Грега Ігена «Занурення Планка» зображено майбутнє, в якому людство перетворилося на програмне забезпечення, яке можна дублювати й оптимізувати, а програмне забезпечення, відповідно, поділяють на чутливе і не чутливе. Цю ж ідею знаходимо в Голограмі швидкої медичної допомоги Starship Voyager, яка є явно розумною копією зменшеної підмножини свідомості її творця, доктора Циммермана, який з найкращими намірами створив систему надання екстреної медичної допомоги. У фільмах «Двохсотлітня людина» і «Штучний розум» розглядаються можливості розумних роботів, які можуть любити. «Я, Робот» показав деякі аспекти трьох законів робототехніки Азімова. Всі вони намагаються передбачити, можливо, неетичні наслідки створення розумних комп'ютерів.

Етика штучного інтелекту є однією з основних тем у серії ігор BioWare «Mass Effect». Вона розглядає сценарій, в якому цивілізація випадково створила ШІ завдяки швидкому збільшення обчислювальної потужності та використанню глобальної нейронної мережі. Ця подія викликала етичний розкол між тими, хто вважав, що розумних Гетів можна наділити органічними правами, і тими, хто продовжував розглядати їх як одноразовий механізм і боровся за їх знищення. Крім початкового конфлікту ще однією постійною темою всієї історії є складність відносин між машинами і їхніми творцями.

Див. також

Дослідники
Організації

Примітки

  1. Veruggio, Gianmarco. The Roboethics Roadmap. — Scuola di Robotica, 2007. — 22 February.
  2. Woody. Posthuman Rights: Dimensions of Transhuman Worlds // Teknokultura.  2015. Т. 12, № 2 (22 February). DOI:10.5209/rev_TK.2015.v12.n2.49072.
  3. Yurii Sheliazhenko. Artificial Personal Autonomy and Concept of Robot Rights. — European journal of law and political sciences, 2017. — 22 February. Процитовано 2017-05-10.
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. Robots could demand legal rights. BBC News. 21 грудня 2006. Процитовано 3 січня 2010.
  6. Henderson, Mark (24 квітня 2007). Human rights for robots? We're getting carried away. The Times Online (The Times of London). Процитовано 2 травня 2010.
  7. McGee, Glenn. A Robot Code of Ethics. The Scientist.
  8. Ray Kurzweil. The Singularity is Near. Penguin Books, 2005. — ISBN 978-0-670-03384-3.
  9. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  10. Saudi Arabia bestows citizenship on a robot named Sophia
  11. Vincent, James (30 жовтня 2017). Pretending to give a robot citizenship helps no one. The Verge.
  12. Close engagements with artificial companions : key social, psychological, ethical and design issues. — Amsterdam : John Benjamins Pub. Co, 2010. — ISBN 978-9027249944.
  13. Joseph Weizenbaum, quoted in McCorduck, 2004, pp. 356, 374–376
  14. Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1). Архів оригіналу за 21 листопада 2018. Процитовано 10 жовтня 2019.
  15. Hibbard, Bill (2014): «Ethical Artificial Intelligence».
  16. Open Source AI. Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  17. OpenCog: A Software Framework for Integrative Artificial General Intelligence. David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  18. Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.
  19. P7001 - Transparency of Autonomous Systems. P7001 - Transparency of Autonomous Systems. IEEE. Процитовано 10 січня 2019..
  20. Thurm, Scott (13 липня 2018). MICROSOFT CALLS FOR FEDERAL REGULATION OF FACIAL RECOGNITION. Wired.
  21. Bastin, Roland (2017-06). The General Data Protection Regulation Cross-industry innovation. Inside magazine. Deloitte.
  22. UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'. UN News (англ.). 7 червня 2017. Процитовано 26 липня 2019.
  23. Artificial intelligence - Organisation for Economic Co-operation and Development. www.oecd.org (англ.). Процитовано 26 липня 2019.
  24. Anonymous (14 червня 2018). The European AI Alliance. Digital Single Market - European Commission (англ.). Процитовано 26 липня 2019.
  25. EU Tech Policy Brief: July 2019 Recap. Center for Democracy & Technology (англ.). Процитовано 9 серпня 2019.
  26. Society, DeepMind Ethics & (14 березня 2018). The case for fairer algorithms - DeepMind Ethics & Society. Medium (англ.). Процитовано 22 липня 2019.
  27. 5 unexpected sources of bias in artificial intelligence. TechCrunch (англ.). Процитовано 22 липня 2019.
  28. Knight, Will. Google’s AI chief says forget Elon Musk’s killer robots, and worry about bias in AI systems instead. MIT Technology Review (англ.). Процитовано 22 липня 2019.
  29. Villasenor, John (3 січня 2019). Artificial intelligence and bias: Four key challenges. Brookings (англ.). Процитовано 22 липня 2019.
  30. Lohr, Steve (9 лютого 2018). Facial Recognition Is Accurate, if You're a White Guy. The New York Times (англ.). Процитовано 29 травня 2019.
  31. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters (англ.). 10 жовтня 2018. Процитовано 29 травня 2019.
  32. Eliminating bias in AI. techxplore.com (англ.). Процитовано 26 липня 2019.
  33. Olson, Parmy. Google's DeepMind Has An Idea For Stopping Biased AI. Forbes (англ.). Процитовано 26 липня 2019.
  34. Machine Learning Fairness | ML Fairness. Google Developers (англ.). Процитовано 26 липня 2019.
  35. AI and bias - IBM Research - US. www.research.ibm.com (англ.). REPLACE. Процитовано 26 липня 2019.
  36. Knight, Will. Google’s AI chief says forget Elon Musk’s killer robots, and worry about bias in AI systems instead. MIT Technology Review (англ.). Процитовано 26 липня 2019.
  37. Davies, Alex (29 лютого 2016). Google's Self-Driving Car Caused Its First Crash. Wired. Процитовано 26 липня 2019.
  38. Levin, Sam (19 березня 2018). Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian. The Guardian (англ.). Процитовано 26 липня 2019.
  39. Who is responsible when a self-driving car has an accident?. Futurism (англ.). Процитовано 26 липня 2019.
  40. Radio, Business. Autonomous Car Crashes: Who - or What - Is to Blame?. Knowledge@Wharton (англ.). Процитовано 26 липня 2019.
  41. Delbridge, Emily. Driverless Cars Gone Wild. The Balance (англ.). Процитовано 29 травня 2019.
  42. Regulations for driverless cars. GOV.UK (англ.). Процитовано 26 липня 2019.
  43. Automated Driving: Legislative and Regulatory Action - CyberWiki. cyberlaw.stanford.edu. Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  44. Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation. www.ncsl.org. Процитовано 26 липня 2019.
  45. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  46. Robot Three-Way Portends Autonomous Future, By David Axe wired.com, August 13, 2009.
  47. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  48. On the moral responsibility of military robots — ProQuest
  49. Mitra, Ambarish. We can train AI to identify good and evil, and then use it to teach us morality. Quartz (англ.). Процитовано 26 липня 2019.
  50. AI Principles. Future of Life Institute (англ.). Процитовано 26 липня 2019.
  51. Zach Musgrave and Bryan W. Roberts (14 серпня 2015). Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic. The Atlantic.
  52. Cat Zakrzewski (27 липня 2015). Musk, Hawking Warn of Artificial Intelligence Weapons. WSJ.
  53. GiveWell. Potential risks from advanced artificial intelligence.
  54. Anderson. Machine Ethics. Процитовано 27 червня 2011.
  55. Machine Ethics / Anderson, Michael; Anderson, Susan Leigh. Cambridge University Press, 2011. — ISBN 978-0-521-11235-2.
  56. Special Issue on Machine Ethics // IEEE Intelligent Systems : journal. Vol. 21, no. 4. P. 10—63. ISSN 1541-1672. DOI:10.1109/mis.2006.70. Архівовано з джерела 26 листопада 2011.
  57. Michael; Anderson. Machine Ethics: Creating an Ethical Intelligent Agent // AI Magazine : journal. Vol. 28, no. 4. P. 15—26. ISSN 0738-4602.
  58. Robert James M.; Boyles. Philosophical Signposts for Artificial Moral Agent Frameworks // Suri : journal.  2017. Vol. 6, no. 2 (10). P. 92—109.
  59. Joanna; Bryson. Of, for, and by the people: the legal lacuna of synthetic persons // Artificial Intelligence and Law : journal.  2017. Vol. 25, no. 3 (9). P. 273—291. DOI:10.1007/s10506-017-9214-9.
  60. Principles of robotics. UK's EPSRC. 2010-09. Процитовано 10 січня 2019.
  61. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  62. Santos-Lang, Chris. Ethics for Artificial Intelligences.
  63. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  64. The Coming Technological Singularity: How to Survive in the Post-Human Era, by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  65. Al-Rodhan, Nayef (12 серпня 2015). The Moral Code. Foreign Affairs (англ.). Процитовано 23 січня 2018.
  66. Wallach, Wendell; Allen, Colin. Moral Machines: Teaching Robots Right from Wrong. — USA : Oxford University Press, 2008. — ISBN 978-0-19-537404-9.
  67. Bostrom, Nick. The Ethics of Artificial Intelligence. Cambridge Handbook of Artificial Intelligence. Cambridge Press. Архів оригіналу за 4 березня 2016. Процитовано 13 жовтня 2019.
  68. Howard, Ayanna. The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard. MIT Sloan Management Review (англ.). Процитовано 14 серпня 2019.
  69. Muehlhauser, Luke, and Louie Helm. 2012. «Intelligence Explosion and Machine Ethics». In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  70. Bostrom, Nick. 2003. «Ethical Issues in Advanced Artificial Intelligence». In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12-17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  71. Sure, Artificial Intelligence May End Our World, But That Is Not the Main Problem // Wired : magazine.  2014. — 12. Процитовано 2015-11-04.
  72. Yudkowsky, Eliezer. 2011. «Complex Value Systems in Friendly AI». In Schmidhuber, Thórisson, and Looks 2011, 388—393.
  73. «Partnership on Artificial Intelligence to Benefit People and Society». N.p., n.d. 24 October 2016.
  74. Fiegerman, Seth. «Facebook, Google, Amazon Create Group to Ease AI Concerns». CNNMoney. n.d. 4 December 2016.
  75. CCC Offers Draft 20-Year AI Roadmap; Seeks Comments. HPCwire (англ.). 14 травня 2019. Процитовано 22 липня 2019.
  76. Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog (англ.). Процитовано 22 липня 2019.

Література

  • McCorduck, Pamela. Machines Who Think (2nd ed.). — Natick, MA : A. K. Peters, Ltd, 2004. — ISBN 1-56881-205-1.

Посилання

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.