Елізер Юдковський

Елізер Юдковський
англ. Eliezer Shlomo Yudkowsky
Елізер Юдковський, Стенфорд, 2006 рік
Елізер Юдковський, Стенфорд, 2006 рік
Ім'я при народженні англ. Eliezer Shlomo Yudkowsky
Народився 11 вересня 1979(1979-09-11) (42 роки)
 США
Країна Американець
Діяльність artificial intelligence researcher, блогер, письменник, інформатик
Галузь Етика машин, штучний інтелект
Заклад Singularity Institute for Artificial Intelligence
Відомий завдяки: Дружній штучний інтелект, фанфік про Гаррі Поттера
Особ. сторінка yudkowsky.net

Еліезер[1] Шломо Юдковський / Юдковскі (англ. Eliezer Shlomo Yudkowsky; 11 вересня 1979) — американський блогер, письменник, футуролог, фахівець з штучного інтелекту, дослідник проблем технологічної сингулярності. Підтримує створення дружнього штучного інтелекту.[2] Юдковський живе в Берклі, Каліфорнія.

Діяльність

Еліезер Юдковський відомий досягненнями в різних сферах.

Наука

Юдковський є автодидактом (самоуком)[3]. Він не має формальної освіти в галузі штучного інтелекту і не навчався у ВНЗ[4].

Співзасновник та науковий співробітник Інституту Сингулярності по створенню Штучного Інтелекту (SIAI) [5].

Автор публікацій на тему штучного інтелекту. Досліджує ті конструкції штучного інтелекту, які здатні до саморозуміння, самомодіфікаціі й рекурсивного самовдосконалення, а також такі архітектури штучного інтелекту, які будуть володіти стабільною та позитивною структурою мотивації (Дружній штучний інтелект).[5]:420 До кола його наукових інтересів входить теорія прийняття рішень для задач самомодіфікаціі та проблеми Newcomblike.

Крім дослідницької роботи відомий своїми науково-популярними поясненнями складних моделей мовою, доступною широкому колу читачів.

Блогерство

Разом з Робіном Хансоном був одним один з провідних авторів блогу Overcoming Bias.[6]

На початку 2009 року брав участь в організації блогу Less Wrong, націленого на «розвиток раціональності людини та подолання когнітивних спотворень».[3]:37. Після цього Overcoming Bias став особистим блогом Хансона. Матеріал, представлений на цих блогах, організований у вигляді ланцюжків постів, які змогли залучити тисячі читачів  — див. наприклад, ланцюжок «теорія розваг».

Less Wrong детально розглядався у Business Insider.[7] На Less Wrong посилались зі шпальт The Guardian.[8][9] Less Wrong фігурував у статтях, пов'язаних з технологічною сингулярістю та Інституту Сингулярності по створенню Штучного Інтелекту.[10] Крім того, згадувався в статтях про інтернет-монархістів та нео-реакціонерів.[11]

Фанфікшн

Написав кілька робіт[12] з наукової фантастики, в яких він ілюструє деякі теми, пов'язані з когнітивною наукою та раціональністю. У неакадемічних колах здебільшого відомий як автор фанфіку про альтернативний розвиток подій у світі Гаррі Поттера "Гаррі Поттер і Методи Раціональності" (англ. Harry Potter and the Methods of Rationality). створений під ніком Less Wrong [13]. Дана історія намагається пояснити магічний світ Гаррі Поттера з позиції наукової парадигми, послуговуючись досягненнями когнітивної науки та методів раціонального мислення[3][14]).

Публікації

Оригінал

Посилання

Див. також

Примітки

  1. персональний твіт про те, як читається ім'я.
  2. Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Архів оригіналу за 27 червня 2009. Процитовано 16 липня 2009.
  3. Singularity Rising, by James Miller
  4. GDay World #238: Eliezer Yudkowsky. The Podcast Network. Архів оригіналу за 17 липня 2007. Процитовано 26 липня 2009.
  5. Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. с. 599. ISBN 0-670-03384-7.
  6. Overcoming Bias: About. Robin Hanson. Процитовано 1 лютого 2012.
  7. Miller, James (28 липня 2011). You Can Learn How To Become More Rational. Business Insider. Процитовано 25 березня 2014.
  8. Burkeman, Oliver (8 липня 2011). This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten?. The Guardian. Процитовано 25 березня 2014.
  9. Burkeman, Oliver (9 березня 2012). This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity?. The Guardian. Процитовано 25 березня 2014.
  10. Tiku, Natasha (25 липня 2012). Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. BetaBeat. Процитовано 25 березня 2014.
  11. Finley, Klint (22 листопада 2013). Geeks for Monarchy: The Rise of the Neoreactionaries. TechCrunch. Процитовано 25 березня 2014.
  12. http://yudkowsky.net/other/fiction
  13. "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire"
  14. перекл. "Створення дружнього штучного інтелекту"
  15. перекл. "Рівні організації універсального інтелекту"
  16. перекл. «Когерентна екстрапольована воля»
  17. перекл. "Штучний інтелект як позитивний та негативний чинник глобального ризику"
  18. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Архів оригіналу за 6 серпня 2009. Процитовано 28 липня 2009.
  19. Bostrom, Nick, ред. (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. с. 91-119, 308-345. ISBN 978-0-19-857050-9.
  20. перекл. "Когнітивні спотворення в оцінці глобальних ризиків"
  21. Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Архів оригіналу за 13 червня 2012. Процитовано 1 червня 2014.
  22. перекл. "Позачасова теорія прийняття рішень"
  23. Eliezer Yudkowsky Profile. Accelerating Future. Архів оригіналу за 4 липня 2012. Процитовано 1 червня 2014.
  24. перекл. "Інтуїтивне пояснення теореми Байеса"
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.