Елізер Юдковський
Елізер Юдковський | |
---|---|
англ. Eliezer Shlomo Yudkowsky | |
| |
Ім'я при народженні | англ. Eliezer Shlomo Yudkowsky |
Народився |
11 вересня 1979 (42 роки) США |
Країна | Американець |
Діяльність | artificial intelligence researcher, блогер, письменник, інформатик |
Галузь | Етика машин, штучний інтелект |
Заклад | Singularity Institute for Artificial Intelligence |
Відомий завдяки: | Дружній штучний інтелект, фанфік про Гаррі Поттера |
Особ. сторінка | yudkowsky.net |
Еліезер[1] Шломо Юдковський / Юдковскі (англ. Eliezer Shlomo Yudkowsky; 11 вересня 1979) — американський блогер, письменник, футуролог, фахівець з штучного інтелекту, дослідник проблем технологічної сингулярності. Підтримує створення дружнього штучного інтелекту.[2] Юдковський живе в Берклі, Каліфорнія.
Діяльність
Еліезер Юдковський відомий досягненнями в різних сферах.
Наука
Юдковський є автодидактом (самоуком)[3]. Він не має формальної освіти в галузі штучного інтелекту і не навчався у ВНЗ[4].
Співзасновник та науковий співробітник Інституту Сингулярності по створенню Штучного Інтелекту (SIAI) [5].
Автор публікацій на тему штучного інтелекту. Досліджує ті конструкції штучного інтелекту, які здатні до саморозуміння, самомодіфікаціі й рекурсивного самовдосконалення, а також такі архітектури штучного інтелекту, які будуть володіти стабільною та позитивною структурою мотивації (Дружній штучний інтелект).[5] До кола його наукових інтересів входить теорія прийняття рішень для задач самомодіфікаціі та проблеми Newcomblike.
Крім дослідницької роботи відомий своїми науково-популярними поясненнями складних моделей мовою, доступною широкому колу читачів.
Блогерство
Разом з Робіном Хансоном був одним один з провідних авторів блогу Overcoming Bias.[6]
На початку 2009 року брав участь в організації блогу Less Wrong, націленого на «розвиток раціональності людини та подолання когнітивних спотворень».[3] . Після цього Overcoming Bias став особистим блогом Хансона. Матеріал, представлений на цих блогах, організований у вигляді ланцюжків постів, які змогли залучити тисячі читачів — див. наприклад, ланцюжок «теорія розваг».
Less Wrong детально розглядався у Business Insider.[7] На Less Wrong посилались зі шпальт The Guardian.[8][9] Less Wrong фігурував у статтях, пов'язаних з технологічною сингулярістю та Інституту Сингулярності по створенню Штучного Інтелекту.[10] Крім того, згадувався в статтях про інтернет-монархістів та нео-реакціонерів.[11]
Фанфікшн
Написав кілька робіт[12] з наукової фантастики, в яких він ілюструє деякі теми, пов'язані з когнітивною наукою та раціональністю. У неакадемічних колах здебільшого відомий як автор фанфіку про альтернативний розвиток подій у світі Гаррі Поттера "Гаррі Поттер і Методи Раціональності" (англ. Harry Potter and the Methods of Rationality). створений під ніком Less Wrong [13]. Дана історія намагається пояснити магічний світ Гаррі Поттера з позиції наукової парадигми, послуговуючись досягненнями когнітивної науки та методів раціонального мислення[3][14]).
Публікації
Оригінал
- Creating Friendly AI [15] (2001)
- Levels of Organization in General Intelligence [16] (2002)
- Coherent Extrapolated Volition [17] (2004)
- Artificial Intelligence as a Positive and Negative Factor in Global Risk[18][19][20] (2008)
- Cognitive Biases Potentially Affecting Judgement of Global Risks[20][21][22] (2008)
- Timeless Decision Theory [23][24] (2010)
- Complex Value Systems are Required to Realize Valuable Futures (2011)
- Tiling Agents for Self-Modifying AI, and the Löbian Obstacle (2013)
- A Comparison of Decision Algorithms on Newcomblike Problems (2013)
- An Intuitive Explanation of Bayes' Theorem [25](науково-популярна стаття).
Посилання
- Персональний сайт
- Less Wrong — блог, присвячений розвитку мистецтва людської раціональності, співзасновником якого є Юдковський.
- Український переклад фанфіку "Гаррі Поттер і Методи раціональності"
- Сайт фанфіку "Гаррі Поттер та Методи раціонального мислення"
- Predicting The Future: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Глава про Юдковського в книзі «21st Century Technology and Its Radical Implications for Mind, Society and Reality»
- Біографія на сайті KurzweilAI.net
- Біографія на сайті Singularity Institute
- Overcoming Bias — Блог, дописувачем якого Юдковський був до 2009 року.
Див. також
Примітки
- персональний твіт про те, як читається ім'я.
- Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Архів оригіналу за 27 червня 2009. Процитовано 16 липня 2009.
- Singularity Rising, by James Miller
- GDay World #238: Eliezer Yudkowsky. The Podcast Network. Архів оригіналу за 17 липня 2007. Процитовано 26 липня 2009.
- Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. с. 599. ISBN 0-670-03384-7.
- Overcoming Bias: About. Robin Hanson. Процитовано 1 лютого 2012.
- Miller, James (28 липня 2011). You Can Learn How To Become More Rational. Business Insider. Процитовано 25 березня 2014.
- Burkeman, Oliver (8 липня 2011). This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten?. The Guardian. Процитовано 25 березня 2014.
- Burkeman, Oliver (9 березня 2012). This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity?. The Guardian. Процитовано 25 березня 2014.
- Tiku, Natasha (25 липня 2012). Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. BetaBeat. Процитовано 25 березня 2014.
- Finley, Klint (22 листопада 2013). Geeks for Monarchy: The Rise of the Neoreactionaries. TechCrunch. Процитовано 25 березня 2014.
- http://yudkowsky.net/other/fiction
- "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire"
- перекл. "Створення дружнього штучного інтелекту"
- перекл. "Рівні організації універсального інтелекту"
- перекл. «Когерентна екстрапольована воля»
- перекл. "Штучний інтелект як позитивний та негативний чинник глобального ризику"
- Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Архів оригіналу за 6 серпня 2009. Процитовано 28 липня 2009.
- Bostrom, Nick, ред. (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. с. 91-119, 308-345. ISBN 978-0-19-857050-9.
- перекл. "Когнітивні спотворення в оцінці глобальних ризиків"
- Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Архів оригіналу за 13 червня 2012. Процитовано 1 червня 2014.
- перекл. "Позачасова теорія прийняття рішень"
- Eliezer Yudkowsky Profile. Accelerating Future. Архів оригіналу за 4 липня 2012. Процитовано 1 червня 2014.
- перекл. "Інтуїтивне пояснення теореми Байеса"