Добавить биографию на сайт

Биографии известных людей.
Факты, фото, видео, интересные истории.

Поделиться
Юдковски, Элиезер

Юдковски, Элиезер

Другое

День рождения 11 сентября 1979

американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ


Элиезер Шломо Юдковский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ.

Научные интересы

Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI). Он — автор книги «Создание дружественного ИИ» («Creating Friendly AI» 2001), статей «Уровни организации универсального интеллекта» («Levels of Organization in General Intelligence», 2002), «Когерентная экстраполированная воля» («Coherent Extrapolated Volition», 2004) и «Вневременная теория принятия решений» («Timeless Decision Theory», 2010). Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков». Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ.

Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса» «An Intuitive Explanation of Bayes' Theorem».

Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога Less Wrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений».

Юдковский автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» (англ. Harry Potter and the Methods of Rationality) под эгидой Less Wrong.

Ссылки

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
  • Е. Юдковский. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков.
  • Е. Юдковский. Искусственный интеллект как позитивный и негативный фактор глобального риска.
  • Е. Юдковский. Вглядываясь в Сингулярность.
  • Е. Юдковский. Таблица критических ошибок Дружественного ИИ.
  • Е. Юдковский. Три школы сингулярности.
  • Е. Юдковский. Уровни организации универсального интеллекта.

КОММЕНТАРИИ
Написать комментарий

НАШИ ЛЮДИ