Machine Intelligence Research Institute

Machine Intelligence Research Institute (MIRI; ранее — Singularity Institute и Singularity Institute for Artificial Intelligence) — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Елиезера Юдковски о создании дружественного ИИ. Юдковски исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку[1].

Machine Intelligence Research Institute
Административный центр
Тип организации некоммерческая организация
Основание
Дата основания 2000
Сайт intelligence.org (англ.)

С 2007 по 2010 год одним из директоров организации был изобретатель и футуролог Рей Курцвейл. В штате консультантов организации — оксфордский философ Ник Бостром, геронтолог Обри ди Грей, соучредитель PayPal Питер Тиль, и сооснователь Foresight Nanotech Institute Кристина Пэтерсон.

Организация имеет представительства в США и Канаде.

История

Первым проектом SIAI (Singularity Institute for Artificial Intelligence) стал «аннотационный язык программирования» (annotative programming language) Flare[2], разработка которого началась в июле 2001 года. Язык разрабатывался для создания с помощью него зерна ИИ. Менее чем через год проект был закрыт.

В 2002 году на сайте SIAI публикуется препринт главы «Уровни организации общего интеллекта»[3] из книги «Реальный ИИ: Новые подходы к искусственному общему интеллекту» (под редакцией Бен Герцель и Cassio Pennachin). Позже, в этом же году, SIAI опубликовал две основные главы введения — «Что есть сингулярность»[4] и «Почему следует работать над приближением сингулярности»[5].

В 2003 году представитель организации Майкл Anissimov выступил с докладом на международной конференции Transvision 2003, проходившей в Йельском университете.

В 2004 году SIAI был создан сайт AsimovLaws.com[6], созданный для обсуждения этики ИИ в контексте проблем, затронутых в фильме «Я, Робот», выпущенном лишь два дня спустя. В начале следующего года главный офис Института переезжает из Атланты в Кремниевую долину.

В феврале 2006 года Институт формирует фонд в размере 200 тыс. долл.[7]. Основная часть фонда (100 тыс. долл.) была получена от соучредителя Paypal Питера Тиля. В мае 2006 года на Стэнфордском саммите сингулярности принято решение о расширении штата сотрудников Института.

Институт, вместе с KurzweilAI.net и Центром по изучению языка и информации, спонсирует Стэнфордский саммит сингулярности. Директор Института, Питер Тиль, выступает в качестве ведущего саммита[8]. Саммит собрал порядка 1300 специалистов. Среди участников саммита были Рей Курцвейл, Ник Бостром, Кори Доктороу, Эрик Дрекслер, Дуглас Хофштадтер, Steve Jurvetson, Bill McKibben, Макс Мор, Себастьян Трун и Элиезер Юдковский.

В 2007 году аналогичный саммит прошёл во Дворце Театра Искусств, Сан-Франциско. Третий саммит сингулярности состоялся 5 октября 2008 года в Сан-Хосе.

Институт финансирует проект Open Cognition Framework (OpenCog), целью которого является предоставление «исследователям и разработчикам программного обеспечения общей платформы для построения программ с элементами искусственного интеллекта».

В 2013 году организация сменила название на Machine Intelligence Research Institute[9].

Исследования

Прогнозы

Machine Intelligence Research Institute изучает стратегические вопросы, связанные с ИИ, например: что мы можем (и не можем) предсказать о будущей технологии ИИ? Как мы можем улучшить наши способности к прогнозированию? Какие вмешательства, доступные сегодня, кажутся наиболее полезными, учитывая то, что мы мало знаем?[10]

Начиная с 2014 года MIRI финансирует работу по прогнозированию через независимый проект AI Impacts. AI Impacts изучает исторические примеры прерывистых технологических изменений и разработал новые меры относительной вычислительной мощности человека и компьютерного оборудования.[11][12]

Интерес исследователей MIRI к прерывистому искусственному интеллекту связан с аргументом И. Дж. Гуда о том, что достаточно продвинутые системы ИИ в конечном итоге превзойдут людей в задачах разработки программного обеспечения, что приведет к созданию цикла обратной связи все более способных систем ИИ:

Пусть ультраинтеллектуальная машина определяется как машина, которая может намного превосходить все интеллектуальные действия любого человека, насколько это возможно. Поскольку конструкция машин является одной из этих интеллектуальных задач, ультраинтеллектуальная машина могла бы разрабатывать ещё лучшие машины; Тогда бесспорно был бы «Интеллектуальный взрыв» (ориг: «intelligence explosion»), и разум человека остался бы далеко позади. Таким образом, первая ультраинтеллектуальная машина является последним изобретением, которое человек должен когда-либо делать, при условии, что машина достаточно послушна, чтобы рассказать нам, как держать её под контролем.[13]

Писатели, такие как Бостром, используют термин суперинтеллекция вместо ультраинтеллектуала Гуда. Следуя Вернору Винджу, идея Гуда о взрыве интеллекта стала связана с идеей «технологической сингулярности». Бостром и исследователи из MIRI выразили скептицизм по поводу взглядов сторонников сингулярности, таких как Рэй Курцвейл, что суперинтеллекция «находится за углом». Исследователи MIRI выступают за раннюю работу по обеспечению безопасности в качестве меры предосторожности, утверждая, что прошлые предсказания прогресса ИИ не были надежными.[14]

Степень надежности и толерантность к ошибкам в ИИ

Документ о приоритетах исследований Института Будущего Жизни (FLI) гласит:

Математические инструменты, такие как формальная логика, вероятность и теория принятия решений, дали значительное представление об основах рассуждений и принятия решений. Однако в основе рассуждений и решений по-прежнему остается множество открытых проблем. Решения этих проблем могут сделать поведение очень способных систем намного более надежными и предсказуемыми. Примеры исследований в этой области включают рассуждения и решения в рамках ограниченных вычислительных ресурсов à la Horvitz and Russell, как учитывать корреляции между поведением AI-систем и поведением их окружения, агентов, как агенты, встроенные в их среду, или других детерминированных вычислений. Эти темы могут выиграть от совместного рассмотрения, поскольку они кажутся глубоко связанными

Стандартные процедуры принятия решения недостаточно точно определены (например, в отношении контрфактов), для того, чтобы быть оформленными как алгоритмы. Исследователь Machine Intelligence Research Institute Бенья Палленштейн и тогдашний исследователь Нейт Соареш пишут, что теория причинно-следственных решений «неустойчива при отражении» в том смысле, что рациональный агент, следующий за теорией причинно-следственных решений, «правильно идентифицирует, что агент должен изменить себя, чтобы прекратить использовать теорию причинно-следственных решений для принятия решений». Исследователи идентифицируют «логические теории принятия решений» как альтернативы, которые лучше выполняют общие задачи принятия решений.

Если система ИИ выбирает действия, которые наилучшим образом позволяют ей выполнить задание, то избегать условий, которые препятствуют тому, чтобы система продолжала выполнять задачу, является естественным подцелем (и, наоборот, поиск безусловных ситуаций иногда является полезной эвристикой). Однако это может стать проблематичным, если мы хотим перераспределить систему, деактивировать её или существенно изменить процесс принятия решений; Такая система будет рационально избегать этих изменений. Системы, которые не проявляют такого поведения, называются исправительными системами, и теоретическая и практическая работа в этой области представляется приемлемой и полезной.

Приоритеты Machine Intelligence Research Institute в этих областях обобщены в технической программе 2015 года.

Примечания

  1. ИИ как фактор глобального риска
  2. Проект flarelang на сайте SourceForge.net
  3. Levels of Organization in General Intelligence (недоступная ссылка). Дата обращения: 14 мая 2009. Архивировано 4 октября 2006 года.
  4. What is the Singularity? | Singularity Institute for Artificial Intelligence (недоступная ссылка). Дата обращения: 14 мая 2009. Архивировано 16 мая 2008 года.
  5. Why Work Toward the Singularity? | Singularity Institute for Artificial Intelligence (недоступная ссылка). Дата обращения: 14 мая 2009. Архивировано 4 октября 2006 года.
  6. 3 Laws Unsafe — Asimov’s Three Laws of Robotics & I, Robot
  7. Singularity Institute for Artificial Intelligence | AI
  8. Smarter than thou? San Francisco Chronicle, 12 мая 2006
  9. We are now the “Machine Intelligence Research Institute” (MIRI) (30 января 2013).
  10. Bostrom, Nick; Yudkowsky, Eliezer. The Ethics of Artificial Intelligence // The Cambridge Handbook of Artificial Intelligence (англ.) / Frankish, Keith; Ramsey, William. — New York: Cambridge University Press, 2014. — ISBN 978-0-521-87142-6.
  11. Hsu, Jeremy. Making Sure AI’s Rapid Rise Is No Surprise (2015).
  12. De Looper, Christian. Research Suggests Human Brain Is 30 Times As Powerful As The Best Supercomputers (2015).
  13. I. J. Good. Speculations Concerning the First Ultraintelligent Machine (англ.) // Advances in Computers : journal. — 1965. Vol. 6.
  14. Bensinger, Rob Brooks and Searle on AGI volition and timelines. MIRI Blog (2015). Дата обращения: 12 октября 2015.

Ссылки

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.