Этика искусственного интеллекта

Этика искусственного интеллекта является частью этики технологий, характерной для роботов и других искусственно интеллектуальных существ. Она обычно подразделяется на робоэтику, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании и лечении искусственно разумных существ и машинную этику, которая затрагивает проблемы морального поведения искусственных моральных агентов (ИМА).

Этика роботов

Термин «этика роботов» (или «робоэтика») относится к моральным вопросам того, как люди проектируют, конструируют, используют и обращаются с роботами и другими искусственно интеллектуальными существами[1]. Она занимается вопросами того, как искусственно разумные существа могут быть использованы во вред и в интересах людей.

Права роботов

«Права роботов» — это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, аналогичные правам человека или животным[2]. Есть предложение, что права роботов, такие как право на существование и выполнение своей собственной миссии, можно связать с обязанностью робота служить человеку, по аналогии с увязкой прав человека с обязанностями человека перед обществом[3]. Они могут включать право на жизнь и свободу, свободу мысли и высказываний, а также равенство перед законом[4]. Этот вопрос был рассмотрен Институтом будущего[5] и Министерством торговли и промышленности Великобритании[6].

Эксперты не имеют общего мнения, потребуются ли конкретные и подробные законы уже в ближайшее время или только в отдалённом будущем[6]. Гленн МакГи сообщает, что к 2020 году могут появиться достаточно гуманоидные роботы[7]. Рэй Курцвейл считает, что это произойдет к 2029 году[8]. В 2007 году другая группа учёных предполагала, что пройдет, по крайней мере, 50 лет, прежде чем сможет существовать какая-либо достаточно продвинутая система[9].

Правила конкурса Лобнеровской премии 2003 года предусматривали возможность того, что роботы могут иметь собственные права.

В октябре 2017 года андроид София получила «почётное» гражданство в Саудовской Аравии, хотя некоторые наблюдатели сочли это скорее рекламным ходом, чем осмысленным юридическим признанием[10]. Некоторые рассматривали этот жест как открытое унижение прав человека и верховенства закона[11].

Философия сентитизма предоставляет право на моральные соображения всем чувствующим существам, прежде всего людям и большинству животных. Если искусственные или инопланетные интеллектуальные существа демонстрируют доказательства своей чувственности, эта философия считает, что к ним следует проявить сострадание и предоставить права.

Джоанна Брайсон утверждала, что создание требующего прав ИИ можно избежать и само по себе неэтично, что это будет бременем и для агентов ИИ и для человеческого общества[12].

Угроза человеческому достоинству

Джозеф Вейзенбаум утверждал в 1976 году, что технология искусственного интеллекта не должна использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

  • Сотрудник службы поддержки клиентов (технологии ИИ уже используется сегодня в телефонных системах интерактивных голосовых ответов)
  • Терапевт (как было предложено Кеннетом Колби в 1970-х годах)
  • Сиделка для пожилых людей (как рассказала Памела МакКордак в своей книге «Пятое поколение»)
  • Солдат
  • Судья
  • Полицейский

Вайзенбаум объясняет, что от людей на этих должностях мы требуем подлинного чувства эмпатии. Если машины их заменят, мы окажемся отчужденными, обесцененными и разочарованными. Искусственный интеллект, если его использовать таким образом, представляет угрозу для человеческого достоинства. Вайзенбаум утверждает, что факт того, что мы рассматриваем возможность машинам занимать эти позиции, говорит о том, что мы испытали «атрофию человеческого духа, возникающую из-за того, что мы думаем о себе как о компьютерах»[13].

Памела МакКордак возражает, говоря о женщинах и меньшинствах, «я бы предпочла рискнуть с беспристрастным компьютером», указывая на условия, в которых мы бы предпочли иметь автоматических судей и полицию, у которых вообще нет личных интересов[13]. Тем не менее, Каплан и Хенлейн подчеркивают, что системы искусственного интеллекта интеллектуальны ровно в соответствии с теми данными, которые использовались для их обучения, поскольку по своей сути они представляют собой не что иное, машины для приближения с помощью кривых: использование искусственного интеллекта для поддержки судебного решения может быть весьма проблематичным, если прошлые решения демонстрируют предвзятость к определённым группам, поскольку эти предубеждения формализуются и закрепляются, что делает выявление и борьбы с ними ещё более трудной[14]. Основатель ИИ Джон Маккарти возражает против морализирующего тона критики Вейзенбаума. Он пишет: «Когда морализаторство неистово и расплывчато, оно поощряет авторитарное насилие».

Билл Хиббард[15] отмечал, что «человеческое достоинство требует, чтобы мы стремились устранить наше незнание природы бытия, и для этого необходим ИИ».

Прозрачность, ответственность и открытый исходный код

Билл Хиббард утверждает, что, поскольку ИИ сильно повлияет на человечество, усилия разработчиков ИИ этически должны быть прозрачными[16]. Бен Гертцель и Дэвид Харт создали OpenCog в качестве фреймворка с открытым исходным кодом для разработки ИИ[17]. OpenAI — это некоммерческая исследовательская компания по искусственному интеллекту, созданная Илоном Маском, Сэмом Альтманом и другими для разработки полезного для человечества программного обеспечения ИИ с открытым исходным кодом[18]. Существует множество других разработок ИИ с открытым исходным кодом.

К сожалению, открытие кода не делает его понятным, то есть ИИ, который им закодирован, не является прозрачным. IEEE пытается заниматься стандартизацией прозрачности ИИ[19]. Усилия IEEE выделяют для разных пользователей несколько степеней прозрачности. Кроме того, есть опасение, что предоставление полного потенциала современного ИИ некоторым организациям может быть плохо для общественности, то есть причинить больше вреда, чем пользы. Например, Microsoft выразила обеспокоенность по поводу предоставления всегобщего доступа к своему программному обеспечению для распознавания лиц, даже для тех, кто может за него заплатить. Microsoft опубликовала необычный блог на эту тему с просьбой о правительственном регулировании с целью помощи в определении правильных действий[20].

Не только компании, но и многие другие исследователи и гражданские адвокаты рекомендуют государственное регулирование для обеспечения прозрачности и, как следствие, ответственности человека. Обновленная коллекция (список) этики ИИ поддерживается организацией AlgorithmWatch. Эта стратегия спорная, так как некоторые опасаются, что это приведет к замедлению темпов инноваций. Другие утверждают, что регулирование приводит к систематической стабильности, способной в большей степени поддерживать инновации в долгосрочной перспективе[21]. ОЭСР, ООН, ЕС и многие страны в настоящее время работают над стратегиями регулирования ИИ и ищут соответствующие правовые рамки[22][23][24]. 26 июня Группа высокоуровневых экспертов Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Рекомендации по политике и инвестициям в области надежного искусственного интеллекта». Это второй документ AI HLEG, который вышел вслед за публикацией в апреле 2019 г. «Руководства по этике для надежного AI». Новые рекомендации касаются четырёх основных областей: люди и общество в целом, частный сектор, государственный сектор, а также исследования и наука. Рекомендации HLEG отражают понимание как возможностей для технологий искусственного интеллекта стимулировать экономический рост, процветание и инновации, так и потенциальных рисков. Европейского Союза имеет амбиции возглавить разработку политик, регулирующих ИИ во всем мире. Однако, если Европа не ускорит развертывание и внедрение и не создаст производственные, исследовательские и опытно-конструкторские мощности, её возможности для этого будут ограничены[25].

Предвзятость в системах ИИ

ИИ становится все более неотъемлемой частью систем распознавания лиц и голоса. Некоторые из этих систем имеют реальное влияние на бизнес и людей. Эти системы уязвимы для предвзятостей и ошибок, вносимых создателями-людьми. Кроме того, данные, используемые для обучения самих этих систем ИИ, могут иметь искажения[26][27][28][29]. Например, алгоритмы распознавания лиц, разработанные Microsoft, IBM и Face++, оказались необъективны, когда дело дошло до определения пола людей[30]. Эти системы искусственного интеллекта были в состоянии определять пол белых мужчин более точно, чем пол темнокожих мужчин. Ещё одним примером необъективности ИИ стало прекращение со стороны Amazon’s.com Inc использования ИИ для найма сотрудников. Алгоритм предпочитал больше кандидатов-мужчин, чем женщин. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период, которые поступали в основном от кандидатов-мужчин[31].

Предвзятость может попасть в алгоритмы разными способами. В очень влиятельной ветке ИИ, известной как «обработка естественного языка», могут возникнуть проблемы из «текстового свода» — исходного материала, который использует алгоритм, чтобы узнать о взаимосвязях между разными словами[32].

Крупные компании, такие как IBM, Google и прочие, уже начали исследовать и решать проблему предвзятости[33][34][35].

Проблема предвзятости в машинном обучении, вероятно, станет более серьёзной, поскольку технология распространяется на такие критические области, как медицина и юриспруденция, и поскольку задачу её развертывания поручают все большему числу людей, которые не имеют глубоких технических знаний. Некоторые эксперты предупреждают, что алгоритмическая необъективность уже широко распространена во многих отраслях, и что почти никто не предпринимает усилий для её выявления или исправления[36].

Ответственность за частично или полностью беспилотные автомобили

Есть все основания считать, что в будущем неизбежно широкое использование частично или полностью беспилотных автомобилей. Но полностью автономные технологии ставят перед нами новые проблемы и вызовы[37][38][39]. В последнее время поднялись дебаты по поводу юридической ответственности сторон при попадании беспилотных автомобилей в аварии[40][41]. В одном из отчётов[42] автомобиль без водителя сбил пешехода и встала проблема, кто виноват в аварии. Несмотря на то, что водитель во время аварии находился в автомобиле, органы управления были полностью в руках компьютера. Необходимо решить такого рода вопросы прежде, чем беспилотные автомобили будут иметь широкое распространение[43][44][45].

Вооружённый искусственный интеллект

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам предоставляются определённая степень автономности[46][47]. ВМС США профинансировали доклад, в котором указывается, что, поскольку боевые роботы становятся все более сложными, следует уделять больше внимания последствиям их способностям принимать самостоятельные решения[48][49].

В течение последнего десятилетия проводились интенсивные исследования в области самообучаемой автономности с назначаемой моральной ответственностью. «Результаты могут быть использованы при разработке будущих военных роботов для контролирования нежелательных тенденций возложения ответственности на роботов»[50]. С точки зрения консеквенциализма есть вероятность, что роботы будут развивать способности принимать свои собственные логические решения о том, кого убивать, и поэтому необходимы моральные ограничения, которые ИИ не сможет обойти[51].

Недавно были протестные голоса против разработки ИИ-оружия, которое включало бы идеи захвата человечества роботом. ИИ-оружие несёт опасность другого рода, в отличие от оружия, контролируемого человеком. Многие правительства уже начали финансировать программы по разработке ИИ-вооружения. ВМС США недавно объявили о планах разработки ударного беспилотника, параллельно с аналогичными заявлениями России и Кореи. В связи с тем, что ИИ-оружие становится более опасным, чем управляемое человеком оружие, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни»[52] о запрещении ИИ-оружия. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что ИИ-оружие представляет собой непосредственную опасность и что необходимо предпринять какие-то действия, чтобы в ближайшем будущем избежать катастрофических последствий[53].

«Если какая-либо крупная военная сила продвигает разработку ИИ-оружия, практически неизбежна глобальная гонка вооружений, и в итоге автономное оружие станет автоматом Калашникова завтрашнего дня», — говорится в петиции, в которую входят противники вооружённого искусственного интеллекта: Skype-основатель Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомский[54].

Физик и астроном сэр Мартин Рис предупреждает о таких катастрофических примерах, как «глупые роботы, которые становятся изгоями, или сеть, которая развивает собственный разум». Хью Прайс, коллега Риса из Кембриджа, озвучил аналогичное предупреждение о том, что люди могут не выжить, если интеллект «ускользнёт от биологических ограничений». в Кембриджском университете они создали Центр изучения экзистенциального риска в надежде избежать этой угрозы человеческому существованию[53].

Что касается возможности использования систем «умнее человека» в военном деле, проект «Открытая филантропия» пишет, что эти сценарии «кажутся потенциально настолько же важными, как и риски, связанные с потерей контроля», но исследовательские организации, занимающиеся долгосрочным социальным воздействием ИИ, недостаточно изучили эту проблему: «этот класс сценариев не был в центре внимания занимающихся этими вопросами организаций, таких как Научно-исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI) и поэтому меньше обсуждались»[55].

Машинная этика

Машинная этика (или машинная мораль) — это область исследований, связанных с разработкой искусственных моральных агентов (ИМА), роботов или искусственно интеллектуальных компьютеров, которые ведут себя морально или как бы морально[56][57][58][59]. Чтобы учесть природу этих агентов, было предложено рассмотреть некоторые философские идеи, такие как стандартные характеристики субъектности, рациональных агентов, моральных факторов и искусственной субъектности, которые связанные с концепцией ИМА[60].

Айзек Азимов рассмотрел эту проблему в 1950-х годах в своей серии рассказов «Я, робот». По настоянию своего редактора Джона У. Кэмпбелла младшего для управления искусственно интеллектуальными системами он предложил Три закона робототехники. Большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они могут сломаться или где они могут вызвать парадоксальное или непредвиденное поведение. Его работа предполагает, что ни один из установленных законов не может в достаточной мере предвидеть все возможные обстоятельства. Последнее время ученые и многие правительства поставили под сомнение идею о привлечении к ответственности ИИ[61]. Комиссия, созванная Соединенным Королевством в 2010 году, пересмотрела законы Азимова, чтобы уточнить, что ИИ является ответственностью либо его производителей, либо его владельца/оператора[62].

В 2009 году во время эксперимента в Лаборатории интеллектуальных систем в Политехнической школе Лозанны в Швейцарии роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезных ресурсов и избегании ядовитых), в конечном итоге научились лгать друг другу в попытке накопить полезные ресурсы[63]. Одной из проблем в этом случае могло быть то, что цели были «конечными» (в то время как основные человеческие мотивы обычно имеют качество, требующее бесконечного обучения)[64].

Некоторые эксперты и ученые ставят под сомнение использование роботов для боевых действий, особенно когда таким роботам предоставляются определённые степени автономных функций[46]. ВМС США профинансировали доклад, в котором указывается, что по мере усложнения военных роботов следует уделять больше внимания последствиям их способности принимать самостоятельные решения[65][49].

Вернор Виндж предположил, что может наступить момент, когда некоторые компьютеры станут умнее людей, назвав этот явление сингулярностью[66]. Он предполагает, что это может быть частично или даже очень опасно для человека[67]. Научно-исследовательский институт машинного интеллекта высказал предположение о необходимости создания «Дружественного ИИ», имея ввиду, что прогресс, который уже происходит с ИИ, должен также включать усилия, направленные на создание более дружелюбного и гуманного ИИ.

В 2009 году ученые и технические эксперты приняли участие в конференции, организованной Ассоциацией по развитию искусственного интеллекта, чтобы обсудить потенциальное воздействие роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и способными принимать собственные решения. Они обсудили возможность и степень, с которой компьютеры и роботы могли бы приобрести любой уровень автономии, и в какой степени они могли бы использовать такие возможности, чтобы представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки оружием. Они также отметили, что некоторые компьютерные вирусы могут избегать уничтожения и достигли «интеллекта тараканов». Они отметили, что самосознание, как изображено в научной фантастике, вероятно, маловероятно, но есть другие потенциальные опасности и подводные камни[66].

Тем не менее, существует одна технология, которая действительно может привести к роботам с моральными способностями. В статье о приобретении моральных ценностей роботами Найеф Аль-Родхан упоминает случай нейроморфных чипов, которые стремятся обрабатывать информацию аналогично людям, нелинейно и с миллионами взаимосвязанных искусственных нейронов[68]. Роботы со встроенной нейроморфной технологией могут изучать и развивать знания уникальным образом. Это неизбежно поднимает вопрос об окружающей среде, в которой такие роботы познают мир и мораль которого они унаследуют, или если они в конечном итоге также разовьют человеческие «слабости»: эгоизм, отношение к выживанию, колебания и т. д.

В «Моральные машины: обучение роботов правильному через неправильное»[69] Уэнделл Уоллах и Колин Аллен делают вывод, что попытки научить роботов поступать правильно через неправильно могут продвинуть понимание человеческой этики, мотивируя людей на устранение пробелов в современной нормативной теории и предоставляя платформу для экспериментального исследования. В качестве примера он задаёт нормативным специалистам по этике спорный вопрос о том, какие конкретные алгоритмы машинного обучения нужно использовать. Ник Бостром и Элиэзер Юдковски приводят доводы в пользу деревьев решений (таких как ID3) потив нейронных сетей и генетических алгоритмов, потому что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, stare decisis)[70], то время как Крис Сантос-Ланг возражает, что нормы любого возраста можно менять и что естественная неспособность полностью удовлетворить эти конкретные нормы имеет важное значение для того, чтобы сделать людей менее уязвимыми для преступных «хакеров»[64].

Согласно отчету Центра по управлению ИИ в Оксфордском университете за 2019 год, 82 % американцев считают, что необходимо тщательно управлять роботами и ИИ. Обсуждаемые проблемы варьировались от того, как ИИ используется для слежки и распространения фальшивого контента в Интернете (известного как глубокие фейки (deepfakes), когда они включают в себя подделанные видеоизображения и аудио, сгенерированные с помощью ИИ), до кибератак, посягательств на конфиденциальность данных, предвзятости при найме на работу, беспилотных транспортных средств и дронов, которые не требуют человека-контролера[71].

Неожиданные последствия

Многие исследователи утверждают, что в результате «интеллектуального взрыва», произошедшего где-то в XXI веке, самосовершенствующийся ИИ может стать настолько мощнее людей, что мы не сможем помешать ему достичь своих целей[72]. В своей статье «Этические проблемы в продвинутом искусственном интеллекте» философ Ник Бостром утверждает, что искусственный интеллект способен вызвать вымирание человека. Он утверждает, что общий сверхразум способен на самостоятельную инициативу и на создание собственных планов, и поэтому его более целесообразно рассматривать как автономного агента. Поскольку искусственный интеллект не обязан разделять человеческие мотивации, разработчики супер-интеллекта должны были бы заложить его первоначальную мотивацию. Теоретически, сверхинтеллектуальный ИИ сможет привести к практически любому возможному исходу и пресечь любую попытку помешать достижению своей главной цели, может возникнуть много неконтролируемых непреднамеренных последствий. Это может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства[73].

Однако вместо того, чтобы превзойти человеческую расу и вести её к разрушению, Бостром также утверждает, что супер-интеллект может помочь нам решить многие сложные проблемы, такие как болезни, бедность, разрушение окружающей среды, и может помочь нам «улучшить» себя[74].

Сложность систем человеческих ценностей ведет к очень трудному созданию удобных для человека мотиваций ИИ[72][73]. Пока моральная философия не дает нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют данной этической структуре, но не соответствуют «здравому смыслу». По словам Элиэзера Юдковского, у нас мало оснований полагать, что искусственно созданный разум будет обладать такой адаптацией[75].

Билл Хиббард[15] предложил такой дизайн искусственного интеллекта, который избегает некоторых типов непреднамеренного поведения, включая самообман, непреднамеренные инструментальные действия и повреждение генератора вознаграждений.

Организации

Amazon, Google, Facebook, IBM и Microsoft создали некоммерческое партнерство для разработки передового опыта в области технологий искусственного интеллекта, улучшения понимания общественностью и обеспечения ИИ платформы. Они заявили: «Это партнерство по ИИ будет проводить исследования, организовывать дискуссии, обеспечивать интеллектуальное лидерство, консультироваться с соответствующими третьими сторонами, отвечать на вопросы общественности и средств массовой информации, а также создавать учебные материалы, способствующие пониманию технологий ИИ, включая машинное восприятие, обучение и автоматическое рассуждение»[76]. Apple присоединилась к другим технологическим компаниям в качестве одного из основателей Партнерства по искусственному интеллекту в январе 2017 года. Корпоративные участники будут вносить финансовый и исследовательский вклад в работу группы, взаимодействуя с научным сообществом, чтобы привлечь учёных в совет директоров[77].

IEEE разработал Глобальную инициативу по этике автономных и интеллектуальных систем, которая разрабатывает и пересматривает с помощью общественного мнения методические рекомендации, и принимает в качестве своих членов многих специалистов изнутри и снаружи своей организации.

Традиционно, общественность используют правительство для контроля соответствия этики рамкам законодательства и правопорядка. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают много усилий для обеспечения этического применения ИИ.

В массовой культуре

Фильм «Тринадцатый этаж» показывает будущее, в котором на игровых консолях создаются для развлечения симулированные миры с разумными обитателями. Фильм «Матрица» показывает будущее, где доминирующим видом на планете Земля являются разумные машины, а человечество подвергается предельной дискриминации. В коротком рассказе «Погружение Планка» показывается будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, а соответствующее различие между типами программного обеспечения является разумным и не чувствительным. Та же самая идея может быть найдена в Голограмме скорой медицинской помощи Starship Voyager, которая является явно разумной копией уменьшенного подмножества сознания её создателя, доктора Циммермана, который из лучших побуждений создал систему для предоставления экстренной медицинской помощи. В фильмах «Двухсотлетний человек» и «Искусственный разум» рассматриваются возможности разумных роботов, которые могут любить. «Я, Робот» показал некоторые аспекты трёх законов робототехники Азимова. Все они пытаются предугадать, возможно, неэтичные последствия создания разумных компьютеров.

Этика искусственного интеллекта является одной из основных тем в серии игр BioWare «Mass Effect». Она рассматривает сценарий, в котором цивилизация случайно создала ИИ благодаря быстрому увеличению вычислительной мощности используя глобальную нейронную сеть. Это событие вызвало этический раскол между теми, кто считал, что разумных Гетов можно наделить органическими правами, и теми, кто продолжал рассматривать их как одноразовый механизм и боролся за их уничтожение. Помимо начального конфликта ещё одной постоянной темой всей истории является сложность отношений между машинами и их создателями.

См. также

Исследователи
Организации

Примечания

  1. Veruggio, Gianmarco. The Roboethics Roadmap (неопр.). — Scuola di Robotica, 2007.
  2. Woody Posthuman Rights: Dimensions of Transhuman Worlds (неопр.) // Teknokultura. — 2015. Т. 12, № 2. doi:10.5209/rev_TK.2015.v12.n2.49072.
  3. Yurii Artificial Personal Autonomy and Concept of Robot Rights (англ.) : journal. — European journal of law and political sciences, 2017.
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. Robots could demand legal rights, BBC News (21 декабря 2006). Дата обращения 3 января 2010.
  6. Henderson. Human rights for robots? We're getting carried away, The Times Online, The Times of London (24 апреля 2007). Дата обращения 2 мая 2010.
  7. McGee. A Robot Code of Ethics. The Scientist.
  8. Ray Kurzweil. The Singularity is Near (неопр.). Penguin Books, 2005. — ISBN 978-0-670-03384-3.
  9. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper.
  10. Saudi Arabia bestows citizenship on a robot named Sophia
  11. Vincent. Pretending to give a robot citizenship helps no one, The Verge (30 октября 2017).
  12. Close engagements with artificial companions : key social, psychological, ethical and design issues (англ.). — Amsterdam: John Benjamins Pub. Co, 2010. — ISBN 978-9027249944.
  13. Joseph Weizenbaum, quoted in McCorduck, 2004, pp. 356, 374–376
  14. Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1) (недоступная ссылка). Дата обращения: 10 октября 2019. Архивировано 21 ноября 2018 года.
  15. Hibbard, Bill (2014): «Ethical Artificial Intelligence».
  16. Open Source AI. Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  17. OpenCog: A Software Framework for Integrative Artificial General Intelligence. David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  18. Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.
  19. P7001 - Transparency of Autonomous Systems. P7001 - Transparency of Autonomous Systems. IEEE. Дата обращения: 10 января 2019..
  20. Thurm. MICROSOFT CALLS FOR FEDERAL REGULATION OF FACIAL RECOGNITION, Wired (13 июля 2018).
  21. Bastin. The General Data Protection Regulation Cross-industry innovation (недоступная ссылка). Inside magazine. Deloitte (июнь 2017). Дата обращения: 11 октября 2019. Архивировано 10 января 2019 года.
  22. UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges' (англ.). UN News (7 июня 2017). Дата обращения: 26 июля 2019.
  23. Artificial intelligence - Organisation for Economic Co-operation and Development (англ.). www.oecd.org. Дата обращения: 26 июля 2019.
  24. Anonymous. The European AI Alliance (англ.). Digital Single Market - European Commission (14 июня 2018). Дата обращения: 26 июля 2019.
  25. EU Tech Policy Brief: July 2019 Recap (англ.). Center for Democracy & Technology. Дата обращения: 9 августа 2019.
  26. Society. The case for fairer algorithms - DeepMind Ethics & Society (англ.). Medium (14 марта 2018). Дата обращения: 22 июля 2019.
  27. 5 unexpected sources of bias in artificial intelligence (англ.). TechCrunch. Дата обращения: 22 июля 2019.
  28. Knight. Google’s AI chief says forget Elon Musk’s killer robots, and worry about bias in AI systems instead (англ.). MIT Technology Review. Дата обращения: 22 июля 2019.
  29. Villasenor. Artificial intelligence and bias: Four key challenges (англ.). Brookings (3 января 2019). Дата обращения: 22 июля 2019.
  30. Lohr. Facial Recognition Is Accurate, if You're a White Guy (англ.), The New York Times (9 February 2018). Дата обращения 29 мая 2019.
  31. Amazon scraps secret AI recruiting tool that showed bias against women (англ.), Reuters (10 October 2018). Дата обращения 29 мая 2019.
  32. Eliminating bias in AI (англ.). techxplore.com. Дата обращения: 26 июля 2019.
  33. Olson. Google's DeepMind Has An Idea For Stopping Biased AI (англ.). Forbes. Дата обращения: 26 июля 2019.
  34. Machine Learning Fairness | ML Fairness (англ.). Google Developers. Дата обращения: 26 июля 2019.
  35. AI and bias - IBM Research - US (англ.) (недоступная ссылка). www.research.ibm.com (REPLACE). Дата обращения: 26 июля 2019. Архивировано 17 июля 2019 года.
  36. Knight. Google’s AI chief says forget Elon Musk’s killer robots, and worry about bias in AI systems instead (англ.). MIT Technology Review. Дата обращения: 26 июля 2019.
  37. Davies. Google's Self-Driving Car Caused Its First Crash, Wired (29 февраля 2016). Дата обращения 26 июля 2019.
  38. List of self-driving car fatalities, 2019-06-05, <https://en.wikipedia.org/w/index.php?title=List_of_self-driving_car_fatalities&oldid=900361661>. Проверено 26 июля 2019.
  39. Levin. Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian (англ.), The Guardian (19 March 2018). Дата обращения 26 июля 2019.
  40. Who is responsible when a self-driving car has an accident? (англ.). Futurism. Дата обращения: 26 июля 2019.
  41. Radio. Autonomous Car Crashes: Who - or What - Is to Blame? (англ.). Knowledge@Wharton. Дата обращения: 26 июля 2019.
  42. Delbridge. Driverless Cars Gone Wild (англ.). The Balance. Дата обращения: 29 мая 2019.
  43. Regulations for driverless cars (англ.). GOV.UK. Дата обращения: 26 июля 2019.
  44. Automated Driving: Legislative and Regulatory Action - CyberWiki (недоступная ссылка). cyberlaw.stanford.edu. Дата обращения: 26 июля 2019. Архивировано 26 июля 2019 года.
  45. Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation. www.ncsl.org. Дата обращения: 26 июля 2019.
  46. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  47. Robot Three-Way Portends Autonomous Future, By David Axe wired.com, August 13, 2009.
  48. New Navy-funded Report Warns of War Robots Going «Terminator» Архивировано 28 июля 2009 года., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  49. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  50. On the moral responsibility of military robots — ProQuest
  51. Mitra. We can train AI to identify good and evil, and then use it to teach us morality (англ.). Quartz. Дата обращения: 26 июля 2019.
  52. AI Principles (англ.). Future of Life Institute. Дата обращения: 26 июля 2019.
  53. Zach Musgrave and Bryan W. Roberts. Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic. The Atlantic (14 августа 2015).
  54. Cat Zakrzewski. Musk, Hawking Warn of Artificial Intelligence Weapons. WSJ (27 июля 2015).
  55. GiveWell, Potential risks from advanced artificial intelligence, <http://www.givewell.org/labs/causes/ai-risk>
  56. Anderson. Machine Ethics. Дата обращения: 27 июня 2011.
  57. Machine Ethics (неопр.) / Anderson, Michael; Anderson, Susan Leigh. Cambridge University Press, 2011. — ISBN 978-0-521-11235-2.
  58. Special Issue on Machine Ethics (англ.) // IEEE Intelligent Systems : journal. Vol. 21, no. 4. P. 10—63. ISSN 1541-1672. doi:10.1109/mis.2006.70. Архивировано 26 ноября 2011 года.
  59. Michael; Anderson. Machine Ethics: Creating an Ethical Intelligent Agent (англ.) // AI Magazine : journal. Vol. 28, no. 4. P. 15—26. ISSN 0738-4602.
  60. Robert James M.; Boyles. Philosophical Signposts for Artificial Moral Agent Frameworks (англ.) // Suri : journal. — 2017. — October (vol. 6, no. 2). P. 92—109.
  61. Joanna; Bryson. Of, for, and by the people: the legal lacuna of synthetic persons (англ.) // Artificial Intelligence and Law : journal. — 2017. — September (vol. 25, no. 3). P. 273—291. doi:10.1007/s10506-017-9214-9.
  62. Principles of robotics. UK's EPSRC (сентябрь 2010). Дата обращения: 10 января 2019.
  63. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  64. Santos-Lang. Ethics for Artificial Intelligences.
  65. Science New Navy-funded Report Warns of War Robots Going «Terminator» Архивировано 28 июля 2009 года., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  66. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  67. The Coming Technological Singularity: How to Survive in the Post-Human Era, by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  68. Al-Rodhan. The Moral Code (англ.), Foreign Affairs (12 August 2015). Дата обращения 23 января 2018.
  69. Wallach, Wendell; Allen, Colin. Moral Machines: Teaching Robots Right from Wrong (англ.). — USA: Oxford University Press, 2008. — ISBN 978-0-19-537404-9.
  70. Bostrom. The Ethics of Artificial Intelligence (недоступная ссылка). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Дата обращения: 13 октября 2019. Архивировано 4 марта 2016 года.
  71. Howard. The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard (англ.). MIT Sloan Management Review. Дата обращения: 14 августа 2019.
  72. Muehlhauser, Luke, and Louie Helm. 2012. «Intelligence Explosion and Machine Ethics». In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  73. Bostrom, Nick. 2003. «Ethical Issues in Advanced Artificial Intelligence». In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12-17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  74. Sure, Artificial Intelligence May End Our World, But That Is Not the Main Problem (англ.) // Wired : magazine. — 2014. — 4 December.
  75. Yudkowsky, Eliezer. 2011. «Complex Value Systems in Friendly AI». In Schmidhuber, Thórisson, and Looks 2011, 388—393.
  76. «Partnership on Artificial Intelligence to Benefit People and Society». N.p., n.d. 24 October 2016.
  77. Fiegerman, Seth. «Facebook, Google, Amazon Create Group to Ease AI Concerns». CNNMoney. n.d. 4 December 2016.
  78. CCC Offers Draft 20-Year AI Roadmap; Seeks Comments (англ.). HPCwire (14 мая 2019). Дата обращения: 22 июля 2019.
  79. Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog (англ.). Дата обращения: 22 июля 2019.

Литература

  • McCorduck, Pamela. Machines Who Think (2nd ed.). — Natick, MA: A. K. Peters, Ltd, 2004. — ISBN 1-56881-205-1.
  • Гэри Маркус, Эрнест Дэвис. Искусственный интеллект: Перезагрузка. Как создать машинный разум, которому действительно можно доверять = Rebooting AI: Building Artificial Intelligence We Can Trust. М.: Интеллектуальная Литература, 2021. — 304 с. — ISBN 978-5-907394-93-3.

Ссылки

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.