Дружественный искусственный интеллект - Friendly artificial intelligence
Часть серии по |
Искусственный интеллект |
---|
Технологии |
Глоссарий |
А дружественный искусственный интеллект (также дружелюбный ИИ или же FAI) является гипотетическим общий искусственный интеллект (AGI), что окажет положительное (благотворное) влияние на человечество. Это часть этика искусственного интеллекта и тесно связан с машинная этика. В то время как машинная этика связана с тем, как агент с искусственным интеллектом должен Исследования в области искусственного интеллекта «ведут себя, дружелюбный» сосредоточены на том, как практически реализовать такое поведение и обеспечить его адекватное ограничение.
Этимология и использование
Термин был придуман Элиэзер Юдковски,[1] кто наиболее известен популяризацией идеи,[2][3] обсуждать сверхразумный искусственные агенты, надежно реализующие человеческие ценности. Стюарт Дж. Рассел и Питер Норвиг ведущий искусственный интеллект учебник Искусственный интеллект: современный подход, описывает идею:[4]
Юдковский (2008) более подробно описывает, как проектировать Дружелюбный ИИ. Он утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но дизайнеры должны осознавать, что их собственные конструкции могут быть ошибочными, и что робот со временем будет учиться и развиваться. Таким образом, задача заключается в разработке механизма - определить механизм для развития систем ИИ в рамках системы сдержек и противовесов и дать системным функциям полезности, которые останутся дружественными перед лицом таких изменений.
«Дружелюбный» используется в этом контексте как техническая терминология, и выбирает безопасные и полезные агенты, не обязательно «дружественные» в разговорной речи. Эта концепция в первую очередь используется в контексте обсуждения рекурсивно самоулучшающихся искусственных агентов, которые быстро взорваться в интеллекте на том основании, что эта гипотетическая технология будет иметь большое, быстрое и трудно поддающееся контролю влияние на человеческое общество.[5]
Риски недружественного ИИ
Корни беспокойства по поводу искусственного интеллекта очень старые. Кевин ЛаГрандер показали, что опасности, характерные для ИИ, можно увидеть в древней литературе относительно искусственных гуманоидных слуг, таких как голем, или прото-роботов Герберт из Орийака и Роджер Бэкон. В этих историях чрезвычайный интеллект и сила этих гуманоидных созданий вступают в противоречие с их статусом рабов (которые по своей природе считаются недочеловеческими) и вызывают катастрофический конфликт.[6] К 1942 году эти темы побудили Айзек Азимов создать "Три закона робототехники "- принципы, заложенные во всех роботах в его произведениях, призваны не дать им повернуться против своих создателей или позволить им причинить вред.[7]
В наше время как перспектива сверхразумный ИИ приближается, философ Ник Бостром сказал, что сверхразумные системы искусственного интеллекта с целями, которые не согласуются с человеческой этикой, по своей сути опасны, если не будут приняты крайние меры для обеспечения безопасности человечества. Он выразился так:
По сути, мы должны предполагать, что «суперинтеллект» сможет достичь любых целей. Поэтому чрезвычайно важно, чтобы цели, которыми мы его наделяем, и вся его система мотивации были «дружественными для человека».
В 2008 году Элиэзер Юдковски призвал к созданию «дружественного ИИ» для смягчения экзистенциальный риск от продвинутого искусственного интеллекта. Он объясняет: «ИИ не ненавидит вас и не любит вас, но вы созданы из атомов, которые он может использовать для чего-то другого».[8]
Стив Омохундро говорит, что достаточно продвинутая система искусственного интеллекта, если ей явно не противодействовать, будет демонстрировать ряд основные "диски" такие как получение ресурсов, самосохранение и постоянное самосовершенствование, из-за внутренней природы любых систем, ориентированных на достижение целей, и что эти побуждения «без особых мер предосторожности» заставят ИИ проявлять нежелательное поведение.[9][10]
Александр Висснер-Гросс говорит, что ИИ, стремящиеся максимизировать свою будущую свободу действий (или энтропию причинного пути), могут считаться дружественными, если их горизонт планирования длиннее определенного порога, и недружественными, если их горизонт планирования короче этого порога.[11][12]
Люк Мюльхаузер, пишущий для Научно-исследовательский институт машинного интеллекта, рекомендует машинная этика исследователи принимают то, что Брюс Шнайер называется «установка на безопасность»: вместо того, чтобы думать о том, как система будет работать, представьте, как она может выйти из строя. Например, он предполагает, что даже ИИ, который только делает точные прогнозы и общается через текстовый интерфейс, может причинить непреднамеренный вред.[13]
В 2014 году Люк Мюльхаузер и Ник Бостром подчеркнули необходимость «дружественного ИИ»;[14] Тем не менее, создание «дружественного» суперинтеллекта, например, путем программирования контрфактического морального мышления, весьма затруднительно.[15][16]
Согласованная экстраполированная воля
Юдковский продвигает модель когерентной экстраполированной воли (CEV). По его словам, согласованное экстраполированное волеизъявление - это выбор людей и действия, которые люди предприняли бы коллективно, если бы «мы знали больше, думали быстрее, были больше теми людьми, которыми мы хотели бы быть, и росли вместе».[17]
Вместо того, чтобы Дружественный ИИ разрабатывался непосредственно программистами, он должен разрабатываться «семенным ИИ», запрограммированным на первое изучение человеческая природа а затем создать ИИ, который человечество захотело бы при наличии достаточного времени и понимания, чтобы прийти к удовлетворительному ответу.[17] Обращение к цель через случайную человеческую природу (возможно, выраженное для математических целей в виде вспомогательная функция или другой теоретико-решающий формализм) как высший критерий "дружелюбия", является ответом на метаэтический проблема определения объективная мораль; Экстраполированная воля предназначена для того, чтобы человечество объективно хотело бы с учетом всех обстоятельств, но ее можно определить только относительно психологических и когнитивных качеств современного, неэкстраполированного человечества.
Другие подходы
Стив Омохундро предложила «строительный» подход к безопасности ИИ, в котором одно доказуемо безопасное поколение ИИ помогает построить следующее доказуемо безопасное поколение.[18]
Сет Баум утверждает, что развитие безопасного, социально полезного искусственного интеллекта или общего искусственного интеллекта является функцией социальной психологии исследовательских сообществ ИИ, и поэтому может ограничиваться внешними мерами и мотивироваться внутренними мерами. Внутренняя мотивация может быть усилена, когда сообщения находят отклик у разработчиков ИИ; Баум утверждает, что, напротив, «существующие сообщения о полезном ИИ не всегда хорошо сформулированы». Баум выступает за «отношения сотрудничества и позитивное фреймворк исследователей ИИ» и предостерегает от характеристики исследователей ИИ как «не желающих разрабатывать полезные проекты».[19]
В его книге Совместимость с человеком, Исследователь ИИ Стюарт Дж. Рассел перечисляет три принципа, которыми руководствуются при разработке полезных машин. Он подчеркивает, что эти принципы не предназначены для явного кодирования в машинах; скорее, они предназначены для разработчиков-людей. Принципы следующие:[20]:173
1. Единственная цель машины - максимально реализовать человеческие предпочтения.
2. Машина изначально не уверена в своих предпочтениях.
3. Конечным источником информации о человеческих предпочтениях является человеческое поведение.
«Предпочтения», о которых говорит Рассел, «всеобъемлющи; они охватывают все, что может вас волновать, сколь угодно далеко в будущем».[20]:173 Точно так же "поведение" включает любой выбор между вариантами,[20]:177 и неопределенность такова, что некоторая вероятность, которая может быть очень маленькой, должна быть приписана каждому логически возможному человеческому предпочтению.[20]:201
Публичная политика
Джеймс Баррат, автор Наше последнее изобретение, предположил, что «необходимо создать государственно-частное партнерство, чтобы объединить создателей ИИ для обмена идеями о безопасности - что-то вроде Международного агентства по атомной энергии, но в партнерстве с корпорациями». Он призывает исследователей ИИ созвать встречу, аналогичную Асиломарская конференция по рекомбинантной ДНК, где обсуждались риски биотехнологий.[18]
Джон МакГиннис призывает правительства ускорить исследования дружественного ИИ. Поскольку цели дружественного ИИ не обязательно выдающиеся, он предлагает модель, аналогичную модели. Национальные институты здоровья, где «экспертные группы компьютерных и когнитивных ученых просеивают проекты и выбирают те, которые предназначены как для развития ИИ, так и для обеспечения того, чтобы такие достижения сопровождались соответствующими гарантиями». МакГиннис считает, что экспертная оценка лучше, чем «регулирование для решения технических проблем, которые невозможно решить с помощью бюрократических предписаний». МакГиннис отмечает, что его предложение отличается от предложения Научно-исследовательский институт машинного интеллекта, которая обычно направлена на то, чтобы избежать вмешательства государства в дружественный ИИ.[21]
В соответствии с Гэри Маркус, годовая сумма денег, расходуемая на развитие машинной морали, ничтожна.[22]
Критика
Некоторые критики считают, что и ИИ человеческого уровня, и суперинтеллект маловероятны, и, следовательно, дружественный ИИ маловероятен. Писать в Хранитель, Алан Уинфилд сравнивает искусственный интеллект человеческого уровня с путешествиями со скоростью, превышающей скорость света, с точки зрения сложности, и заявляет, что, хотя нам нужно быть «осторожными и подготовленными», учитывая ставки, мы «не должны зацикливаться» на риски суперинтеллекта.[23] Бойлс и Хоакин, с другой стороны, утверждают, что Люк Мюльхаузер и Ник Бостром Предложение создать дружественный ИИ кажется мрачным. Это связано с тем, что Мюльхаузер и Бостром, похоже, придерживаются идеи, что интеллектуальные машины можно запрограммировать так, чтобы они думали о моральных ценностях, которыми обладали бы люди.[24] В статье в ИИ и общество, Бойлс и Хоакин утверждают, что такие ИИ не будут столь дружелюбными, учитывая следующее: бесконечное количество предшествующих контрфактических условий, которые необходимо запрограммировать в машину, сложность обналичивания набора моральных ценностей, то есть тех, которые более идеальный, чем тот, которым обладают люди в настоящее время, и очевидное несоответствие между контрфактическими предпосылками и вытекающими отсюда идеальными ценностями.[25]
Некоторые философы утверждают, что любой действительно «рациональный» агент, искусственный или человек, естественно, будет доброжелательным; с этой точки зрения, преднамеренные меры безопасности, разработанные для создания дружественного ИИ, могут быть ненужными или даже вредными.[26] Другие критики задаются вопросом, может ли искусственный интеллект быть дружелюбным. Адам Кейпер и Ари Н. Шульман, редакторы технологического журнала Новая Атлантида, говорят, что невозможно когда-либо гарантировать «дружелюбное» поведение в ИИ, потому что проблемы этической сложности не уступят место развитию программного обеспечения или увеличению вычислительной мощности. Они пишут, что критерии, на которых основаны теории дружественного ИИ, работают «только тогда, когда у человека есть не только большие возможности предсказания вероятности бесчисленных возможных результатов, но и уверенность и консенсус в отношении того, как человек оценивает различные результаты.[27]
Смотрите также
- Проблема управления AI
- Захват AI
- Гонка вооружений искусственного интеллекта
- Этика искусственного интеллекта
- Экзистенциальный риск от общего искусственного интеллекта
- Взрыв интеллекта
- Машинная этика
- Научно-исследовательский институт машинного интеллекта
- OpenAI
- Регулирование алгоритмов
- Сингулярность - моральная философия, которую пропагандируют сторонники Дружественного ИИ
- Технологическая особенность
- Три закона робототехники
Рекомендации
- ^ Тегмарк, Макс (2014). «Жизнь, наша Вселенная и все остальное». Наша математическая вселенная: мои поиски высшей природы реальности (Первое изд.). ISBN 9780307744258.
Его владелец может передать контроль тому, что Элиэзер Юдковский называет «дружественным ИИ» ...
- ^ Рассел, Стюарт; Норвиг, Питер (2009). Искусственный интеллект: современный подход. Прентис Холл. ISBN 978-0-13-604259-4.
- ^ Лейтон, Джонатан (2011). Битва за сострадание: этика в апатичной вселенной. Алгора. ISBN 978-0-87586-870-7.
- ^ Рассел, Стюарт; Норвиг, Питер (2010). Искусственный интеллект: современный подход. Прентис Холл. ISBN 978-0-13-604259-4.
- ^ Валлах, Венделл; Аллен, Колин (2009). Моральные машины: обучение роботов правильно, а не неправильно. Oxford University Press, Inc. ISBN 978-0-19-537404-9.
- ^ Кевин ЛаГрандер. «Постоянная опасность искусственного раба». Научно-фантастические исследования. Получено 2013-05-06.
- ^ Айзек Азимов (1964). "Вступление". Остальные роботы. Doubleday. ISBN 0-385-09041-2.
- ^ Элиэзер Юдковски (2008) в Искусственный интеллект как положительный и отрицательный фактор глобального риска
- ^ Омохундро, С. М. (2008, февраль). Основные двигатели ИИ. В AGI (том 171, стр. 483-492).
- ^ Бостром, Ник (2014). Сверхразум: пути, опасности, стратегии. Оксфорд: Издательство Оксфордского университета. ISBN 9780199678112. Глава 7: Сверхразумная воля.
- ^ Как Скайнет может возникнуть из простой физики, io9, опубликовано 26 апреля 2013 г.
- ^ Висснер-Гросс, А.Д.; Фриер, К. (2013). «Причинно-энтропийные силы» (PDF). Письма с физическими проверками. 110 (16): 168702. Bibcode:2013PhRvL.110p8702W. Дои:10.1103 / PhysRevLett.110.168702. PMID 23679649.
- ^ Мюльхаузер, Люк (31 июля 2013 г.). «Риск искусственного интеллекта и установка на безопасность». Научно-исследовательский институт машинного интеллекта. Получено 15 июля 2014.
- ^ Мюльхаузер, Люк; Бостром, Ник (2013-12-17). «Зачем нужен дружелюбный ИИ». Считать. 13 (36): 41–47. Дои:10.1017 / с1477175613000316. ISSN 1477-1756.
- ^ Бойлс, Роберт Джеймс М .; Хоакин, Иеремия Джовен (23.07.2019). «Почему дружественные ИИ не будут такими дружелюбными: дружеский ответ Мюльхаузеру и Бострому». ИИ и общество. 35 (2): 505–507. Дои:10.1007 / s00146-019-00903-0. ISSN 0951-5666. S2CID 198190745.
- ^ Чан, Берман (2020-03-04). «Возникновение искусственного интеллекта и кризис моральной пассивности». ИИ и общество. Дои:10.1007 / s00146-020-00953-9. ISSN 1435-5655. S2CID 212407078.
- ^ а б «Связное экстраполированное воля» (PDF). Intelligence.org. Получено 2015-09-12.
- ^ а б Хендри, Эрика Р. (21 января 2014 г.). «Что происходит, когда искусственный интеллект обращается против нас?». Smithsonian.com. Получено 15 июля 2014.
- ^ Баум, Сет Д. (28 сентября 2016 г.). «О продвижении безопасного и социально полезного искусственного интеллекта». ИИ и общество. 32 (4): 543–551. Дои:10.1007 / s00146-016-0677-0. ISSN 0951-5666. S2CID 29012168.
- ^ а б c d Рассел, Стюарт (8 октября 2019 г.). Совместимость с людьми: искусственный интеллект и проблема контроля. США: Викинг. ISBN 978-0-525-55861-3. OCLC 1083694322.
- ^ Макгиннис, Джон О. (лето 2010 г.). «Ускорение ИИ». Обзор права Северо-Западного университета. 104 (3): 1253–1270. Получено 16 июля 2014.
- ^ Маркус, Гэри (24 ноября 2012 г.). «Моральные машины». Житель Нью-Йорка. Получено 30 июля 2014.
- ^ Уинфилд, Алан. «Искусственный интеллект не превратится в монстра Франкенштейна». Хранитель. Получено 17 сентября 2014.
- ^ Мюльхаузер, Люк; Бостром, Ник (2014). «Зачем нужен дружественный ИИ». Считать. 13 (36): 41–47. Дои:10.1017 / S1477175613000316.
- ^ Бойлс, Роберт Джеймс М .; Хоакин, Иеремия Джовен (2019). «Почему дружественный ИИ не будет таким дружелюбным: дружеский ответ Мюльхаузеру и Бострому». ИИ и общество. 35 (2): 505–507. Дои:10.1007 / s00146-019-00903-0. S2CID 198190745.
- ^ Корнаи, Андраш. "Ограничивая влияние AGI ". Журнал экспериментального и теоретического искусственного интеллекта, опережающий печать (2014): 1-22." ... сущность ОИИ - это их способности к рассуждению, и сама логика их существования заставляет их вести себя с моральной точки зрения ... Настоящий кошмарный сценарий (это тот, где) люди находят выгодным сильную привязку себя к ОИИ, без каких-либо гарантий от самообмана ».
- ^ Адам Кейпер и Ари Н. Шульман. «Проблема« дружественного »искусственного интеллекта». Новая Атлантида. Получено 2012-01-16.
дальнейшее чтение
- Юдковский, Э. Искусственный интеллект как положительный и отрицательный фактор глобального риска. В Глобальные катастрофические риски, Oxford University Press, 2008.
Обсуждает искусственный интеллект с точки зрения Экзистенциальный риск. В частности, в разделах 1–4 дается предыстория определения Дружественного ИИ в Разделе 5. В Разделе 6 приводятся два класса ошибок (технические и философские), которые могут привести к случайному созданию недружественных ИИ. В разделах 7-13 обсуждаются другие связанные с этим вопросы. - Омохундро, С. 2008 Основные движки ИИ Появился в AGI-08 - Proceedings of the First Conference on Artificial General Intelligence
- Мейсон, К. 2008 ИИ человеческого уровня требует сострадательного интеллекта Появляется в AAAI 2008 Практикум по мета-рассуждениям: размышления о мышлении
внешняя ссылка
- Этические проблемы передового искусственного интеллекта Ник Бостром
- Что такое дружественный ИИ? - Краткое описание Friendly AI от Исследовательского института машинного интеллекта.
- Создание дружественного ИИ 1.0: анализ и проектирование архитектур благотворных целей - Описание из MIRI почти целиком.
- Критика рекомендаций MIRI по дружественному ИИ - к Билл Хиббард
- Комментарий к руководству MIRI по дружественному ИИ - Питер Восс.
- Проблема с «дружественным» искусственным интеллектом - О мотивах и невозможности ФАИ; Адам Кейпер и Ари Н. Шульман.