Совместимость с человеком - Human Compatible
Издание в твердом переплете | |
Автор | Стюарт Дж. Рассел |
---|---|
Страна | Соединенные Штаты |
Язык | английский |
Предмет | Проблема управления AI |
Жанр | Нехудожественная литература |
Издатель | Викинг |
Дата публикации | 8 октября 2019 г., |
Страницы | 352 |
ISBN | 978-0-525-55861-3 |
OCLC | 1083694322 |
Совместимость с людьми: искусственный интеллект и проблема контроля научно-популярная книга ученого-информатика 2019 года. Стюарт Дж. Рассел. Он утверждает, что риск для человечества из продвинутых искусственный интеллект (AI) вызывает серьезную озабоченность, несмотря на неопределенность в отношении будущего прогресса в области AI. Также предлагается подход к Проблема управления AI.
Резюме
Рассел начинает с утверждения, что стандартная модель исследования искусственного интеллекта, в которой основным определением успеха становится все лучше и лучше в достижении жестко определенных человеком целей, является опасным заблуждением. Такие цели могут на самом деле не отражать намерения дизайнеров, например, не принимать во внимание человеческие ценности, не включенные в эти цели. Если бы ИИ, разработанный по стандартной модели, стал сверхразумный, это, вероятно, не будет полностью отражать человеческие ценности и может иметь катастрофические последствия для человечества. Рассел утверждает, что именно из-за того, что сроки разработки человеческого или сверхразумного ИИ весьма неопределенны, исследования по безопасности следует начинать как можно скорее, поскольку также крайне неясно, сколько времени потребуется для завершения таких исследований.
Рассел утверждает, что дальнейшее развитие возможностей ИИ неизбежно из-за экономического давления. Такое давление уже можно увидеть в развитии существующих технологий искусственного интеллекта, таких как беспилотные автомобили и программное обеспечение личного помощника. Более того, ИИ человеческого уровня может стоить многие триллионы долларов. Затем Рассел исследует текущие дебаты вокруг рисков ИИ. Он предлагает опровержения ряда распространенных аргументов, отвергающих риск ИИ, и приписывает большую часть их стойкости трайбализму - исследователи ИИ могут рассматривать опасения, связанные с рисками ИИ, как «атаку» на их поле деятельности. Однако Рассел повторяет, что есть законные причины серьезно относиться к рискам, связанным с ИИ, и что экономическое давление делает продолжение инноваций в ИИ неизбежным.
Затем Рассел предлагает подход к разработке доказательно полезных машин, ориентированных на уважение к людям. В отличие от стандартной модели ИИ, где цель жесткая и определенная, при таком подходе истинная цель ИИ остается неопределенной, а ИИ только приближается к определенности, поскольку он получает больше информации о людях и мире. Эта неопределенность в идеале предотвратила бы катастрофическое недопонимание человеческих предпочтений и поощрила бы сотрудничество и общение с людьми. В заключение Рассел призывает к более жесткому управлению исследованиями и разработками в области ИИ, а также к культурному самоанализу о том, какой объем автономии следует сохранять в мире, где доминирует ИИ.
Три принципа Рассела
Рассел перечисляет три принципа, которыми руководствуются при разработке полезных машин. Он подчеркивает, что эти принципы не предназначены для явного кодирования в машинах; скорее, они предназначены для разработчиков-людей. Принципы следующие:[1]:173
1. Единственная цель машины - максимально реализовать человеческие предпочтения.
2. Машина изначально не уверена в своих предпочтениях.
3. Конечным источником информации о человеческих предпочтениях является человеческое поведение.
«Предпочтения», о которых говорит Рассел, «всеобъемлющи; они охватывают все, что может вас волновать, сколь угодно далеко в будущем».[1]:173 Точно так же "поведение" включает любой выбор между вариантами,[1]:177 и неопределенность такова, что некоторая вероятность, которая может быть очень маленькой, должна быть приписана каждому логически возможному человеческому предпочтению.[1]:201
Рассел исследует обратное обучение с подкреплением, в котором машина выводит функцию вознаграждения из наблюдаемого поведения как возможную основу для механизма изучения человеческих предпочтений.[1]:191–193
Прием
Некоторые рецензенты согласились с аргументами книги. Ян Сэмпл в Хранитель назвал ее «убедительной» и «самой важной книгой по ИИ в этом году».[2] Ричард Уотерс из Financial Times похвалил книгу за «бодрящую интеллектуальную строгость».[3] Киркус поддержал это как «веский довод в пользу планирования того дня, когда машины смогут нас перехитрить».[4]
Те же рецензенты охарактеризовали книгу как «кривую и остроумную»,[2] или "доступный"[4] за счет «лаконичности и сухого юмора».[3] Мэтью Хатсон из Wall Street Journal сказал: «Увлекательная книга мистера Рассела глубокая, искрящаяся сухими остротами».[5] А Библиотечный журнал рецензент назвал его «Правильный гид в нужное время».[6]
Джеймс МакКоннаки из Времена написал: «Это не совсем популярная книга, в которой срочно нужен ИИ. Ее технические части слишком сложны, а философские - слишком легки. Но она увлекательна и значительна».[7]
Напротив, Совместимость с человеком подвергся критике в своей Природа обзор Дэвида Лесли, научного сотрудника по этике Институт Алана Тьюринга; и аналогично в Нью-Йорк Таймс эссе с мнением Мелани Митчелл. Один из спорных вопросов заключался в том, сверхразум возможно. Лесли утверждает, что Рассел «не может убедить нас в том, что мы когда-нибудь увидим появление« второго разумного вида »», и Митчелл сомневается, что машина когда-либо сможет «превзойти универсальность и гибкость человеческого разума» без потери «скорости, точности и программируемости. компьютер". Второе разногласие заключалось в том, будут ли разумные машины естественным образом принимать так называемые моральные ценности «здравого смысла». В мысленном эксперименте Рассела с геоинженерным роботом, который «душит человечество, чтобы нейтрализовать кислотность океанов», Лесли «изо всех сил пытается идентифицировать какой-либо разум». Точно так же Митчелл считает, что интеллектуальный робот, естественно, будет «сдерживаться здравым смыслом, ценностями и социальными суждениями, без которых не может существовать общий интеллект».[8][9]
Книга вошла в лонг-лист 2019 года. Financial Times/ Премия McKinsey.[10]
Смотрите также
- Искусственный интеллект: современный подход
- Центр искусственного интеллекта, совместимого с человеком
- Пропасть: экзистенциальный риск и будущее человечества
- Бойни
- Сверхразум: пути, опасности, стратегии
Рекомендации
- ^ а б c d е Рассел, Стюарт (8 октября 2019 г.). Совместимость с людьми: искусственный интеллект и проблема контроля. США: Викинг. ISBN 978-0-525-55861-3. OCLC 1083694322.
- ^ а б Образец, Ян (24 октября 2019 г.). «Human Compatible», обзор Стюарта Рассела - ИИ и наше будущее ». Хранитель.
- ^ а б Уотерс, Ричард (18 октября 2019 г.). «Совместимость с людьми - сможем ли мы сохранить контроль над суперинтеллектом?». www.ft.com. Получено 23 февраля 2020.
- ^ а б "СОВМЕСТИМЫЕ С ЧЕЛОВЕКОМ | Отзывы Киркуса". Киркус Отзывы. 2019. Получено 23 февраля 2020.
- ^ Хатсон, Мэтью (19 ноября 2019 г.). "'Обзор «Совместимость с людьми» и «Искусственный интеллект»: учись как машина ». Журнал "Уолл Стрит.
- ^ Хан, Джим (2019). «Совместимость с людьми: искусственный интеллект и проблема контроля». Библиотечный журнал. Получено 23 февраля 2020.
- ^ МакКонначи, Джеймс (6 октября 2019 г.). «Human Compatible, обзор Стюарта Рассела - пугающее предупреждение эксперта по искусственному интеллекту». Времена.
- ^ Лесли, Дэвид (2 октября 2019 г.). «Бешеные роботы, несчастные люди: антиутопия ИИ». Природа. 574 (7776): 32–33. Дои:10.1038 / d41586-019-02939-0.
- ^ Митчелл, Мелани (31 октября 2019 г.). «Мы не должны бояться суперинтеллектуального ИИ.'". Нью-Йорк Таймс.
- ^ Хилл, Эндрю (11 августа 2019 г.). «Бизнес-книга года 2019 - длинный список». www.ft.com. Получено 23 февраля 2020.