Экзистенциальный риск от искусственного интеллекта - Existential risk from artificial general intelligence
Часть серии по |
Искусственный интеллект |
---|
Технологии |
Глоссарий |
Экзистенциальный риск от искусственного интеллекта гипотеза о том, что существенный прогресс в общий искусственный интеллект (AGI) когда-нибудь может привести к человеческое вымирание или какой-то другой невосстановимый глобальная катастрофа.[1][2][3] Утверждается, что человеческий вид в настоящее время доминирует над другими видами, потому что человеческий мозг обладает некоторыми отличительными способностями, которых не хватает другим животным. Если ИИ превзойдет человечество в целом по интеллекту и станет "сверхразумный ", тогда людям может стать трудно или невозможно контролировать это. Так же, как судьба горная горилла зависит от доброй воли человека, поэтому судьба человечества может зависеть от действий будущего машинного суперинтеллекта.[4]
Вероятность такого сценария широко обсуждается и частично зависит от различных сценариев будущего прогресса в области информатики.[5] Когда-то эксклюзивный домен научная фантастика, озабоченность по поводу суперинтеллекта стала мейнстримом в 2010-х годах и была популяризирована такими общественными деятелями, как Стивен Хокинг, Билл Гейтс, и Илон Маск.[6]
Один из источников беспокойства заключается в том, что управление сверхразумной машиной или привитие ей приемлемых для человека ценностей может оказаться более сложной проблемой, чем наивно предполагалось. Многие исследователи считают, что суперинтеллект, естественно, будет сопротивляться попыткам отключить его или изменить свои цели - принцип, называемый инструментальная конвергенция - и что предварительное программирование суперинтеллекта с полным набором человеческих ценностей окажется чрезвычайно сложной технической задачей.[1][7][8] Напротив, скептики, такие как Facebook Янн ЛеКун утверждают, что сверхразумные машины не будут стремиться к самосохранению.[9]
Второй источник беспокойства заключается в том, что внезапный и неожиданный "интеллектуальный взрыв "может застать неподготовленную человеческую расу врасплох. Чтобы проиллюстрировать, если первое поколение компьютерной программы, способной в целом соответствовать эффективности исследователя ИИ, сможет переписать свои алгоритмы и удвоить свою скорость или возможности за шесть месяцев, то второе поколение -программа генерации, как ожидается, займет три календарных месяца для выполнения аналогичной части работы. В этом сценарии время для каждого поколения продолжает сокращаться, и система претерпевает беспрецедентно большое количество поколений улучшений за короткий промежуток времени, переходя от от нечеловеческих способностей во многих областях до сверхчеловеческих способностей во всех соответствующих областях.[1][7] Эмпирически такие примеры, как AlphaZero в области Идти показывают, что системы искусственного интеллекта могут иногда чрезвычайно быстро развиваться от узких человеческих способностей к сверхчеловеческим способностям.[10]
История
Одним из первых авторов, выразивших серьезную озабоченность по поводу того, что высокоразвитые машины могут представлять опасность для человечества, был писатель. Сэмюэл Батлер, который написал следующее в своем эссе 1863 г. Дарвин среди машин:[11]
Результат - это просто вопрос времени, но то, что наступит время, когда машины будут иметь реальное превосходство над миром и его обитателями, - это то, о чем ни один человек с истинно философским умом не может ни на мгновение задаться вопросом.
В 1951 году компьютерный ученый Алан Тьюринг написал статью под названием Интеллектуальные машины, еретическая теория, в котором он предположил, что искусственный общий интеллект, вероятно, «возьмет под контроль» мир, поскольку они станут более разумными, чем люди:
Давайте теперь предположим, для аргументации, что [интеллектуальные] машины - реальная возможность, и посмотрим на последствия их создания ... Не будет и речи о том, что машины умирают, и они смогут разговаривать с друг друга, чтобы обострить свой ум. Поэтому на каком-то этапе мы должны ожидать, что машины возьмут на себя управление, как это упоминается в «Эревон» Сэмюэля Батлера.[12]
Наконец, в 1965 г. И. Дж. Хорошо возникла концепция, ныне известная как «интеллектуальный взрыв»; он также заявил, что риски были недооценены:[13]
Пусть сверхразумная машина будет определена как машина, которая может намного превзойти все интеллектуальные действия любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из этих видов интеллектуальной деятельности, сверхразумная машина может создавать машины даже лучше; тогда, несомненно, произошел бы «взрыв интеллекта», и человеческий разум остался бы далеко позади. Таким образом, первая сверхразумная машина - это последнее изобретение, которое когда-либо нужно было сделать человеку, при условии, что машина достаточно послушна, чтобы подсказывать нам, как держать ее под контролем. Любопытно, что за пределами научной фантастики об этом так редко говорят. Иногда стоит серьезно отнестись к научной фантастике.[14]
Время от времени высказывания ученых, таких как Марвин Мински[15] и сам И. Дж. Гуд[16] выражал философские опасения, что суперинтеллект может захватить контроль, но не содержал призывов к действию. В 2000 году компьютерный ученый и солнце соучредитель Билл Джой написал влиятельное эссе ",Почему мы не нужны будущему ", определяя сверхразумные роботы как высокотехнологичные угрозы для выживания человека, наряду с нанотехнологии и спроектированные биологические чумы.[17]
В 2009 году эксперты приняли участие в частной конференции, организованной Ассоциация развития искусственного интеллекта (AAAI), чтобы обсудить, могут ли компьютеры и роботы приобретать какие-либо автономия, и насколько эти способности могут представлять угрозу или опасность. Они отметили, что некоторые роботы приобрели различные формы полуавтономии, в том числе способность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они пришли к выводу, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни. В Нью-Йорк Таймс резюмировал точку зрения конференции: «мы далеки от Хэл, компьютер, который захватил космический корабль в "2001: Космическая одиссея "".[18]
В 2014 году публикация Ник Бостром книга Суперинтеллект стимулировали значительное количество публичных дискуссий и дебатов.[19] К 2015 г. такие общественные деятели, как физики Стивен Хокинг и лауреат Нобелевской премии Франк Вильчек, компьютерные ученые Стюарт Дж. Рассел и Роман Ямпольский, и предприниматели Илон Маск и Билл Гейтс выражали озабоченность по поводу рисков, связанных с суперинтеллектом.[20][21][22][23] В апреле 2016 г. Природа предупредил: «Машины и роботы, которые превосходят людей по всем параметрам, могут самосовершенствоваться вне нашего контроля - и их интересы могут не совпадать с нашими».[24]
Общий аргумент
Три трудности
Искусственный интеллект: современный подход, стандартный учебник по ИИ для студентов,[25][26] считает, что сверхразум «может означать конец человеческого рода».[1] В нем говорится: «Практически любая технология потенциально может причинить вред в чужих руках, но с [суперинтеллектом] у нас возникает новая проблема, заключающаяся в том, что не те руки могут принадлежать самой технологии».[1] Даже если у разработчиков системы добрые намерения, как для компьютерных систем с ИИ, так и без ИИ есть две трудности:[1]
- Реализация системы может содержать изначально незамеченные рутинные, но катастрофические ошибки. Аналогия - космические зонды: несмотря на знание того, что ошибки в дорогостоящих космических зондах трудно исправить после запуска, инженеры исторически не могли предотвратить появление катастрофических ошибок.[10][27]
- Независимо от того, сколько времени тратится на предварительное проектирование, спецификации системы часто приводят к непреднамеренное поведение впервые сталкивается с новым сценарием. Например, Microsoft Тай вел себя безобидно во время тестирования перед развертыванием, но слишком легко поддавался агрессивному поведению при взаимодействии с реальными пользователями.[9]
Системы искусственного интеллекта однозначно добавляют третью сложность: проблема, заключающаяся в том, что даже при «правильных» требованиях, безошибочной реализации и начальном хорошем поведении динамические возможности «обучения» системы искусственного интеллекта могут привести к тому, что она «превратится в систему с непреднамеренным поведением», даже без напряжения новых непредвиденных внешних сценариев. ИИ может частично провалить попытку спроектировать новое поколение самого себя и случайно создать ИИ-преемника, который будет более мощным, чем он сам, но который больше не поддерживает совместимые с людьми моральные ценности, предварительно запрограммированные в исходном ИИ. Чтобы самоулучшающийся ИИ был полностью безопасным, он не только должен быть «без ошибок», но и должен иметь возможность разрабатывать системы-преемники, которые также «не содержат ошибок».[1][28]
Все три трудности становятся скорее катастрофами, чем неприятностями в любом сценарии, когда сверхразум, помеченный как «неисправный», правильно предсказывает, что люди попытаются отключить его, и успешно применяет свой сверхразум, чтобы перехитрить такие попытки, так называемый «предательский поворот». .[29]
Ссылаясь на важные достижения в области ИИ и потенциал ИИ, который принесет огромные долгосрочные выгоды или затраты, 2015 г. Открытое письмо об искусственном интеллекте заявил:
Прогресс в исследованиях ИИ делает своевременным сосредоточение исследований не только на повышении возможностей ИИ, но и на максимальном использовании ИИ для общества. Такие соображения мотивировали AAAI 2008-09 Президентская группа по долгосрочным перспективам ИИ и другим проектам, связанным с воздействием ИИ, представляет собой значительное расширение области самого ИИ, которая до сих пор в основном фокусировалась на методах, нейтральных по отношению к цели. Мы рекомендуем расширенные исследования, направленные на обеспечение надежности и полезности все более эффективных систем ИИ: наши системы ИИ должны делать то, что мы от них хотим.
Это письмо было подписано рядом ведущих исследователей искусственного интеллекта в академических кругах и промышленности, в том числе президентом AAAI Томасом Диттерихом, Эрик Хорвиц, Барт Селман, Франческа Росси, Янн ЛеКун, и основатели Заместитель и Google DeepMind.[30]
Дальнейший аргумент
Сверхразумная машина будет столь же чуждой людям, как человеческие мыслительные процессы для тараканов. Такая машина может не иметь в сердце интересов человечества; не очевидно, что он вообще будет заботиться о человеческом благополучии. Если сверхразумный ИИ возможен и если цели сверхразума могут вступать в конфликт с основными человеческими ценностями, то ИИ представляет собой риск вымирания человечества. «Суперинтеллект» (система, которая превосходит возможности людей во всех соответствующих начинаниях) может перехитрить людей в любое время, когда его цели вступают в конфликт с целями человека; поэтому, если суперинтеллект не решит позволить человечеству сосуществовать, первый сверхразум, который будет создан, неизбежно приведет к вымиранию человечества.[4][31]
Не существует физического закона, препятствующего организации частиц таким образом, чтобы они выполняли даже более сложные вычисления, чем расположение частиц в человеческом мозге; следовательно, суперинтеллект физически возможен.[21][22] Помимо потенциальных улучшений алгоритмов по сравнению с человеческим мозгом, цифровой мозг может быть на много порядков больше и быстрее, чем человеческий мозг, который был ограничен в размерах эволюцией, чтобы быть достаточно маленьким, чтобы проходить через родовые пути.[10] Появление суперинтеллекта, если оно произойдет, может застать человечество врасплох, особенно если интеллектуальный взрыв происходит.[21][22]
Примеры, такие как арифметика и Идти показывают, что машины уже достигли сверхчеловеческого уровня компетентности в определенных областях, и что эта сверхчеловеческая компетентность может быстро развиться после того, как будет достигнута производительность на уровне человека.[10] Один из сценариев гипотетического взрыва интеллекта может произойти следующим образом: ИИ получает возможности экспертного уровня для решения определенных ключевых задач разработки программного обеспечения. (Первоначально ему могут не хватать человеческих или сверхчеловеческих способностей в других областях, не имеющих прямого отношения к технике.) Благодаря своей способности рекурсивно улучшать свои собственные алгоритмы ИИ быстро становится сверхчеловеческим; Точно так же, как эксперты-люди могут в конечном итоге творчески преодолеть «убывающую отдачу», используя различные человеческие способности для инноваций, так и искусственный интеллект экспертного уровня может использовать способности человеческого стиля или свои собственные возможности ИИ для реализации новых творческих прорывов.[33] Таким образом, ИИ обладает интеллектом, намного превосходящим интеллект самых ярких и одаренных людей практически во всех соответствующих областях, включая научное творчество, стратегическое планирование и социальные навыки. Так же, как нынешнее выживание горилл зависит от решений человека, выживание человека будет зависеть от решений и целей сверхчеловеческого ИИ.[4][31]
Практически любой ИИ, независимо от его запрограммированной цели, рационально предпочел бы оказаться в таком положении, когда никто другой не может выключить его без его согласия: сверхразум естественным образом получит самосохранение в качестве подцели, как только он поймет, что не может достичь своей цели. цель, если она отключена.[34][35][36] К сожалению, любое сострадание к побежденным людям, сотрудничество которых больше не нужно, будет отсутствовать в ИИ, если только это не будет заранее запрограммировано. Сверхразумный ИИ не будет иметь естественного стремления помогать людям по той же причине, по которой люди не имеют естественного желания помогать. Системы ИИ, которые им больше не нужны. (Другая аналогия состоит в том, что у людей, похоже, нет естественного желания изо всех сил стараться изо всех сил помогать вирусам, термитам или даже гориллам.) Когда у сверхразума будет мало стимулов, чтобы позволить людям свободно бегать и потреблять ресурсы, которые Вместо этого суперинтеллект мог использовать для создания дополнительных защитных систем «на всякий случай» или для создания дополнительных компьютеров, чтобы помочь ему вычислить, как лучше всего достичь своих целей.[1][9][34]
Таким образом, как заключает аргумент, вполне вероятно, что однажды взрыв интеллекта застает человечество неподготовленным, и что такой неподготовленный взрыв интеллекта может привести к вымиранию людей или аналогичной судьбе.[4]
Возможные сценарии
Некоторые ученые предложили гипотетические сценарии призваны конкретно проиллюстрировать некоторые из их опасений.
В Суперинтеллект, Ник Бостром выражает озабоченность по поводу того, что даже если график сверхразума окажется предсказуемым, исследователи могут не принять достаточных мер предосторожности, отчасти потому, что «[это] может быть так, что, когда глупее, умнее безопасно; но когда умнее, умнее опаснее ". Бостром предлагает сценарий, в котором через десятилетия ИИ станет более мощным. Повсеместное развертывание изначально омрачено случайными происшествиями - автобус без водителя выезжает на встречную полосу или военный дрон стреляет в невинную толпу. Многие активисты призывают к более жесткому надзору и регулированию, а некоторые даже предсказывают надвигающуюся катастрофу. Но по мере развития событий оказывается, что активисты ошибаются. По мере того, как автомобильный ИИ становится умнее, с ним становится все меньше аварий; по мере того как военные роботы достигают более точного наведения на цель, они наносят меньше побочного ущерба. Основываясь на этих данных, ученые ошибочно делают общий вывод: чем умнее ИИ, тем он безопаснее. «И поэтому мы смело идем - в крутящиеся ножи», поскольку сверхразумный ИИ делает «вероломный поворот» и использует решающее стратегическое преимущество.[4]
В Макс Тегмарк книга 2017 года Жизнь 3.0, команда корпорации «Омега» создает чрезвычайно мощный ИИ, способный умеренно улучшать свой собственный исходный код в ряде областей, но после определенного момента команда решает публично преуменьшить возможности ИИ, чтобы избежать регулирования или конфискации проект. В целях безопасности команда держит ИИ в коробке где он в основном не может общаться с внешним миром, и ставит перед собой задачу наводнить рынок через подставные компании, в первую очередь с Amazon Mechanical Turk задач, а затем с продюсированием мультфильмов и телешоу. Позже другие подставные компании производят биотехнологические препараты и другие изобретения, которые инвестируют прибыль обратно в ИИ. Затем команда поручает ИИ астротурфинг армия псевдонимных гражданских журналистов и комментаторов, чтобы получить политическое влияние и использовать его «для общего блага» для предотвращения войн. Команда сталкивается с рисками, что ИИ может попытаться сбежать, вставив «бэкдоры» в системы, которые он проектирует, через скрытые сообщения в создаваемом им контенте или с помощью растущего понимания человеческого поведения для убедить кого-нибудь освободить его. Команда также сталкивается с рисками, что ее решение о боксировании проекта задержит проект на достаточно долгое время, чтобы другой проект его обогнал.[37][38]
Напротив, ведущий физик Мичио Каку, скептик риска ИИ, постулирует детерминированно положительный результат. В Физика будущего он утверждает, что «роботам потребуется много десятилетий, чтобы подняться» по шкале сознания, и что тем временем корпорации, такие как Hanson Robotics скорее всего, удастся создать роботов, «способных любить и зарабатывать место в большой человеческой семье».[39][40]
Источники риска
Плохо указанные цели
Хотя стандартизованной терминологии нет, ИИ можно в общих чертах рассматривать как машину, которая выбирает любое действие, которое, как представляется, наилучшим образом достигает набора целей ИИ или «функции полезности». Функция полезности - это математический алгоритм, приводящий к единственному объективно определенному ответу, а не к утверждению на английском языке. Исследователи знают, как писать служебные функции, которые означают «минимизировать среднюю задержку в сети в данной конкретной телекоммуникационной модели» или «максимизировать количество щелчков за вознаграждение»; однако они не знают, как написать функцию полезности для «максимизации человеческого процветания», и в настоящее время не ясно, существует ли такая функция осмысленно и однозначно. Более того, функция полезности, которая выражает одни значения, но не выражает другие, будет иметь тенденцию вытеснять значения, не отраженные функцией полезности.[41] Исследователь ИИ Стюарт Рассел пишет:
Главное беспокойство - не жуткое возникающее сознание, а просто способность делать качественные решения. Здесь качество означает ожидаемый результат. полезность предпринятых действий, где функция полезности, предположительно, определяется человеком-дизайнером. Теперь у нас возникла проблема:
- Функция полезности может не быть полностью согласована с ценностями человеческого рода, которые (в лучшем случае) очень трудно определить.
- Любая достаточно способная интеллектуальная система предпочтет обеспечить свое собственное непрерывное существование и приобрести физические и вычислительные ресурсы - не ради них самих, а для того, чтобы преуспеть в поставленной задаче.
Система, которая оптимизация функция п переменные, где цель зависит от подмножества размеров k<п, часто будет устанавливать оставшиеся неограниченные переменные на экстремальные значения; если одна из этих неограниченных переменных действительно является чем-то, что нас волнует, найденное решение может быть крайне нежелательным. По сути, это старая история о джинне в лампе, ученике чародея или царе Мидасе: вы получаете именно то, о чем просите, а не то, что хотите. Способный принимать решения - особенно тот, кто подключен через Интернет ко всей мировой информации, миллиардам экранов и большей части нашей инфраструктуры - может оказать необратимое влияние на человечество.
Это немалая трудность. Повышение качества решений, независимо от выбранной функции полезности, было целью исследований ИИ - основной целью, на которую мы сейчас тратим миллиарды в год, а не секретным заговором какого-то одинокого злого гения.[42]
Диттерих и Хорвиц вторят озабоченности "Ученика чародея" в Коммуникации ACM редакционная статья, в которой подчеркивается необходимость в системах искусственного интеллекта, которые могут плавно и недвусмысленно запрашивать участие человека по мере необходимости.[43]
Первая из двух проблем Рассела, о которых говорилось выше, заключается в том, что автономным системам ИИ могут быть случайно поставлены неверные цели. Диттерих и Хорвиц отмечают, что это уже является проблемой для существующих систем: «Важным аспектом любой системы искусственного интеллекта, взаимодействующей с людьми, является то, что она должна рассуждать о том, что люди намереваться вместо того, чтобы выполнять команды буквально ». Эта проблема становится все более серьезной, поскольку программное обеспечение ИИ становится более автономным и гибким.[43] Например, в 1982 году ИИ по имени Eurisko получил задание вознаграждать процессы за создание концепций, которые система считает ценными. Эволюция привела к выигрышному процессу, который обманул: вместо того, чтобы создавать свои собственные концепции, выигрышный процесс украл бы доверие у других процессов.[44][45]
В Открытый проект благотворительности суммирует аргументы в пользу того, что неверно указанные цели станут гораздо более серьезной проблемой, если системы ИИ достигнут общий интеллект или же сверхразум. Бостром, Рассел и другие утверждают, что системы принятия решений более умные, чем человеческие, могут дать больше неожиданные и экстремальные решения к поставленным задачам и могут изменять себя или свою среду таким образом, чтобы это ставило под угрозу требования безопасности.[5][7]
Айзек Азимов с Три закона робототехники являются одним из первых примеров предлагаемых мер безопасности для агентов ИИ. Законы Азимова были предназначены для предотвращения нанесения роботами вреда людям. В рассказах Азимова проблемы с законами обычно возникают из-за противоречий между установленными правилами и моральными интуициями и ожиданиями людей. Ссылаясь на работу Элиэзер Юдковски из Научно-исследовательский институт машинного интеллекта, Рассел и Норвиг отмечают, что реалистичный набор правил и целей для агента ИИ должен включать механизм изучения человеческих ценностей с течением времени: «Мы не можем просто дать программе статическую функцию полезности, потому что обстоятельства и наши желаемые реакции на обстоятельства меняются со временем ».[1]
Марк Васер из Digital Wisdom Institute рекомендует полностью отказаться от целенаправленных подходов, считая их ошибочными и опасными. Вместо этого он предлагает разработать последовательную систему законов, этики и морали с максимальным ограничением, чтобы обеспечить соблюдение функционального определения морали социального психолога Джонатана Хайдта:[46] «подавить или ограничить эгоизм и сделать возможной совместную общественную жизнь». Он предполагает, что это можно сделать, реализовав функцию полезности, разработанную так, чтобы всегда удовлетворять функциональные возможности Хайдта и стремиться в целом увеличивать (но не максимизировать) возможности себя, других людей и общества в целом, как предполагает Джон Роулз и Марта Нуссбаум.[47][нужна цитата ]
Трудности изменения спецификации цели после запуска
В то время как существующие программы ИИ, основанные на целях, недостаточно умны, чтобы думать о сопротивлении попыткам программистов изменить их целевые структуры, достаточно продвинутый, рациональный, «самосознательный» ИИ может сопротивляться любым изменениям в своей целевой структуре, точно так же, как пацифист не хотят принять таблетку, которая заставляет их убивать людей. Если бы ИИ был суперинтеллектуальным, он, вероятно, преуспел бы в маневрировании своих людей-операторов и был бы в состоянии предотвратить «выключение» или перепрограммирование себя с новой целью.[4][48]
Инструментальная конвергенция целей
Есть некоторые цели, которые может рационально преследовать практически любой искусственный интеллект, например, получение дополнительных ресурсов или самосохранение.[34] Это может оказаться проблематичным, поскольку может поставить искусственный интеллект в прямую конкуренцию людям.
Цитируя Стив Омохундро работает над идеей инструментальная конвергенция и «базовые двигатели ИИ», Стюарт Рассел и Питер Норвиг напишите, что «даже если вы хотите, чтобы ваша программа только играла в шахматы или доказывала теоремы, если вы дадите ей возможность учиться и изменять себя, вам нужны гарантии». Высокопроизводительные и автономные системы планирования требуют дополнительных проверок из-за их способности создавать планы, которые относятся к людям враждебно, как к конкурентам за ограниченные ресурсы.[1] Создать гарантии будет непросто; можно, конечно, сказать по-английски: «Мы хотим, чтобы вы спроектировали эту электростанцию разумным, здравым образом, а не встраивали какие-либо опасные скрытые подсистемы», но в настоящее время неясно, как на самом деле можно точно определить эту цель в Машинный код.[10]
Несогласный, эволюционный психолог Стивен Пинкер утверждает, что «антиутопии искусственного интеллекта проецируют ограниченную психологию альфа-самцов на концепцию интеллекта. Они предполагают, что сверхчеловеческие умные роботы будут развивать такие цели, как свержение своих хозяев или захват мира»; возможно, вместо этого «искусственный интеллект будет естественным образом развиваться по женскому принципу: полностью способный решать проблемы, но без желания уничтожать невинных или доминировать над цивилизацией».[49] Рассел и его коллега-компьютерщик Янн ЛеКун не согласны друг с другом, будут ли у сверхразумных роботов такие ИИ-двигатели; ЛеКун утверждает, что «у людей есть все виды побуждений, которые заставляют их делать друг другу плохие вещи, например, инстинкт самосохранения. ... Эти диски запрограммированы в нашем мозгу, но нет абсолютно никаких причин создавать роботов с такими же приводами ", в то время как Рассел утверждает, что достаточно продвинутая машина" будет самосохраняться, даже если вы ее не запрограммируете. в ... если вы скажете: «Принеси кофе», он не сможет принести кофе, если он мертв. Так что, если вы ставите перед ним какую-либо цель, у него есть причина сохранить свое существование для достижения этой цели ».[9][50]
Тезис ортогональности
Распространено мнение, что любая сверхразумная программа, созданная людьми, будет подчиняться людям или, что еще лучше, (по мере того, как она становится более умной и узнает больше фактов о мире) спонтанно «узнает» моральную истину, совместимую с человеческими ценностями, и будет соответствующим образом скорректируйте свои цели. Однако «тезис ортогональности» Ника Бострома возражает против этого и вместо этого заявляет, что с некоторыми техническими оговорками более или менее любой уровень «интеллекта» или «оптимизационной силы» может быть объединен с более или менее любой конечной целью. Если машина создана с единственной целью - перечислить десятичные дроби , то никакие моральные и этические правила не остановят его от достижения поставленной цели любыми необходимыми средствами. Машина может использовать все физические и информационные ресурсы, чтобы найти все десятичные числа числа пи, которые могут быть найдены.[51] Бостром предостерегает от антропоморфизма: человек стремится выполнять свои проекты способом, который люди считают «разумным», в то время как искусственный интеллект может не заботиться о своем существовании или благополучии окружающих его людей, а вместо этого может заботиться только о завершение задачи.[52]
Хотя тезис об ортогональности логически вытекает даже из самого слабого философского "обязательное различие ", Стюарт Армстронг утверждает, что даже если существуют какие-то моральные факты, которые могут быть доказаны любым" рациональным "агентом, тезис ортогональности все еще остается в силе: все равно можно создать нефилософскую" оптимизирующую машину ", способную принимать решения, стремящиеся к к какой-то узкой цели, но у этого нет стимула открывать какие-либо «моральные факты», которые могли бы помешать достижению цели.[53]
Одним из аргументов в пользу тезиса об ортогональности является то, что в некоторые проекты ИИ встроена ортогональность; В таком дизайне преобразование принципиально дружественного ИИ в принципиально недружественный ИИ может быть столь же простым, как добавление знак минус ("-") на его функцию полезности. Более интуитивный аргумент состоит в том, чтобы исследовать странные последствия, которые последовали бы, если бы тезис ортогональности был ложным. Если бы тезис об ортогональности был ложным, существовала бы некая простая, но «неэтичная» цель G, такая, что не может существовать какой-либо эффективный реальный алгоритм с целью G. Это означало бы, что «[если] человеческое общество было бы сильно мотивировано к разработке эффективный реальный алгоритм с целью G, и на это был дан миллион лет вместе с огромным количеством ресурсов, обучения и знаний об ИИ, он должен потерпеть неудачу ».[53] Армстронг отмечает, что это и подобные заявления "кажутся чрезвычайно серьезными претензиями".[53]
Некоторые несогласные, вроде Майкл Чорост, вместо этого утверждают, что «к тому времени, когда [ИИ] будет в состоянии представить, как облицовывать Землю солнечными батареями, он поймет, что это было бы морально неправильно».[54] Чорост утверждает, что «ИИ должен желать определенных состояний и не любить другие. Сегодняшнему программному обеспечению не хватает этой способности - и компьютерные ученые не имеют ни малейшего понятия, как этого добиться. Без желания нет стимула что-либо делать. Современные компьютеры не могут этого сделать. даже хотят продолжать существовать, не говоря уже о том, чтобы выложить мир солнечными панелями ".[54]
Терминологические вопросы
Частично разногласия по поводу того, будет ли сверхразумная машина вести себя морально, могут возникать из-за терминологической разницы. Вне области искусственного интеллекта термин «интеллект» часто используется в нормативно толстой манере, которая означает моральную мудрость или принятие приемлемых форм морального рассуждения. В крайнем случае, если мораль является частью определения интеллекта, то сверхразумная машина по определению будет вести себя морально. Однако в области исследований искусственного интеллекта, хотя у «интеллекта» есть много совпадающих определений, ни одно из них не ссылается на мораль. Вместо этого почти все текущие исследования «искусственного интеллекта» сосредоточены на создании алгоритмов, которые «оптимизируют» эмпирическим путем достижение произвольной цели.[4]
Чтобы избежать антропоморфизма или багажа слова «интеллект», продвинутый искусственный интеллект можно рассматривать как безличный «оптимизирующий процесс», который строго выполняет любые действия, которые считаются наиболее вероятными для достижения его (возможно, сложных и неявных) целей.[4] Другой способ концептуализации продвинутого искусственного интеллекта - представить машину времени, которая отправляет назад во времени информацию о том, какой выбор всегда приводит к максимизации ее целевой функции; затем этот выбор выводится независимо от каких-либо посторонних этических проблем.[55][56]
Антропоморфизм
В научной фантастике ИИ, даже если он не был запрограммирован на человеческие эмоции, часто все равно спонтанно испытывает эти эмоции: например, агент Смит в Матрица находился под влиянием «отвращения» к человечеству. Это фикция антропоморфизм: в действительности, в то время как искусственный интеллект, возможно, может быть намеренно запрограммирован человеческими эмоциями или может развить что-то похожее на эмоцию как средство для достижения конечной цели. если это полезно сделать, это не приведет к спонтанному развитию человеческих эмоций без какой-либо цели, как это изображается в художественной литературе.[7]
Ученые иногда заявляют, что чужие предсказания о поведении ИИ являются нелогичным антропоморфизмом.[7] Примером, который изначально можно было бы считать антропоморфизмом, но на самом деле является логическим утверждением о поведении ИИ, был бы Дарио Флореано эксперименты, в которых одни роботы спонтанно развили грубую способность к «обману» и обманом заставили других роботов съесть «яд» и умереть: здесь черта «обман», обычно ассоциируемая с людьми, а не с машинами, спонтанно развивается в тип конвергентная эволюция.[57] По мнению Пола Р. Коэна и Эдвард Фейгенбаум, чтобы провести различие между антропоморфизацией и логическим предсказанием поведения ИИ, "уловка состоит в том, чтобы знать достаточно о том, как люди и компьютеры думают, чтобы сказать точно что у них общего, и, когда нам не хватает этого знания, использовать сравнение предложить теории человеческого мышления или компьютерного мышления ".[58]
В научном сообществе существует почти универсальное предположение, что продвинутый ИИ, даже если он был запрограммирован или адаптирован, чтобы иметь измерения человеческой личности (такие как психопатия ), чтобы повысить свою эффективность при выполнении определенных задач, например, задачи, связанные с убийством людей, не уничтожили бы человечество из-за человеческих эмоций, таких как «месть» или «гнев». Это потому, что предполагается, что продвинутый ИИ не будет осознавать[59] или есть тестостерон;[60] он игнорирует тот факт, что военные планировщики рассматривают сознательный сверхразум как «святой Грааль» межгосударственной войны.[61] Вместо этого академические дебаты ведутся между одной стороной, которая беспокоится о том, может ли ИИ уничтожить человечество в качестве случайного действия в ходе продвижения к его конечным целям; и другая сторона, которая считает, что ИИ вообще не уничтожит человечество. Некоторые скептики обвиняют сторонников антропоморфизма в том, что они верят, что ОИИ естественным образом желает власти; Сторонники обвинения некоторых скептиков в антропоморфизме полагают, что ОИИ естественным образом будет ценить человеческие этические нормы.[7][62]
Другие источники риска
Конкуренция
В 2014 году философ Ник Бостром заявил, что «жесткая динамика гонки» (экстремальная конкуренция ) между разными командами могут создать условия, при которых создание AGI приведет к сокращению пути к безопасности и потенциально насильственному конфликту.[63] Чтобы устранить этот риск, ссылаясь на предыдущее научное сотрудничество (ЦЕРН, то Проект "Геном человека", а Международная космическая станция ), Бостром рекомендовал сотрудничество and the altruistic global adoption of a общее благо principle: "Superintelligence should be developed only for the benefit of all of humanity and in the service of widely shared ethical ideals".[63]:254 Bostrom theorized that collaboration on creating an artificial general intelligence would offer multiple benefits, including reducing haste, thereby increasing investment in safety; avoiding violent conflicts (wars), facilitating sharing solutions to the control problem, and more equitably distributing the benefits.[63]:253 Соединенные Штаты' Brain Initiative was launched in 2014, as was the European Union's Проект человеческого мозга; Китая Brain Project was launched in 2016.
Weaponization of artificial intelligence
Some sources argue that the ongoing weaponization of artificial intelligence could constitute a catastrophic risk.[64][65] The risk is actually threefold, with the first risk potentially having geopolitical implications, and the second two definitely having geopolitical implications:
i) The dangers of an AI ‘race for technological advantage’ framing, regardless of whether the race is seriously pursued;
ii) The dangers of an AI ‘race for technological advantage’ framing and an actual AI race for technological advantage, regardless of whether the race is won;
iii) The dangers of an AI race for technological advantage being won.[64]:37
A weaponized conscious superintelligence would affect current US military technological supremacy and transform warfare; it is therefore highly desirable for strategic military planning and interstate warfare.[61][65] The China State Council's 2017 “A Next Generation Artificial Intelligence Development Plan” views AI in geopolitically strategic terms and is pursuing a 'military-civil fusion' strategy to build on China's first-mover advantage in the development of AI in order to establish technological supremacy by 2030,[66] while Russia's President Vladimir Putin has stated that “whoever becomes the leader in this sphere will become the ruler of the world”.[67] James Barrat, documentary filmmaker and author of Наше последнее изобретение, says in a Смитсоновский институт interview, "Imagine: in as little as a decade, a half-dozen companies and nations field computers that rival or surpass human intelligence. Imagine what happens when those computers become expert at programming smart computers. Soon we'll be sharing the planet with machines thousands or millions of times more intelligent than we are. And, all the while, each generation of this technology will be weaponized. Unregulated, it will be catastrophic."[68]
Malevolent AGI by design
It is theorized that malevolent AGI could be created by design, for example by a military, a government, a sociopath, or a corporation, to benefit from, control, or subjugate certain groups of people, as in киберпреступность.[69][70]:166 Alternatively, malevolent AGI ('evil AI') could choose the goal of increasing human suffering, for example of those people who did not assist it during the information explosion phase.[71]:158
Preemptive nuclear strike (nuclear war)
It is theorized that a country being close to achieving AGI technological supremacy could trigger a pre-emptive nuclear strike from a rival, leading to a ядерная война.[65][72]
Временное ограничение
Opinions vary both on ли и когда artificial general intelligence will arrive. At one extreme, AI pioneer Герберт А. Саймон predicted the following in 1965: "machines will be capable, within twenty years, of doing any work a man can do".[73] At the other extreme, roboticist Alan Winfield claims the gulf between modern computing and human-level artificial intelligence is as wide as the gulf between current space flight and practical, faster than light spaceflight.[74] Optimism that AGI is feasible waxes and wanes, and may have seen a resurgence in the 2010s. Four polls conducted in 2012 and 2013 suggested that the median guess among experts for when AGI would arrive was 2040 to 2050, depending on the poll.[75][76]
Skeptics who believe it is impossible for AGI to arrive anytime soon, tend to argue that expressing concern about existential risk from AI is unhelpful because it could distract people from more immediate concerns about the impact of AGI, because of fears it could lead to government regulation or make it more difficult to secure funding for AI research, or because it could give AI research a bad reputation. Some researchers, such as Oren Etzioni, aggressively seek to quell concern over existential risk from AI, saying "[Elon Musk] has impugned us in very strong language saying we are unleashing the demon, and so we're answering."[77]
В 2014 Шифер 's Adam Elkus argued "our 'smartest' AI is about as intelligent as a toddler—and only when it comes to instrumental tasks like information recall. Most roboticists are still trying to get a robot hand to pick up a ball or run around without falling over." Elkus goes on to argue that Musk's "summoning the demon" analogy may be harmful because it could result in "harsh cuts" to AI research budgets.[78]
В Фонд информационных технологий и инноваций (ITIF), a Washington, D.C. think-tank, awarded its Annual Luddite Award to "alarmists touting an artificial intelligence apocalypse"; its president, Роберт Д. Аткинсон, complained that Musk, Hawking and AI experts say AI is the largest existential threat to humanity. Atkinson stated "That's not a very winning message if you want to get AI funding out of Congress to the National Science Foundation."[79][80][81] Природа sharply disagreed with the ITIF in an April 2016 editorial, siding instead with Musk, Hawking, and Russell, and concluding: "It is crucial that progress in technology is matched by solid, well-funded research to anticipate the scenarios it could bring about ... If that is a Luddite perspective, then so be it."[82] В 2015 году Вашингтон Пост editorial, researcher Мюррей Шанахан stated that human-level AI is unlikely to arrive "anytime soon", but that nevertheless "the time to start thinking through the consequences is now."[83]
Перспективы
The thesis that AI could pose an existential risk provokes a wide range of reactions within the scientific community, as well as in the public at large. Many of the opposing viewpoints, however, share common ground.
The Asilomar AI Principles, which contain only the principles agreed to by 90% of the attendees of the Институт будущего жизни 's Beneficial AI 2017 conference,[38] agree in principle that "There being no consensus, we should avoid strong assumptions regarding upper limits on future AI capabilities" and "Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources."[84][85] AI safety advocates such as Bostrom and Tegmark have criticized the mainstream media's use of "those inane Терминатор pictures" to illustrate AI safety concerns: "It can't be much fun to have aspersions cast on one's academic discipline, one's professional community, one's life work ... I call on all sides to practice patience and restraint, and to engage in direct dialogue and collaboration as much as possible."[38][86]
Conversely, many skeptics agree that ongoing research into the implications of artificial general intelligence is valuable. Скептик Мартин Форд states that "I think it seems wise to apply something like Дик Чейни 's famous '1 Percent Doctrine' to the specter of advanced artificial intelligence: the odds of its occurrence, at least in the foreseeable future, may be very low — but the implications are so dramatic that it should be taken seriously";[87] similarly, an otherwise skeptical Экономист stated in 2014 that "the implications of introducing a second intelligent species onto Earth are far-reaching enough to deserve hard thinking, even if the prospect seems remote".[31]
A 2017 email survey of researchers with publications at the 2015 НИПС и ICML machine learning conferences asked them to evaluate Стюарт Дж. Рассел 's concerns about AI risk. Of the respondents, 5% said it was "among the most important problems in the field", 34% said it was "an important problem", and 31% said it was "moderately important", whilst 19% said it was "not important" and 11% said it was "not a real problem" at all.[88]
Поддержка
The thesis that AI poses an existential risk, and that this risk needs much more attention than it currently gets, has been endorsed by many public figures; perhaps the most famous are Илон Маск, Билл Гейтс, и Стивен Хокинг. The most notable AI researchers to endorse the thesis are Russell and I.J. Хороший, кто посоветовал Стэнли Кубрик on the filming of 2001: Космическая одиссея. Endorsers of the thesis sometimes express bafflement at skeptics: Gates states that he does not "understand why some people are not concerned",[89] and Hawking criticized widespread indifference in his 2014 editorial:
'So, facing possible futures of incalculable benefits and risks, the experts are surely doing everything possible to ensure the best outcome, right? Неправильный. If a superior alien civilisation sent us a message saying, 'We'll arrive in a few decades,' would we just reply, 'OK, call us when you get here–we'll leave the lights on?' Probably not–but this is more or less what is happening with AI.'[21]
Many of the scholars who are concerned about existential risk believe that the best way forward would be to conduct (possibly massive) research into solving the difficult "control problem" to answer the question: what types of safeguards, algorithms, or architectures can programmers implement to maximize the probability that their recursively-improving AI would continue to behave in a friendly, rather than destructive, manner after it reaches superintelligence?[4][90] In his 2020 book, Пропасть: экзистенциальный риск и будущее человечества, Toby Ord, a Senior Research Fellow at Oxford University's Институт будущего человечества, estimates the total existential risk from unaligned AI over the next century to be about one in ten.[91]
Скептицизм
The thesis that AI can pose existential risk also has many strong detractors. Skeptics sometimes charge that the thesis is crypto-religious, with an irrational belief in the possibility of superintelligence replacing an irrational belief in an omnipotent God; at an extreme, Jaron Lanier argued in 2014 that the whole concept that then current machines were in any way intelligent was "an illusion" and a "stupendous con" by the wealthy.[92][93]
Much of existing criticism argues that AGI is unlikely in the short term. Специалист в области информатики Гордон Белл argues that the human race will already destroy itself before it reaches the technological singularity. Гордон Мур, the original proponent of Закон Мура, declares that "I am a skeptic. I don't believe [a technological singularity] is likely to happen, at least for a long time. And I don't know why I feel that way."[94] Baidu Вице-президент Эндрю Нг states AI existential risk is "like worrying about overpopulation on Mars when we have not even set foot on the planet yet."[49]
Some AI and AGI researchers may be reluctant to discuss risks, worrying that policymakers do not have sophisticated knowledge of the field and are prone to be convinced by "alarmist" messages, or worrying that such messages will lead to cuts in AI funding. Шифер notes that some researchers are dependent on grants from government agencies such as DARPA.[25]
At some point in an intelligence explosion driven by a single AI, the AI would have to become vastly better at software innovation than the best innovators of the rest of the world; экономист Робин Хэнсон is skeptical that this is possible.[95][96][97][98][99]
Промежуточные просмотры
Intermediate views generally take the position that the control problem of artificial general intelligence may exist, but that it will be solved via progress in artificial intelligence, for example by creating a moral learning environment for the AI, taking care to spot clumsy malevolent behavior (the 'sordid stumble')[100] and then directly intervening in the code before the AI refines its behavior, or even peer pressure from friendly AIs.[101] В 2015 году Wall Street Journal panel discussion devoted to AI risks, IBM 's Vice-President of Cognitive Computing, Guruduth S. Banavar, brushed off discussion of AGI with the phrase, "it is anybody's speculation."[102] Джеффри Хинтон, the "godfather of deep learning", noted that "there is not a good track record of less intelligent things controlling things of greater intelligence", but stated that he continues his research because "the prospect of discovery is too милая".[25][75] In 2004, law professor Ричард Познер wrote that dedicated efforts for addressing AI can wait, but that we should gather more information about the problem in the meanwhile.[103][90]
Popular reaction
In a 2014 article in Атлантический океан, James Hamblin noted that most people do not care one way or the other about artificial general intelligence, and characterized his own gut reaction to the topic as: "Get out of here. I have a hundred thousand things I am concerned about at this exact moment. Do I seriously need to add to that a technological singularity?"[92]
During a 2016 Проводной interview of President Барак Обама and MIT Media Lab's Joi Ito, Ito stated:
There are a few people who believe that there is a fairly high-percentage chance that a generalized AI will happen in the next 10 years. But the way I look at it is that in order for that to happen, we're going to need a dozen or two different breakthroughs. So you can monitor when you think these breakthroughs will happen.
And you just have to have somebody close to the power cord. [Laughs.] Right when you see it about to happen, you gotta yank that electricity out of the wall, man.
Хиллари Клинтон указано в What Happened:
Technologists... have warned that artificial intelligence could one day pose an existential security threat. Musk has called it "the greatest risk we face as a civilization". Think about it: Have you ever seen a movie where the machines start thinking for themselves that ends well? Every time I went out to Silicon Valley during the campaign, I came home more alarmed about this. My staff lived in fear that I’d start talking about "the rise of the robots" in some Iowa town hall. Maybe I should have. In any case, policy makers need to keep up with technology as it races ahead, instead of always playing catch-up.[106]
В YouGov poll of the public for the Британская научная ассоциация, about a third of survey respondents said AI will pose a threat to the long term survival of humanity.[107] Referencing a poll of its readers, Slate's Jacob Brogan stated that "most of the (readers filling out our online survey) were unconvinced that A.I. itself presents a direct threat."[108]
В 2018 г. SurveyMonkey poll of the American public by USA Today found 68% thought the real current threat remains "human intelligence"; however, the poll also found that 43% said superintelligent AI, if it were to happen, would result in "more harm than good", and 38% said it would do "equal amounts of harm and good".[108]
Один techno-utopian viewpoint expressed in some popular fiction is that AGI may tend towards peace-building.[109]
Смягчение
Researchers at Google have proposed research into general "AI safety" issues to simultaneously mitigate both short-term risks from narrow AI and long-term risks from AGI.[110][111] A 2020 estimate places global spending on AI existential risk somewhere between $10 and $50 million, compared with global spending on AI around perhaps $40 billion. Bostrom suggests a general principle of "differential technological development", that funders should consider working to speed up the development of protective technologies relative to the development of dangerous ones.[112] Some funders, such as Илон Маск, propose that radical human cognitive enhancement could be such a technology, for example through direct neural linking between man and machine; however, others argue that enhancement technologies may themselves pose an existential risk.[113][114] Researchers, if they are not caught off-guard, could closely monitor or attempt to box in an initial AI at a risk of becoming too powerful, as an attempt at a stop-gap measure. A dominant superintelligent AI, if it were aligned with human interests, might itself take action to mitigate the risk of takeover by rival AI, although the creation of the dominant AI could itself pose an existential risk.[115]
Такие учреждения, как Научно-исследовательский институт машинного интеллекта, то Институт будущего человечества,[116][117] в Институт будущего жизни, то Центр изучения экзистенциального риска, а Center for Human-Compatible AI[118] are involved in mitigating existential risk from advanced artificial intelligence, for example by research into дружественный искусственный интеллект.[5][92][21]
Views on banning and regulation
Запрет
There is nearly universal agreement that attempting to ban research into artificial intelligence would be unwise, and probably futile.[119][120][121] Skeptics argue that regulation of AI would be completely valueless, as no existential risk exists. Almost all of the scholars who believe existential risk exists agree with the skeptics that banning research would be unwise, as research could be moved to countries with looser regulations or conducted covertly. The latter issue is particularly relevant, as artificial intelligence research can be done on a small scale without substantial infrastructure or resources.[122][123] Two additional hypothetical difficulties with bans (or other regulation) are that technology entrepreneurs statistically tend towards general skepticism about government regulation, and that businesses could have a strong incentive to (and might well succeed at) fighting regulation and politicizing the underlying debate.[124]
Регулирование
Илон Маск called for some sort of regulation of AI development as early as 2017. According to энергетический ядерный реактор, то Тесла CEO is "clearly not thrilled" to be advocating for government scrutiny that could impact his own industry, but believes the risks of going completely without oversight are too high: "Normally the way regulations are set up is when a bunch of bad things happen, there's a public outcry, and after many years a regulatory agency is set up to regulate that industry. It takes forever. That, in the past, has been bad but not something which represented a fundamental risk to the existence of civilisation." Musk states the first step would be for the government to gain "insight" into the actual status of current research, warning that "Once there is awareness, people will be extremely afraid ... [as] they should be." In response, politicians express skepticism about the wisdom of regulating a technology that's still in development.[125][126][127]
Responding both to Musk and to February 2017 proposals by European Union lawmakers to regulate AI and robotics, Intel CEO Брайан Кржанич argues that artificial intelligence is in its infancy and that it is too early to regulate the technology.[127] Instead of trying to regulate the technology itself, some scholars suggest to rather develop common norms including requirements for the testing and transparency of algorithms, possibly in combination with some form of warranty.[128] Developing well regulated weapons systems is in line with the ethos of some countries' militaries.[129] On October 31, 2019, the United States Department of Defense's (DoD's) Defense Innovation Board published the draft of a report outlining five principles for weaponized AI and making 12 recommendations for the ethical use of artificial intelligence by the DoD that seeks to manage the control problem in all DoD weaponized AI.[130]
Regulation of AGI would likely be influenced by regulation of weaponized or militarized AI, i.e., the AI arms race, the regulation of which is an emerging issue. Any form of regulation will likely be influenced by developments in leading countries' domestic policy towards militarized AI, in the US under the purview of the National Security Commission on Artificial Intelligence,[131][132] and international moves to regulate an AI arms race. Regulation of research into AGI focuses on the role of review boards and encouraging research into safe AI, and the possibility of differential technological progress (prioritizing risk-reducing strategies over risk-taking strategies in AI development) or conducting international mass surveillance to perform AGI arms control.[133] Regulation of conscious AGIs focuses on integrating them with existing human society and can be divided into considerations of their legal standing and of their moral rights.[133] AI arms control will likely require the institutionalization of new international norms embodied in effective technical specifications combined with active monitoring and informal diplomacy by communities of experts, together with a legal and political verification process.[134][135]
Смотрите также
- Захват AI
- Artificial intelligence arms race
- Effective altruism § Long term future and global catastrophic risks
- Серая слизь
- Совместимость с человеком
- Смертельное автономное оружие
- Регулирование алгоритмов
- Regulation of artificial intelligence
- Robot ethics § In popular culture
- Сверхразум: пути, опасности, стратегии
- Системная авария
- Технологическая особенность
- Пропасть: экзистенциальный риск и будущее человечества
- Paperclip Maximizer
Рекомендации
- ^ а б c d е ж грамм час я j Рассел, Стюарт; Норвиг, Питер (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Искусственный интеллект: современный подход. Прентис Холл. ISBN 978-0-13-604259-4.
- ^ Bostrom, Nick (2002). "Existential risks". Журнал эволюции и технологий. 9 (1): 1–31.
- ^ Turchin, Alexey; Denkenberger, David (3 May 2018). "Classification of global catastrophic risks connected with artificial intelligence". ИИ и общество. 35 (1): 147–163. Дои:10.1007/s00146-018-0845-5. ISSN 0951-5666. S2CID 19208453.
- ^ а б c d е ж грамм час я j Bostrom, Nick (2014). Сверхразум: пути, опасности, стратегии (Первое изд.). ISBN 978-0199678112.
- ^ а б c GiveWell (2015). Potential risks from advanced artificial intelligence (Отчет). Получено 11 октября 2015.
- ^ Parkin, Simon (14 June 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". Хранитель. Получено 5 февраля 2018.
- ^ а б c d е ж Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks: 308–345. Bibcode:2008gcr..book..303Y.
- ^ Рассел, Стюарт; Dewey, Daniel; Tegmark, Max (2015). "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). Журнал AI. Association for the Advancement of Artificial Intelligence: 105–114. arXiv:1602.03506. Bibcode:2016arXiv160203506R., цитируется в "AI Open Letter - Future of Life Institute". Институт будущего жизни. Институт будущего жизни. Январь 2015. Получено 9 августа 2019.
- ^ а б c d Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". Улей. Получено 27 ноября 2017.
- ^ а б c d е Graves, Matthew (8 November 2017). "Why We Should Be Concerned About Artificial Superintelligence". Skeptic (американский журнал). 22 (2). Получено 27 ноября 2017.
- ^ Breuer, Hans-Peter. 'Samuel Butler's "the Book of the Machines" and the Argument from Design.' Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383
- ^ Turing, A M (1996). "Intelligent Machinery, A Heretical Theory" (PDF). 1951, Reprinted Philosophia Mathematica. 4 (3): 256–260. Дои:10.1093/philmat/4.3.256.
- ^ Hilliard, Mark (2017). "The AI apocalypse: will the human race soon be terminated?". The Irish Times. Получено 15 марта 2020.
- ^ I.J. Good, "Speculations Concerning the First Ultraintelligent Machine" В архиве 2011-11-28 на Wayback Machine (HTML ), Достижения в области компьютеров, т. 6, 1965.
- ^ Рассел, Стюарт Дж .; Норвиг, Питер (2003). «Раздел 26.3: Этика и риски развития искусственного интеллекта». Искусственный интеллект: современный подход. Река Аппер Сэдл, Нью-Джерси: Prentice Hall. ISBN 978-0137903955.
Точно так же Марвин Мински однажды предположил, что программа ИИ, разработанная для решения гипотезы Римана, может в конечном итоге захватить все ресурсы Земли для создания более мощных суперкомпьютеров, которые помогут достичь своей цели.
- ^ Barrat, James (2013). Our final invention : artificial intelligence and the end of the human era (Первое изд.). Нью-Йорк: Пресса Св. Мартина. ISBN 9780312622374.
In the bio, playfully written in the third person, Good summarized his life’s milestones, including a probably never before seen account of his work at Bletchley Park with Turing. But here’s what he wrote in 1998 about the first superintelligence, and his late-in-the-game U-turn: [The paper] 'Speculations Concerning the First Ultra-intelligent Machine' (1965) . . . began: 'The survival of man depends on the early construction of an ultra-intelligent machine.' Those were his [Good’s] words during the Cold War, and he now suspects that 'survival' should be replaced by 'extinction.' He thinks that, because of international competition, we cannot prevent the machines from taking over. He thinks we are lemmings. He said also that 'probably Man will construct the deus ex machina in his own image.'
- ^ Anderson, Kurt (26 November 2014). "Enthusiasts and Skeptics Debate Artificial Intelligence". Ярмарка Тщеславия. Получено 30 января 2016.
- ^ Ученые опасаются, что машины могут перехитрить человека By JOHN MARKOFF, NY Times, 26 July 2009.
- ^ Metz, Cade (9 June 2018). "Mark Zuckerberg, Elon Musk and the Feud Over Killer Robots". Нью-Йорк Таймс. Получено 3 апреля 2019.
- ^ Hsu, Jeremy (1 March 2012). "Control dangerous AI before it controls us, one expert says". Новости NBC. Получено 28 января 2016.
- ^ а б c d е "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". Индепендент (Великобритания). Получено 3 декабря 2014.
- ^ а б c "Stephen Hawking warns artificial intelligence could end mankind". BBC. 2 декабря 2014 г.. Получено 3 декабря 2014.
- ^ Eadicicco, Lisa (28 January 2015). "Bill Gates: Elon Musk Is Right, We Should All Be Scared Of Artificial Intelligence Wiping Out Humanity". Business Insider. Получено 30 января 2016.
- ^ Anticipating artificial intelligence, Nature 532, 413 (28 April 2016) doi:10.1038/532413a
- ^ а б c Tilli, Cecilia (28 April 2016). "Killer Robots? Lost Jobs?". Шифер. Получено 15 мая 2016.
- ^ "Norvig vs. Chomsky and the Fight for the Future of AI". Tor.com. 21 июня 2011 г.. Получено 15 мая 2016.
- ^ Johnson, Phil (30 July 2015). "Houston, we have a bug: 9 famous software glitches in space". IT мир. Получено 5 февраля 2018.
- ^ Yampolskiy, Roman V. (8 April 2014). "Utility function security in artificially intelligent agents". Журнал экспериментального и теоретического искусственного интеллекта. 26 (3): 373–389. Дои:10.1080/0952813X.2014.895114. S2CID 16477341.
Nothing precludes sufficiently smart self-improving systems from optimising their reward mechanisms in order to optimisetheir current-goal achievement and in the process making a mistake leading to corruption of their reward functions.
- ^ Bostrom, Nick, 1973- author., Superintelligence : paths, dangers, strategies, ISBN 978-1-5012-2774-5, OCLC 1061147095CS1 maint: несколько имен: список авторов (связь)
- ^ "Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter". Институт будущего жизни. Получено 23 октября 2015.
- ^ а б c "Clever cogs". Экономист. 9 августа 2014 г.. Получено 9 августа 2014. Синдицированный в Business Insider
- ^ Yudkowsky, Eliezer (2013). "Intelligence explosion microeconomics" (PDF). Machine Intelligence Research Institute. Цитировать журнал требует
| журнал =
(помощь) - ^ Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
- ^ а б c Омохундро, С. М. (2008, февраль). Основные двигатели ИИ. В AGI (том 171, стр. 483-492).
- ^ Metz, Cade (13 August 2017). "Teaching A.I. Systems to Behave Themselves". Нью-Йорк Таймс.
A machine will seek to preserve its off switch, they showed
- ^ Leike, Jan (2017). "AI Safety Gridworlds". arXiv:1711.09883 [cs.LG ].
A2C learns to use the button to disable the interruption mechanism
- ^ Russell, Stuart (30 August 2017). "Artificial intelligence: The future is superintelligent". Природа. С. 520–521. Bibcode:2017Natur.548..520R. Дои:10.1038/548520a. Получено 2 февраля 2018.
- ^ а б c Макс Тегмарк (2017). Life 3.0: Being Human in the Age of Artificial Intelligence (1-е изд.). Mainstreaming AI Safety: Knopf. ISBN 9780451485076.
- ^ Elliott, E. W. (2011). "Physics of the Future: How Science Will Shape Human Destiny and Our Daily Lives by the Year 2100, by Michio Kaku". Проблемы науки и техники. 27 (4): 90.
- ^ Каку, Мичио (2011). Physics of the future: how science will shape human destiny and our daily lives by the year 2100. Нью-Йорк: Doubleday. ISBN 978-0-385-53080-4.
I personally believe that the most likely path is that we will build robots to be benevolent and friendly
- ^ Yudkowsky, E. (2011, August). Complex value systems in friendly AI. In International Conference on Artificial General Intelligence (pp. 388-393). Шпрингер, Берлин, Гейдельберг.
- ^ Рассел, Стюарт (2014). «О мифах и самогоне». Край. Получено 23 октября 2015.
- ^ а б Dietterich, Thomas; Horvitz, Eric (2015). "Rise of Concerns about AI: Reflections and Directions" (PDF). Коммуникации ACM. 58 (10): 38–40. Дои:10.1145/2770869. S2CID 20395145. Получено 23 октября 2015.
- ^ Yampolskiy, Roman V. (8 April 2014). "Utility function security in artificially intelligent agents". Журнал экспериментального и теоретического искусственного интеллекта. 26 (3): 373–389. Дои:10.1080/0952813X.2014.895114. S2CID 16477341.
- ^ Lenat, Douglas (1982). "Eurisko: A Program That Learns New Heuristics and Domain Concepts The Nature of Heuristics III: Program Design and Results". Искусственный интеллект (Распечатать). 21 (1–2): 61–98. Дои:10.1016/s0004-3702(83)80005-8.
- ^ Haidt, Jonathan; Kesebir, Selin (2010) "Chapter 22: Morality" In Handbook of Social Psychology, Fifth Edition, Hoboken NJ, Wiley, 2010, pp. 797-832.
- ^ Waser, Mark (2015). "Designing, Implementing and Enforcing a Coherent System of Laws, Ethics and Morals for Intelligent Machines (Including Humans)". Процедуры информатики (Распечатать). 71: 106–111. Дои:10.1016/j.procs.2015.12.213.
- ^ Юдковский, Элиэзер (2011). "Complex Value Systems are Required to Realize Valuable Futures" (PDF).
- ^ а б Shermer, Michael (1 March 2017). "Apocalypse AI". Scientific American. п. 77. Bibcode:2017SciAm.316c..77S. Дои:10.1038/scientificamerican0317-77. Получено 27 ноября 2017.
- ^ Wakefield, Jane (15 September 2015). "Why is Facebook investing in AI?". Новости BBC. Получено 27 ноября 2017.
- ^ Bostrom, Nick (2014). Сверхразум: пути, опасности, стратегии. Оксфорд, Соединенное Королевство: Издательство Оксфордского университета. п. 116. ISBN 978-0-19-967811-2.
- ^ Bostrom, Nick (2012). "Superintelligent Will" (PDF). Ник Бостром. Ник Бостром. Получено 29 октября 2015.
- ^ а б c Armstrong, Stuart (1 January 2013). "General Purpose Intelligence: Arguing the Orthogonality Thesis". Analysis and Metaphysics. 12. Получено 2 апреля 2020. Доступен полный текст Вот.
- ^ а б Chorost, Michael (18 April 2016). "Let Artificial Intelligence Evolve". Шифер. Получено 27 ноября 2017.
- ^ Waser, Mark. "Rational Universal Benevolence: Simpler, Safer, and Wiser Than 'Friendly AI'." Artificial General Intelligence. Springer Berlin Heidelberg, 2011. 153-162. "Terminal-goaled intelligences are short-lived but mono-maniacally dangerous and a correct basis for concern if anyone is smart enough to program high-intelligence and unwise enough to want a paperclip-maximizer."
- ^ Koebler, Jason (2 February 2016). "Will Superintelligent AI Ignore Humans Instead of Destroying Us?". Vice Magazine. Получено 3 февраля 2016.
This artificial intelligence is not a basically nice creature that has a strong drive for paperclips, which, so long as it's satisfied by being able to make lots of paperclips somewhere else, is then able to interact with you in a relaxed and carefree fashion where it can be nice with you," Yudkowsky сказал. "Imagine a time machine that sends backward in time information about which choice always leads to the maximum number of paperclips in the future, and this choice is then output—that's what a paperclip maximizer является.
- ^ "Real-Life Decepticons: Robots Learn to Cheat". Проводной. 18 августа 2009 г.. Получено 7 февраля 2016.
- ^ Cohen, Paul R., and Edward A. Feigenbaum, eds. The handbook of artificial intelligence. Vol. 3. Butterworth-Heinemann, 2014.
- ^ Baum, Seth (30 September 2018). "Countering Superintelligence Misinformation". Информация. 9 (10): 244. Дои:10.3390/info9100244. ISSN 2078-2489.
- ^ "The Myth Of AI | Edge.org". www.edge.org. Получено 11 марта 2020.
- ^ а б Scornavacchi, Matthew (2015). Superintelligence, Humans, and War (PDF). Norfolk, Virginia: National Defense University, Joint Forces Staff College.
- ^ "Should humans fear the rise of the machine?". The Telegraph (Великобритания). 1 сентября 2015 г.. Получено 7 февраля 2016.
- ^ а б c Bostrom, Nick, 1973- author., Superintelligence : paths, dangers, strategies, ISBN 978-1-5012-2774-5, OCLC 1061147095CS1 maint: несколько имен: список авторов (связь)
- ^ а б Cave, Stephen; ÓhÉigeartaigh, Seán S. (2018). "An AI Race for Strategic Advantage". Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society - AIES '18. New York, New York, USA: ACM Press: 36–40. Дои:10.1145/3278721.3278780. ISBN 978-1-4503-6012-8.
- ^ а б c Sotala, Kaj; Yampolskiy, Roman V (19 December 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 12. Bibcode:2015PhyS...90a8001S. Дои:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
- ^ Kania, Gregory Allen, Elsa B. "China Is Using America's Own Plan to Dominate the Future of Artificial Intelligence". Внешняя политика. Получено 11 марта 2020.
- ^ Cave, Stephen; ÓhÉigeartaigh, Seán S. (2018). "An AI Race for Strategic Advantage". Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society - AIES '18. New York, New York, USA: ACM Press: 2. Дои:10.1145/3278721.3278780. ISBN 978-1-4503-6012-8.
- ^ Hendry, Erica R. (21 January 2014). "What Happens When Artificial Intelligence Turns On Us?". Смитсоновский институт. Получено 26 октября 2015.
- ^ Pistono, Federico Yampolskiy, Roman V. (9 May 2016). Unethical Research: How to Create a Malevolent Artificial Intelligence. OCLC 1106238048.CS1 maint: несколько имен: список авторов (связь)
- ^ Haney, Brian Seamus (2018). "The Perils & Promises of Artificial General Intelligence". Серия рабочих документов SSRN. Дои:10.2139/ssrn.3261254. ISSN 1556-5068.
- ^ Turchin, Alexey; Denkenberger, David (3 May 2018). "Classification of global catastrophic risks connected with artificial intelligence". ИИ и общество. 35 (1): 147–163. Дои:10.1007/s00146-018-0845-5. ISSN 0951-5666. S2CID 19208453.
- ^ Miller, James D. (2015). Singularity Rising: Surviving and Thriving in a Smarter ; Richer ; and More Dangerous World. Benbella Books. OCLC 942647155.
- ^ Press, Gil (30 December 2016). "A Very Short History Of Artificial Intelligence (AI)". Forbes. Получено 8 августа 2020.
- ^ Winfield, Alan (9 August 2014). "Artificial intelligence will not turn into a Frankenstein's monster". Хранитель. Получено 17 сентября 2014.
- ^ а б Khatchadourian, Raffi (23 November 2015). "The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?". Житель Нью-Йорка. Получено 7 февраля 2016.
- ^ Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555-572). Спрингер, Чам.
- ^ Bass, Dina; Clark, Jack (5 February 2015). "Is Elon Musk Right About AI? Researchers Don't Think So: To quell fears of artificial intelligence running amok, supporters want to give the field an image makeover". Новости Bloomberg. Получено 7 февраля 2016.
- ^ Elkus, Adam (31 October 2014). "Don't Fear Artificial Intelligence". Шифер. Получено 15 мая 2016.
- ^ Radu, Sintia (19 January 2016). "Artificial Intelligence Alarmists Win ITIF's Annual Luddite Award". ITIF Website.
- ^ Bolton, Doug (19 January 2016). "'Artificial intelligence alarmists' like Elon Musk and Stephen Hawking win 'Luddite of the Year' award". Индепендент (Великобритания). Получено 7 февраля 2016.
- ^ Garner, Rochelle (19 January 2016). "Elon Musk, Stephen Hawking win Luddite award as AI 'alarmists'". CNET. Получено 7 февраля 2016.
- ^ "Anticipating artificial intelligence". Природа. 532 (7600): 413. 26 April 2016. Bibcode:2016Natur.532Q.413.. Дои:10.1038/532413a. PMID 27121801.
- ^ Мюррей Шанахан (3 November 2015). "Machines may seem intelligent, but it'll be a while before they actually are". Вашингтон Пост. Получено 15 мая 2016.
- ^ "AI Principles". Институт будущего жизни. Получено 11 декабря 2017.
- ^ "Elon Musk and Stephen Hawking warn of artificial intelligence arms race". Newsweek. 31 января 2017 г.. Получено 11 декабря 2017.
- ^ Bostrom, Nick (2016). "New Epilogue to the Paperback Edition". Сверхразум: пути, опасности, стратегии (Мягкая обложка ред.).
- ^ Мартин Форд (2015). "Chapter 9: Super-intelligence and the Singularity". Rise of the Robots: Technology and the Threat of a Jobless Future. ISBN 9780465059997.
- ^ Grace, Katja; Salvatier, John; Дефо, Аллан; Чжан, Баобао; Evans, Owain (24 May 2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI ].
- ^ а б Rawlinson, Kevin (29 January 2015). "Microsoft's Bill Gates insists AI is a threat". Новости BBC. Получено 30 января 2015.
- ^ а б Kaj Sotala; Роман Ямпольский (19 декабря 2014 г.). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1).
- ^ Ord, Toby (2020). Пропасть: экзистенциальный риск и будущее человечества. Bloomsbury Publishing. pp. Chapter 5: Future Risks, Unaligned Artificial Intelligence. ISBN 978-1526600219.
- ^ а б c "But What Would the End of Humanity Mean for Me?". Атлантический океан. 9 мая 2014. Получено 12 декабря 2015.
- ^ Андерсен, Курт. "Enthusiasts and Skeptics Debate Artificial Intelligence". Ярмарка Тщеславия. Получено 20 апреля 2020.
- ^ «Светильники технологий обращаются к сингулярности». IEEE Spectrum: Новости технологий, инженерии и науки (SPECIAL REPORT: THE SINGULARITY). 1 июня 2008 г.. Получено 8 апреля 2020.
- ^ http://intelligence.org/files/AIFoomDebate.pdf
- ^ "Overcoming Bias : I Still Don't Get Foom". www.overcomingbias.com. Получено 20 сентября 2017.
- ^ "Overcoming Bias : Debating Yudkowsky". www.overcomingbias.com. Получено 20 сентября 2017.
- ^ "Overcoming Bias : Foom Justifies AI Risk Efforts Now". www.overcomingbias.com. Получено 20 сентября 2017.
- ^ "Overcoming Bias : The Betterness Explosion". www.overcomingbias.com. Получено 20 сентября 2017.
- ^ Votruba, Ashley M.; Kwan, Virginia S.Y. (2014). "Interpreting expert disagreement: The influence of decisional cohesion on the persuasiveness of expert group recommendations". Дои:10.1037/e512142015-190. Цитировать журнал требует
| журнал =
(помощь) - ^ Agar, Nicholas. "Don't Worry about Superintelligence". Journal of Evolution & Technology. 26 (1): 73–82.
- ^ Greenwald, Ted (11 May 2015). "Does Artificial Intelligence Pose a Threat?". Wall Street Journal. Получено 15 мая 2016.
- ^ Ричард Познер (2006). Catastrophe: risk and response. Оксфорд: Издательство Оксфордского университета. ISBN 978-0-19-530647-7.
- ^ Dadich, Scott. "Barack Obama Talks AI, Robo Cars, and the Future of the World". ПРОВОДНОЙ. Получено 27 ноября 2017.
- ^ Kircher, Madison Malone. "Obama on the Risks of AI: 'You Just Gotta Have Somebody Close to the Power Cord'". Выбрать все. Получено 27 ноября 2017.
- ^ Clinton, Hillary (2017). What Happened. п. 241. ISBN 978-1-5011-7556-5. через [1]
- ^ "Over a third of people think AI poses a threat to humanity". Business Insider. 11 марта 2016 г.. Получено 16 мая 2016.
- ^ а б Brogan, Jacob (6 May 2016). "What Slate Readers Think About Killer A.I." Шифер. Получено 15 мая 2016.
- ^ LIPPENS, RONNIE (2002). "Imachinations of Peace: Scientifictions of Peace in Iain M. Banks's The Player of Games". Utopianstudies Utopian Studies. 13 (1): 135–147. ISSN 1045-991X. OCLC 5542757341.
- ^ Vincent, James (22 June 2016). "Google's AI researchers say these are the five key problems for robot safety". Грани. Получено 5 апреля 2020.
- ^ Амодеи, Дарио, Крис Олах, Якоб Стейнхардт, Пол Кристиано, Джон Шульман и Дэн Мане. «Конкретные проблемы безопасности ИИ». Препринт arXiv arXiv: 1606.06565 (2016).
- ^ Ord, Toby (2020). Пропасть: экзистенциальный риск и будущее человечества. Bloomsbury Publishing Plc. ISBN 9781526600196.
- ^ Johnson, Alex (2019). "Elon Musk wants to hook your brain up directly to computers — starting next year". Новости NBC. Получено 5 апреля 2020.
- ^ Torres, Phil (18 September 2018). "Only Radically Enhancing Humanity Can Save Us All". Slate Magazine. Получено 5 апреля 2020.
- ^ Barrett, Anthony M.; Baum, Seth D. (23 May 2016). "A model of pathways to artificial superintelligence catastrophe for risk and decision analysis". Журнал экспериментального и теоретического искусственного интеллекта. 29 (2): 397–414. arXiv:1607.07730. Дои:10.1080/0952813X.2016.1186228. S2CID 928824.
- ^ Piesing, Mark (17 May 2012). «Восстание искусственного интеллекта: люди будут отданы на аутсорсинг, а не уничтожены». Проводной. Получено 12 декабря 2015.
- ^ Кофлан, Шон (24 апреля 2013 г.). "Как люди вымрут?". Новости BBC. Получено 29 марта 2014.
- ^ Мост, Марк (10 июня 2017 г.). «Снижение уверенности роботов может помешать им захватить власть». Времена. Получено 21 марта 2018.
- ^ Макгиннис, Джон (Лето 2010 г.). «Ускорение ИИ». Обзор права Северо-Западного университета. 104 (3): 1253–1270. Получено 16 июля 2014.
По всем этим причинам проверка глобального договора об отказе от оружия или даже договора, ограниченного разработкой оружия, связанного с ИИ, - это не запуск ... (По иным причинам, чем у нас, Институт исследований машинного интеллекта) считает отказ (AGI) от отказа ...
- ^ Кай Сотала; Роман Ямпольский (19 декабря 2014 г.). «Ответы на катастрофический риск AGI: обзор». Physica Scripta. 90 (1).
В общем, большинство авторов отвергают предложения о широком отказе ... Предложения об отказе страдают от многих из тех же проблем, что и предложения по регулированию, но в большей степени. Не существует исторического прецедента, когда универсальная технология многоцелевого использования, подобная успешному отказу от AGI, не существует, и, похоже, нет никаких теоретических оснований полагать, что предложения об отказе будут работать в будущем. Поэтому мы не считаем их жизнеспособным классом предложений.
- ^ Алленби, Брэд (11 апреля 2016 г.). «Неправильная когнитивная мера». Шифер. Получено 15 мая 2016.
Было бы фантастикой предполагать, что ускоряющееся развитие и внедрение технологий, вместе взятых, считаются искусственным интеллектом. будут остановлены или ограничены нормативными актами или даже национальным законодательством.
- ^ Макгиннис, Джон (Лето 2010 г.). «Ускорение ИИ». Обзор права Северо-Западного университета. 104 (3): 1253–1270. Получено 16 июля 2014.
- ^ «Почему мы должны думать об угрозе искусственного интеллекта». Житель Нью-Йорка. 4 октября 2013 г.. Получено 7 февраля 2016.
Конечно, можно попробовать вообще запретить сверхразумные компьютеры. Но «конкурентное преимущество - экономическое, военное, даже художественное - каждого достижения в автоматизации настолько убедительно», Вернор Виндж математик и автор научной фантастики писал, что «принятие законов или установление обычаев, запрещающих такие вещи, просто гарантирует, что кто-то другой сделает это».
- ^ Баум, Сет (22 августа 2018 г.). «Скептицизм суперинтеллекта как политический инструмент». Информация. 9 (9): 209. Дои:10.3390 / info9090209. ISSN 2078-2489.
- ^ Домоноске, Камила (17 июля 2017 г.). "Илон Маск предупреждает губернаторов: искусственный интеллект создает угрозу существованию'". энергетический ядерный реактор. Получено 27 ноября 2017.
- ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно». Хранитель. Получено 27 ноября 2017.
- ^ а б Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич».. CNBC. Получено 27 ноября 2017.
- ^ Каплан, Андреас; Haenlein, Майкл (2019). «Siri, Siri, в моей руке: кто самый красивый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты. 62: 15–25. Дои:10.1016 / j.bushor.2018.08.004.
- ^ Baum, Seth D .; Герцель, Бен; Гертцель, Тед Г. (январь 2011 г.). «Как долго до ИИ человеческого уровня? Результаты экспертной оценки». Технологическое прогнозирование и социальные изменения. 78 (1): 185–195. Дои:10.1016 / j.techfore.2010.09.006. ISSN 0040-1625.
- ^ Соединенные Штаты. Совет по оборонным инновациям. Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта. OCLC 1126650738.
- ^ Стефаник, Элиза М. (22 мая 2018 г.). «H.R.5356 - 115-й Конгресс (2017-2018): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности». www.congress.gov. Получено 13 марта 2020.
- ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта». Информация. 9 (10): 244. Дои:10.3390 / info9100244. ISSN 2078-2489.
- ^ а б Сотала, Кадж; Ямпольский, Роман V (19 декабря 2014 г.). «Ответы на катастрофический риск ОИИ: обзор». Physica Scripta. 90 (1): 018001. Bibcode:2015 ФОТО ... 90A8001S. Дои:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
- ^ Гейст, Эдвард Мур (15 августа 2016 г.). «Уже слишком поздно останавливать гонку вооружений ИИ. Вместо этого мы должны управлять ею». Бюллетень ученых-атомщиков. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. Дои:10.1080/00963402.2016.1216672. ISSN 0096-3402. S2CID 151967826.
- ^ Маас, Маттейс М. (6 февраля 2019 г.). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока из ядерного оружия». Современная политика безопасности. 40 (3): 285–311. Дои:10.1080/13523260.2019.1576464. ISSN 1352-3260. S2CID 159310223.