Регулирование искусственного интеллекта - Regulation of artificial intelligence

В регулирование искусственного интеллекта это развитие госсектора политика и законы для продвижения и регулирования искусственный интеллект (AI); поэтому это связано с более широким регулирование алгоритмов. Нормативно-правовая и политическая среда для ИИ - это новая проблема в юрисдикциях по всему миру, в том числе в Европейский Союз. Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. Регулирование ИИ с помощью таких механизмов, как контрольные советы, также можно рассматривать как социальное средство для достижения Проблема управления AI.

Перспективы

Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования ИИ.[1] Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками.[2][3] Соображения государственного управления и политики, как правило, сосредоточены на технических и экономических последствиях и на надежных и ориентированных на человека системах ИИ.[4] хотя регулирование искусственного сверхразум тоже считается.[нужна цитата ] Законы и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности.[5] Подход государственного управления видит взаимосвязь между законом об ИИ и регулированием, этика ИИ и «общество искусственного интеллекта», определяемое как замена и преобразование рабочей силы, общественное признание и доверие к ИИ, а также преобразование взаимодействия человека в машину.[6] Разработка стратегий государственного сектора для управления и регулирования ИИ считается необходимой на местном, национальном,[7] и на международном уровне[8] и в самых разных областях, от управления государственными услугами[9] и подотчетность[10] правоохранительным органам,[8][11] финансовый сектор,[7] робототехника[12][13] автономные автомобили,[12] военный[14] и национальная безопасность,[15] и международное право.[16][17]

В 2017 г. Илон Маск призвал к регулированию развития ИИ.[18] Согласно с энергетический ядерный реактор, то Тесла Генеральный директор был «явно не в восторге» от того, чтобы выступать за контроль со стороны правительства, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно правила устанавливаются, когда происходит куча плохих вещей, есть общественный резонанс, и по прошествии многих лет создается регулирующее агентство для регулирования этой отрасли. Это займет вечность. В прошлом это было плохо, но не то, что представляло фундаментальный риск для существования цивилизации ».[18] В ответ некоторые политики скептически оценили целесообразность регулирования технологии, которая все еще находится в стадии разработки.[19] Отвечая как на предложения Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич утверждает, что ИИ находится в зачаточном состоянии и что еще слишком рано регулировать эту технологию.[20] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с какой-либо формой гарантии.[21]

Как ответ на проблему управления ИИ

Регулирование ИИ можно рассматривать как позитивное социальное средство управления Проблема управления AI, то есть необходимость обеспечить долгосрочный полезный ИИ, при этом другие социальные реакции, такие как бездействие или запрет, рассматриваются как непрактичные, и такие подходы, как расширение человеческих возможностей за счет трансгуманизм такие подходы, как мозг-компьютерные интерфейсы рассматриваются как потенциально дополнительные.[22][23] Регулирование исследований в общий искусственный интеллект (AGI) фокусируется на роли наблюдательных советов, от университетов или корпораций до международных уровней, и на поощрении исследований в области безопасного ИИ,[23] вместе с возможностью дифференцированного интеллектуального прогресса (приоритетность стратегий снижения риска над стратегиями принятия риска при разработке ИИ) или проведение международного массового наблюдения для осуществления контроля над вооружениями AGI.[22] Например, «AGI Nanny» - это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасных сверхразум а также устранение других серьезных угроз человеческому благополучию, таких как подрыв глобальной финансовой системы, до тех пор, пока не может быть безопасно создан суперинтеллект. Это влечет за собой создание умнее человека, но не сверхразумного, общий искусственный интеллект система, подключенная к большой сети наблюдения с целью наблюдения за человечеством и защиты его от опасностей ».[22] Регулирование сознательных, этически осведомленных ОИИ направлено на их интеграцию в существующее человеческое общество и может быть разделено на рассмотрение их юридического статуса и их моральных прав.[22] Регулирование AI рассматривается как ограничительное, с риском предотвращения развития AGI.[12]

Глобальное руководство

Создание глобального совета управления для регулирования разработки ИИ было предложено как минимум в 2017 году.[24] В декабре 2018 года Канада и Франция объявили о планах создания Международной группы экспертов по искусственному интеллекту при поддержке G7 по образцу Международная группа экспертов по изменению климата, чтобы изучить глобальное влияние ИИ на людей и экономику и направить развитие ИИ.[25] В 2019 году Группа была переименована в Глобальное партнерство по ИИ, но она еще не одобрена Соединенными Штатами.[26][27]

Рекомендации ОЭСР по ИИ[28] были приняты в мае 2019 года, а Принципы искусственного интеллекта G20 - в июне 2019 года.[27][29][30] В сентябре 2019 г. Всемирный Экономический Форум выпустил десять «Руководящих принципов государственных закупок AI».[31] В феврале 2020 года Европейский Союз опубликовал свой проект стратегического документа по продвижению и регулированию ИИ.[8] В Организации Объединенных Наций несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, включая Центр ИИ и робототехники ЮНИКРИ.[15]

Региональное и национальное регулирование

График разработки стратегий, планов действий и программных документов, определяющих национальные, региональные и международные подходы к ИИ[32]

Нормативно-правовая база ИИ - это новая проблема в юрисдикциях по всему миру, в том числе в Европейском союзе.[33] С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и программные документы по ИИ.[34][35] Эти документы охватывают широкий круг тем, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура.[4][36]

Китай

Регулирование ИИ в Китае в основном регулируется Государственный Совет КНР 8 июля 2017 г. «План развития искусственного интеллекта следующего поколения» (Документ Государственного совета № 35), в котором Центральный комитет Коммунистической партии Китая и Государственный совет Китайской Народной Республики призвал руководящие органы Китая содействовать развитию ИИ. Регулирование вопросов этического и правового обеспечения разработки ИИ только зарождается, но политика обеспечивает государственный контроль над китайскими компаниями и ценными данными, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных данных Китайской Народной Республики. стандарты для ИИ, в том числе для больших данных, облачных вычислений и промышленного программного обеспечения.[нужна цитата ]

Европейский Союз

Европейский Союз (ЕС) руководствуется Европейской стратегией искусственного интеллекта,[37] при поддержке Группы экспертов высокого уровня по искусственному интеллекту.[38] В апреле 2019 года Европейская комиссия опубликовала Рекомендации по этике надежного искусственного интеллекта (ИИ),[39] после этого с его Рекомендации по политике и инвестициям для надежного искусственного интеллекта в июне 2019 г.[40]

2 февраля 2020 года Европейская комиссия опубликовала свой Белая книга по искусственному интеллекту - европейский подход к совершенству и доверию.[41] Белая книга состоит из двух основных строительных блоков: «экосистемы передового опыта» и «экосистемы доверия». В последнем излагается подход ЕС к нормативной базе ИИ. В предлагаемом подходе Комиссия различает приложения ИИ с «высоким риском» и «без риска». Только первое должно входить в сферу будущей нормативной базы ЕС. Будет ли это так, в принципе можно определить по двум совокупным критериям, касающимся критических секторов и критического использования. Для приложений искусственного интеллекта с высоким риском рассматриваются следующие ключевые требования: требования к обучающим данным; данные и учет; информационные обязанности; требования к надежности и точности; человеческий надзор; и особые требования для конкретных приложений искусственного интеллекта, например, тех, которые используются для удаленной биометрической идентификации. Приложения ИИ, которые не квалифицируются как «высокорисковые», могут регулироваться схемой добровольной маркировки. Что касается соответствия и правоприменения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, инспекции или сертификации» и / или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в виде основы для сотрудничества национальных компетентных органов могла бы облегчить внедрение нормативной базы.[41]

объединенное Королевство

Великобритания поддержала применение и развитие ИИ в бизнесе через Стратегия цифровой экономики 2015-2018, введен в начале 2015 г. Innovate UK как часть цифровой стратегии Великобритании.[нужна цитата ] В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта дал рекомендации по этике данных.[42] и Институт Алана Тьюринга по ответственному проектированию и внедрению систем искусственного интеллекта.[43] Что касается кибербезопасности, Национальный центр кибербезопасности выпустил руководство по «Интеллектуальным инструментам безопасности».[15][44]

Соединенные Штаты

Обсуждения регулирования ИИ в США включали такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, в том числе то, какое агентство должно руководить, регулирующие и управляющие полномочия этого агентства и как обновлять нормативные акты перед лицом быстро меняющихся технологий, а также роли правительств штатов и судов.[45]

Еще в 2016 году администрация Обамы начала уделять внимание рискам и правилам искусственного интеллекта. В отчете под названием Подготовка к будущему искусственного интеллекта, Национальный совет по науке и технологиям создал прецедент, позволяющий исследователям продолжать разработку новых технологий искусственного интеллекта с небольшими ограничениями. В отчете говорится, что «подход к регулированию продуктов с ИИ для защиты общественной безопасности должен основываться на оценке аспектов риска ...»[46]. Эти риски будут основной причиной для создания любой формы регулирования, при условии, что любое существующее регулирование не будет применяться к технологии искусственного интеллекта.

Первым основным докладом был Национальный план стратегических исследований и разработок в области искусственного интеллекта. 13 августа 2018 года раздел 1051 финансового года 2019 Закон Джона С. Маккейна о разрешении национальной обороны (P.L. 115-232) установил Комиссия национальной безопасности по искусственному интеллекту[нужна цитата ] «рассмотреть методы и средства, необходимые для развития искусственного интеллекта, машинного обучения и связанных с ними технологий для всестороннего удовлетворения потребностей национальной безопасности и обороны США».[47] Управление регулированием ИИ, связанного с безопасностью, обеспечивает Комиссия национальной безопасности по искусственному интеллекту.[48] Закон об инициативе в области искусственного интеллекта (S.1558) - это предлагаемый законопроект, который установит федеральную инициативу, направленную на ускорение исследований и разработок в области ИИ для: среди прочего, экономическая и национальная безопасность США.[49][50]

7 января 2019 г. Указ о сохранении лидерства Америки в области искусственного интеллекта, Управление научно-технической политики Белого дома опубликовало проект Руководство по регулированию приложений искусственного интеллекта, который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ.[51] В ответ Национальный институт стандартов и технологий выпустил документ с изложением позиции:[52] Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет,[53] Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ.[54] Год спустя администрация призвала прокомментировать дальнейшее дерегулирование в другом проекте своего Руководства по регулированию приложений искусственного интеллекта.[55]

Регулирование полностью автономного оружия

Правовые вопросы, связанные с летальные автономные системы оружия (ЗАКОНЫ), в частности соблюдение законы вооруженного конфликта, обсуждаются в Организации Объединенных Наций с 2013 года в контексте Конвенция о конкретных видах обычного оружия.[56] Примечательно, что в 2014, 2015 и 2016 годах состоялись неформальные встречи экспертов, и была назначена Группа правительственных экспертов (ГПЭ) для дальнейшего обсуждения этого вопроса в 2016 году. Набор руководящих принципов по ЗАКОНЫ, утвержденный ГПЭ по ЗАКОНЫ, был принят в 2018.[57]

В 2016 году Китай опубликовал позиционный документ, в котором ставится под сомнение адекватность существующего международного права для решения вопроса о возможности создания полностью автономного оружия, став первым постоянным членом ООН. Советник по безопасности поднять вопрос,[16] и приводит к предложениям по глобальному регулированию.[58] Возможность введения моратория или упреждающего запрета на разработку и использование АСОЛД также неоднократно поднималась другими национальными делегациями в Конвенции о конкретных видах обычного оружия, и за это решительно выступает Кампания, чтобы остановить роботов-убийц - коалиция неправительственных организаций.[59]

Смотрите также

использованная литература

  1. ^ Справочник по закону искусственного интеллекта. Барфилд, Вудроу, Пагалло, Уго. Челтенхэм, Великобритания. 2018. ISBN  978-1-78643-904-8. OCLC  1039480085.CS1 maint: другие (ссылка на сайт)
  2. ^ Wirtz, Bernd W .; Weyerer, Jan C .; Гейер, Кэролин (24.07.2018). «Искусственный интеллект и государственный сектор - приложения и проблемы». Международный журнал государственного управления. 42 (7): 596–615. Дои:10.1080/01900692.2018.1498103. ISSN  0190-0692. S2CID  158829602.
  3. ^ Буйтен, Мириам С. (2019). «На пути к интеллектуальному регулированию искусственного интеллекта». Европейский журнал регулирования рисков. 10 (1): 41–59. Дои:10.1017 / err.2019.8. ISSN  1867–299X.
  4. ^ а б Искусственный интеллект в обществе. Организация экономического сотрудничества и развития. Париж. 11 июня 2019. ISBN  978-92-64-54519-9. OCLC  1105926611.CS1 maint: другие (ссылка на сайт)
  5. ^ Wirtz, Bernd W .; Weyerer, Jan C .; Гейер, Кэролин (24.07.2018). «Искусственный интеллект и государственный сектор - приложения и проблемы». Международный журнал государственного управления. 42 (7): 596–615. Дои:10.1080/01900692.2018.1498103. ISSN  0190-0692. S2CID  158829602.
  6. ^ Wirtz, Bernd W .; Weyerer, Jan C .; Штурм, Бенджамин Дж. (2020-04-15). «Темные стороны искусственного интеллекта: интегрированная структура управления ИИ для государственного управления». Международный журнал государственного управления. 43 (9): 818–829. Дои:10.1080/01900692.2020.1749851. ISSN  0190-0692. S2CID  218807452.
  7. ^ а б Бредт, Стефан (2019-10-04). «Искусственный интеллект (ИИ) в финансовом секторе - потенциальные и общественные стратегии». Границы искусственного интеллекта. 2. Дои:10.3389 / frai.2019.00016. ISSN  2624-8212.
  8. ^ а б c Белая книга: Об искусственном интеллекте - европейский подход к совершенству и доверию (PDF). Брюссель: Европейская комиссия. 2020. с. 1.
  9. ^ Wirtz, Bernd W .; Мюллер, Вильгельм М. (2018-12-03). «Интегрированная структура искусственного интеллекта для государственного управления». Обзор государственного управления. 21 (7): 1076–1100. Дои:10.1080/14719037.2018.1549268. ISSN  1471-9037. S2CID  158267709.
  10. ^ Райзман, Диллон; Шульц, Джейсон; Кроуфорд, Кейт; Уиттакер, Мередит (2018). Алгоритмические оценки воздействия: практическая основа подотчетности государственного агентства (PDF). Нью-Йорк: Институт AI Now.
  11. ^ «На пути к ответственным инновациям в области искусственного интеллекта» (PDF). ЮНИКРИ. 2020. Получено 2020-08-09.
  12. ^ а б c Гуркайнак, Гоненц; Йылмаз, Илай; Хаксевер, Гунес (2016). «Подавление искусственного интеллекта: опасности для человека». Обзор компьютерного права и безопасности. 32 (5): 749–758. Дои:10.1016 / j.clsr.2016.05.003. ISSN  0267-3649.
  13. ^ Ипхофен, Рон; Критикос, Михалис (2019-01-03). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Современные социальные науки: 1–15. Дои:10.1080/21582041.2018.1563803. ISSN  2158-2041.
  14. ^ Принципы ИИ: Рекомендации Министерства обороны по этическому использованию искусственного интеллекта (PDF). Вашингтон, округ Колумбия: Совет по инновациям в области обороны США. 2019. OCLC  1126650738.
  15. ^ а б c Бабута, Александр; Освальд, Марион; Джанжева, Арди (2020). Искусственный интеллект и национальная безопасность Великобритании: политические соображения (PDF). Лондон: Королевский институт объединенных служб.
  16. ^ а б "Роботы с оружием: рост автономных систем оружия". Snopes.com. 21 апреля 2017 г.. Получено 24 декабря 2017.
  17. ^ Бенто, Лукас (2017). "No Mere Deodands: ответственность человека при использовании агрессивных интеллектуальных систем в соответствии с международным публичным правом". Депозитарий стипендий Гарварда. Получено 2019-09-14.
  18. ^ а б "Илон Маск предупреждает губернаторов: искусственный интеллект создает угрозу существованию'". NPR.org. Получено 27 ноября 2017.
  19. ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно». Хранитель. Получено 27 ноября 2017.
  20. ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич».. CNBC. Получено 27 ноября 2017.
  21. ^ Каплан, Андреас; Haenlein, Майкл (2019). «Siri, Siri, в моей руке: кто самый красивый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты. 62: 15–25. Дои:10.1016 / j.bushor.2018.08.004.
  22. ^ а б c d Сотала, Кадж; Ямпольский, Роман V (2014-12-19). «Ответы на катастрофический риск ОИИ: обзор». Physica Scripta. 90 (1): 018001. Дои:10.1088/0031-8949/90/1/018001. ISSN  0031-8949.
  23. ^ а б Барретт, Энтони М .; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного суперинтеллекта для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта. 29 (2): 397–414. arXiv:1607.07730. Дои:10.1080 / 0952813x.2016.1186228. ISSN  0952-813X. S2CID  928824.
  24. ^ Бойд, Мэтью; Уилсон, Ник (2017-11-01). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?». Политика Ежеквартально. 13 (4). Дои:10.26686 / pq.v13i4.4619. ISSN  2324-1101.
  25. ^ Инновации, наука и экономическое развитие, Канада (2019-05-16). «Декларация Международной группы экспертов по искусственному интеллекту». gcnws. Получено 2020-03-29.
  26. ^ «У мира есть план обуздать ИИ, но США это не нравится». Проводной. 2020-01-08. Получено 2020-03-29.
  27. ^ а б «Регулирование ИИ: время пришло?». Информационная неделя. Получено 2020-03-29.
  28. ^ «Принципы ОЭСР по искусственному интеллекту - Организация экономического сотрудничества и развития». www.oecd.org. Получено 2020-03-29.
  29. ^ Заявление министров G20 о торговле и цифровой экономике (PDF). Город Цукуба, Япония: G20. 2019.
  30. ^ «Международная комиссия по этике ИИ должна быть независимой». Природа. 572 (7770): 415. 2019-08-21. Bibcode:2019Натура 572Р.415.. Дои:10.1038 / d41586-019-02491-x. PMID  31435065.
  31. ^ Рекомендации по закупкам ИИ (PDF). Колоньи / Женева: Всемирный экономический форум. 2019.
  32. ^ "ЮНИКРИ :: Межрегиональный научно-исследовательский институт Организации Объединенных Наций по вопросам преступности и правосудия". www.unicri.it. Получено 2020-08-08.
  33. ^ Юридическая библиотека Конгресса (США). Издательский орган, Global Legal Research Directorate. Регулирование искусственного интеллекта в отдельных юрисдикциях. LCCN  2019668143. OCLC  1110727808.
  34. ^ «Обсерватория инноваций в государственном секторе ОЭСР - стратегии ИИ и компоненты государственного сектора». Получено 2020-05-04.
  35. ^ Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Привет, мир: искусственный интеллект и его использование в государственном секторе (PDF). Париж: Обсерватория инноваций в государственном секторе ОЭСР.
  36. ^ Кэмпбелл, Томас А. (2019). Искусственный интеллект: обзор государственных инициатив (PDF). Эвергрин, Колорадо: FutureGrasp, LLC.
  37. ^ Аноним (2018-04-25). «Коммуникационный искусственный интеллект для Европы». Формируя цифровое будущее Европы - Европейская комиссия. Получено 2020-05-05.
  38. ^ smuhana (14.06.2018). «Группа экспертов высокого уровня по искусственному интеллекту». Формируя цифровое будущее Европы - Европейская комиссия. Получено 2020-05-05.
  39. ^ Вайзер, Стефани (2019-04-03). «Укрепление доверия к ИИ, ориентированному на человека». FUTURIUM - Европейская Комиссия. Получено 2020-05-05.
  40. ^ Аноним (26.06.2019). «Политические и инвестиционные рекомендации для надежного искусственного интеллекта». Формируя цифровое будущее Европы - Европейская комиссия. Получено 2020-05-05.
  41. ^ а б Европейская комиссия. (2020). Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию. OCLC  1141850140.
  42. ^ Принципы этики данных (PDF). Лондон: Департамент цифровых технологий, культуры, СМИ и спорта. 2018.
  43. ^ Лесли, Дэвид (2019-06-11). «Понимание этики и безопасности искусственного интеллекта: руководство по ответственному проектированию и внедрению систем искусственного интеллекта в государственном секторе». Дои:10.5281 / zenodo.3240529. S2CID  189762499. Цитировать журнал требует | журнал = (Помогите)
  44. ^ «Интеллектуальные средства безопасности». www.ncsc.gov.uk. Получено 2020-04-28.
  45. ^ Уивер, Джон Франк (2018-12-28). «Регулирование искусственного интеллекта в США». Справочник по закону искусственного интеллекта: 155–212. Дои:10.4337/9781786439055.00018. ISBN  9781786439055.
  46. ^ Комитет Национального совета по науке и технологиям по технологиям (октябрь 2016 г.). «Подготовка к будущему искусственного интеллекта». белый дом.
  47. ^ "Около". Комиссия национальной безопасности по искусственному интеллекту. Получено 2020-06-29.
  48. ^ Стефаник, Элиза М. (22 мая 2018 г.). «H.R.5356 - 115-й Конгресс (2017–2018 гг.): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности». www.congress.gov. Получено 2020-03-13.
  49. ^ Генрих, Мартин (21 мая 2019 г.). «Текст - S.1558 - 116-й Конгресс (2019-2020): Закон об инициативе в области искусственного интеллекта». www.congress.gov. Получено 2020-03-29.
  50. ^ Шерер, Мэтью У. (2015). «Регулирование систем искусственного интеллекта: риски, проблемы, компетенции и стратегии». Серия рабочих документов SSRN. Дои:10.2139 / ssrn.2609777. ISSN  1556-5068.
  51. ^ «Новости AI: Белый дом издает 10 принципов регулирования искусственного интеллекта». Inside Tech Media. 2020-01-14. Получено 2020-03-25.
  52. ^ Лидерство США в области искусственного интеллекта: план федерального участия в разработке технических стандартов и связанных с ними инструментов (PDF). Национальный институт науки и технологий. 2019.
  53. ^ Промежуточный отчет NSCAI для Конгресса. Комиссия национальной безопасности по искусственному интеллекту. 2019.
  54. ^ Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта (PDF). Вашингтон, округ Колумбия: Совет по оборонным инновациям. 2020.
  55. ^ «Запрос комментариев к проекту меморандума главам исполнительных департаментов и агентств», Руководство по регулированию приложений искусственного интеллекта"". Федеральный регистр. 2020-01-13. Получено 2020-11-28.
  56. ^ «Предпосылки к смертоносным системам автономного оружия в КОО». Организация Объединенных Наций Женева.
  57. ^ «Руководящие принципы, утвержденные Группой правительственных экспертов по новым технологиям в области автономных систем летального оружия» (PDF). Организация Объединенных Наций Женева.
  58. ^ Баум, Сет (30.09.2018). «Противодействие дезинформации суперинтеллекта». Информация. 9 (10): 244. Дои:10.3390 / info9100244. ISSN  2078-2489.
  59. ^ "Взгляды страны на роботов-убийц" (PDF). Кампания по остановке роботов-убийц.