Смертельное автономное оружие - Lethal autonomous weapon

А BAE Systems Corax во время летных испытаний

Смертельное автономное оружие (Законы) являются разновидностью автономный военная система которые могут самостоятельно искать и поражать цели на основе запрограммированных ограничений и описаний.[1] ЗАКОНЫ также известны как летальные автономные системы оружия (ЗАКОНЫ), автономные системы вооружения (AWS), роботизированное оружие, роботы-убийцы или же бойни.[2] ЗАКОНЫ могут действовать в воздухе, на суше, на воде, под водой или в космосе. Автономность текущих систем по состоянию на 2018 год был ограничен в том смысле, что человек дает окончательную команду атаковать - хотя есть исключения с некоторыми «защитными» системами.

Автономность как оружие

«Автономность» имеет разное значение в разных областях обучения. В инженерии это может относиться к способности машины работать без участия человека. В философии это может относиться к личности, которая морально независима. В политологии это может относиться к способности области самоуправляемый. С точки зрения разработки военного оружия идентификация оружия как автономного не так ясна, как в других областях.[1] Конкретный стандарт, вытекающий из концепции автономии, может сильно различаться у разных ученых, наций и организаций.

У разных людей есть много определений того, что представляет собой летальное автономное оружие. Хизер Рофф, писатель Школа права Университета Кейс Вестерн Резерв, описывает автономные системы оружия как «системы вооруженного оружия, способные обучаться и адаптировать свое« функционирование в ответ на меняющиеся обстоятельства в среде, в которой [они] развернуты », а также способные самостоятельно принимать решения о стрельбе».[3] Это определение автономных систем оружия является довольно высоким порогом по сравнению с определениями таких ученых, как Питер Асаро и Марк Губруд, приведенными ниже.

Такие ученые, как Питер Асаро и Марк Губруд, пытаются установить более низкий порог и считают больше систем оружия автономными. Они считают, что любая система оружия, способная выпустить смертоносную силу без операции, решения или подтверждения со стороны человека-наблюдателя, может считаться автономной. По словам Губруда, система оружия, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система оружия не должна быть способной принимать решения сама по себе, чтобы называться автономной. Напротив, его следует рассматривать как автономный, если он активно участвует в одной или нескольких частях «процесса подготовки», от поиска цели до окончательного выстрела.[4][5]

Другие организации, однако, устанавливают стандарт автономных систем вооружения на более высоком уровне. В Министерство обороны (Соединенное Королевство) определяет автономные системы вооружений как «системы, которые способны понимать намерения и направление более высокого уровня. Исходя из этого понимания и своего восприятия окружающей среды, такая система способна предпринимать соответствующие действия для достижения желаемого состояния. Она способна определять курс действий, из ряда альтернатив, вне зависимости от надзора и контроля со стороны человека - такое взаимодействие человека с системой все же может присутствовать. Хотя общая деятельность автономного беспилотного летательного аппарата будет предсказуемой, отдельные действия могут быть нет. "[6]

В результате состав договора между государствами требует общепринятой маркировки того, что именно представляет собой автономное оружие.[7]

Автоматические защитные системы

Самым старым автоматически срабатывающим летальным оружием является фугас, используется по крайней мере с 1600-х годов, и морские мины, используется по крайней мере с 1700-х годов. Противопехотные мины запрещены во многих странах в 1997 г. Оттавский договор, не считая США, Россию и большую часть Азии и Ближнего Востока.

Некоторые текущие примеры ЗАКОНОВ - автоматизированные "жесткие меры" системы активной защиты, например, управляемый радаром CIWS системы, используемые для защиты кораблей, которые использовались с 1970-х годов (например, США Фаланга CIWS ). Такие системы могут автономно идентифицировать и атаковать встречные ракеты, ракеты, артиллерийский огонь, самолеты и надводные корабли в соответствии с критериями, установленными человеком-оператором. Подобные системы существуют и для танков, например у российских Арена, израильский Трофей, а немецкий AMAP-ADS. Несколько видов стационарных сторожевые пушки, которые могут стрелять в людей и автомобили, используются в Южной Корее и Израиле. Много противоракетная оборона системы, такие как Железный купол, также имеют возможность автономного наведения. Автоматические турели установлены на военные машины называются дистанционные боевые станции.

Основная причина того, что в этих системах не участвует человек, - это необходимость быстрого реагирования. Как правило, они использовались для защиты персонала и объектов от входящих снарядов.

Автономные наступательные системы

Системы с более высокой степенью автономности будут включать дроны или же беспилотные боевые летательные аппараты, например: «Безоружный BAE Systems Taranis прототип реактивного боевого дрона может привести к Система боевой авиации будущего которые могут автономно искать, идентифицировать и определять местонахождение врагов, но могут вступать в бой с целью только с разрешения команды миссии. Он также может защищаться от вражеских самолетов »(Heyns 2013, §45). Northrop Grumman X-47B дрон может взлетать и садиться на авианосцы (продемонстрирован в 2014 году); его планируется развить в Беспилотное авианосное наблюдение и нанесение ударов (UCLASS) система.

Сербский тягач Land Rover Defender с гусеничным боевым роботом "Милош".

В соответствии с Экономист По мере развития технологий будущие применения беспилотных подводных аппаратов могут включать разминирование, установку мин, создание сетей противолодочных датчиков в спорных водах, патрулирование с помощью активного гидролокатора, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы.[8] В 2018 году США Обзор ядерной политики утверждал, что Россия разрабатывает «новую межконтинентальную ядерную автономную торпеду с ядерными двигателями», названную «Статус 6 ".[9]

В Российская Федерация активно развивается искусственный интеллект ракеты,[10] дроны,[11] беспилотные автомобили, военные роботы и роботы-медики.[12][13][14][15][16]

Израильский Министр Аюб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе маленьких, как мухи.[17][18]

В октябре 2018 года Цзэн И, старший руководитель китайской оборонной фирмы Norinco, выступил с речью, в которой сказал, что «на полях сражений будущего не будут сражаться люди» и что использование летального автономного оружия в войне «неизбежно».[19] В 2019 году министр обороны США Марк Эспер обрушился на Китай за продажу беспилотных летательных аппаратов, способных уносить жизни без надзора человека.[20]

В 2019 году британская армия развернула новые беспилотные автомобили и военных роботов.[21]

В ВМС США разрабатывает «призрачные» флоты беспилотные корабли.[22]

Этические и правовые вопросы

Стандарт, используемый в политике США

Текущая политика США гласит: «Автономные… системы вооружения должны быть спроектированы таким образом, чтобы позволить командирам и операторам иметь надлежащий уровень человеческого суждения о применении силы».[23] Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирают и поражают цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «надлежащим уровням» и другим стандартам, а не так, чтобы такие системы оружия не могли соответствовать этим стандартам и были поэтому запрещено.[24] «Полуавтономные» охотники-убийцы, которые самостоятельно идентифицируют и атакуют цели, даже не требуют сертификации.[24] Заместитель министра обороны Роберт Ворк заявил в 2016 году, что министерство обороны «не будет делегировать смертоносные полномочия машине для принятия решения», но, возможно, придется пересмотреть это, поскольку «авторитарные режимы» могут это сделать.[25] В октябре 2016 г. Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США будет использовать дрон войны могли «вести бесконечные войны по всему миру, причем многие из них были тайными, без какой-либо ответственности или демократических дебатов».[26][27] В США искусственный интеллект, связанный с безопасностью, с 2018 года находится в ведении Комиссии национальной безопасности по искусственному интеллекту.[28][29] 31 октября 2019 года Совет по инновациям в обороне Министерства обороны США опубликовал проект отчета, в котором излагаются пять принципов вооруженного ИИ и содержатся 12 рекомендаций по этичному использованию искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор будет всегда иметь возможность заглянуть в «черный ящик» и понять процесс kill-chain. Основная проблема заключается в том, как будет реализован отчет.[30]

Возможные нарушения этики и международных норм

Стюарт Рассел, профессор информатики из Калифорнийский университет в Беркли заявил, что обеспокоенность, которую он испытывает по поводу ЗАКОНОВ, заключается в том, что, по его мнению, это неэтично и бесчеловечно. Основная проблема этой системы заключается в том, что трудно отличить комбатантов от некомбатантов.[31]

Некоторые (например, Ноэль Шарки 2012) обеспокоены тем, нарушат ли ЗАКОНЫ Международное гуманитарное право, особенно принцип различия, который требует способности отличать комбатантов от некомбатантов, и принцип соразмерности, который требует, чтобы ущерб гражданскому населению был пропорционален военной цели.[32] Это беспокойство часто называют причиной для полного запрета «роботов-убийц», но сомнительно, что это беспокойство может быть аргументом против ЗАКОНОВ, не нарушающих международное гуманитарное право.[33][34]

Некоторые говорят, что законы размывают границы того, кто несет ответственность за конкретное убийство,[35] но Томас Симпсон и Винсент Мюллер утверждают, что они могут упростить запись того, кто какую команду отдал.[36] Так же, Стивен Амбрелло, Фил Торрес и Анджело Ф. де Беллис утверждают, что если технические возможности ЗАКОНОВ, по крайней мере, так же точны, как и у солдат-людей, то, учитывая психологические недостатки солдат-людей в военных действиях, следует использовать только эти типы этических ЗАКОНОВ. Точно так же они предлагают использовать чувствительный к стоимости дизайн подход в качестве потенциальной основы для разработки этих законов в соответствии с человеческими ценностями и Международное гуманитарное право.[34]

Кампании по запрету ЗАКОНОВ

Возможность ЗАКОНОВ вызвала серьезные споры, особенно по поводу риска «роботов-убийц», блуждающих по Земле - в ближайшем или далеком будущем. Группа Кампания, чтобы остановить роботов-убийц сформирована в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо с предупреждением об угрозе гонка вооружений искусственного интеллекта и призывая к запрету автономный оружие. Письмо было представлено в Буэнос айрес на 24-м Международная совместная конференция по искусственному интеллекту (IJCAI-15) и был подписан Стивен Хокинг, Илон Маск, Стив Возняк, Ноам Хомский, Skype соучредитель Яан Таллинн и Google DeepMind соучредитель Демис Хассабис, среди прочего.[37][38]

Согласно PAX, полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты удаляются с поля битвы, а общественность дистанцируется от участия в войне, что дает политикам и другим лицам, принимающим решения, больше места в принятии решений, когда и как идти. война.[39] Они предупреждают, что, будучи развернутыми, FAW сделают демократический контроль над войной более трудным - это автор книги Убить Решение - роман по теме - и айтишник Даниэль Суарес также предупреждал о том, что, по его мнению, это может привести к повторной централизации власти в очень немногие руки, потребовав от очень небольшого числа людей идти на войну.[39]

Существуют веб-сайты, протестующие против разработки ЗАКОНОВ, представляя возможное будущее, которое пугает зрителей, если такие исследования по применению искусственного интеллекта для определения оружия продолжатся. На этих веб-сайтах постоянно обновляются новости по этическим и юридическим вопросам, чтобы посетители могли вспомнить последние новости о международных встречах и исследовательские статьи, касающиеся ЗАКОНОВ.[40]

В Святой Престол неоднократно призывал международное сообщество запретить использование АСОЛД. В ноябре 2018 года архиепископ Иван Юркович, постоянный наблюдатель от Святейшего Престола при Организации Объединенных Наций, заявил: «Чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, необходимо действовать незамедлительно: сейчас самое время не допустить, чтобы АСОЛД превратились в реальность завтрашней войны ». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отстраненность от человеческого вмешательства и поставить под вопрос гуманность общества.[41]

По состоянию на 29 марта 2019 г., большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет ЗАКОНЫ.[42] Меньшинство правительств, в том числе Австралии, Израиля, России, Великобритании и США, выступило против запрета.[42]

Нет запрета, но регулирование

Третий подход направлен на регулирование использования автономных систем оружия вместо запрета.[43] Контроль над вооружениями военного ИИ, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной («Трек II») дипломатией сообщества экспертов, а также с процессом правовой и политической проверки.[44][45][46]

Смотрите также

Рекомендации

  1. ^ а б Крутоф, Ребекка (2015). «Роботы-убийцы здесь: юридические и политические последствия». 36 Кардозо Л. Рев: 1837 - через heinonline.org.
  2. ^ Джонсон, Хари (31 января 2020 г.). «Эндрю Ян предостерегает от« убойных роботов »и призывает запретить автономное вооружение во всем мире». venturebeat.com. VentureBeat. Получено 31 января 2020.
  3. ^ Рофф, Хизер (2015). "Смертельное автономное оружие и пропорциональность Jus Ad Bellum".
  4. ^ Асаро, Питер (2012). «О запрете автономных систем оружия: права человека, автоматизация и дегуманизация принятия смертельных решений». красный Крест. 687: 94.
  5. ^ «Автономия без тайны: где провести черту?». 1.0 Человек. 2014-05-09. Получено 2018-06-08.
  6. ^ «Беспилотные авиационные комплексы (JDP 0-30.2)». GOV.UK. Получено 2018-06-08.
  7. ^ «Тейлор и Фрэнсис Групп». www.taylorfrancis.com. Получено 2018-06-08.
  8. ^ «Знакомство с военной робототехникой». Экономист. 25 января 2018 г.. Получено 7 февраля 2018.
  9. ^ «США заявляют, что Россия« разрабатывает »подводную торпеду с ядерным оружием». CNN. 2018. Получено 7 февраля 2018.
  10. ^ «Россия создает ракету, которая может принимать собственные решения». 2017-07-20.
  11. ^ «Цифровое оружие судного дня России: роботы готовятся к войне - Russia Beyond». 2017-05-31.
  12. ^ «Гонка боевых машин: российские боевые роботы готовы принять вызов - RT World News».
  13. ^ "'Товарищ по оружию »: Россия разрабатывает вольнодумную военную машину». 2017-08-09.
  14. ^ «Восстание машин: взгляд на новейшие боевые роботы России». 2017-06-06.
  15. ^ «Терминатор вернулся? Русские добились больших успехов в области искусственного интеллекта». 2016-02-10.
  16. ^ «Виртуальный тренажер для роботов и дронов разработан в России». 2017-05-15.
  17. ^ «Кара: Я не раскрывала государственные секреты о роботах - Джерузалем Пост».
  18. ^ «Мини-ядерные бомбы и осмотр оружия ботов, готовящихся к будущей войне». 2017-03-17.
  19. ^ Аллен, Грегори. «Понимание китайской стратегии искусственного интеллекта». Центр новой американской безопасности. Центр новой американской безопасности. Получено 11 марта 2019.
  20. ^ "Китай экспортирует роботов-убийц на Ближний Восток?". Asia Times. 2019-11-28. Получено 2019-12-21.
  21. ^ «Британская армия приступит к оперативному развертыванию новых роботов в 2019 году | Март 2019 года, новости глобальной индустрии оборонной безопасности | Военная безопасность, глобальная индустрия новостей, армия 2019 года | Архив новостей года».
  22. ^ http://navyrecognition.com/index.php/news/defence-news/2019/march/6898-us-navy-plans-to-build-an-unmanned-ghost-fleet.html
  23. ^ Министерство обороны США (2012). «Директива 3000.09, Автономность в системах оружия» (PDF). п. 2.
  24. ^ а б Губруд, Марк (апрель 2015). «Полуавтономные и самостоятельные: роботы-убийцы в пещере Платона». Бюллетень ученых-атомщиков.
  25. ^ «Пентагон изучает угрозу« роботов-убийц »». Бостон Глобус. 30 марта 2016 г.
  26. ^ "Барак Обама о пяти днях, которые повлияли на его президентство". Daily Intelligencer. 2016-10-03. Получено 3 января 2017.
  27. ^ Деверо, Райан; Эммонс, Алекс (2016-10-03). «Обама беспокоится, что будущие президенты будут вести постоянную тайную войну с дронами». Перехват. Получено 3 января 2017.
  28. ^ Стефаник, Элиза М. (22 мая 2018 г.). «H.R.5356 - 115-й Конгресс (2017–2018 гг.): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности». www.congress.gov. Получено 2020-03-13.
  29. ^ Баум, Сет (30.09.2018). «Противодействие дезинформации суперинтеллекта». Информация. 9 (10): 244. Дои:10.3390 / info9100244. ISSN  2078-2489.
  30. ^ Соединенные Штаты. Совет по оборонным инновациям. Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта. OCLC  1126650738.
  31. ^ Рассел, Стюарт (27 мая 2015 г.). «Станьте противником искусственного интеллекта». Международный еженедельный научный журнал. 521.
  32. ^ Шарки, Ноэль Э. (июнь 2012 г.). «Неизбежность автономной войны роботов *». Международное обозрение Красного Креста. 94 (886): 787–799. Дои:10.1017 / S1816383112000732. ISSN  1816-3831.
  33. ^ Мюллер, Винсент К. (2016). «Автономные роботы-убийцы, наверное, хорошие новости». Ashgate. С. 67–81.
  34. ^ а б Амбрелло, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (01.03.2020). «Будущее войны: может ли летальное автономное оружие сделать конфликт более этичным?». ИИ и общество. 35 (1): 273–282. Дои:10.1007 / s00146-019-00879-x. HDL:2318/1699364. ISSN  1435-5655. S2CID  59606353.
  35. ^ Нягуди, Нягуди Мусанду (09.12.2016). "Докторская диссертация по военной информатике (OpenPhD #openphd): летальная автономия оружия спроектирована и / или рецессивна". Получено 2017-01-06.
  36. ^ Симпсон, Томас В; Мюллер, Винсент К. (2016). «Просто война и убийства роботов». Philosophical Quarterly. 66 (263): 302–22. Дои:10.1093 / pq / pqv075.
  37. ^ "Маск, Хокинг предупреждают об оружии искусственного интеллекта". Блоги WSJ - цифры. 2015-07-27. Получено 2015-07-28.
  38. ^ Гиббс, Сэмюэл (27 июля 2015 г.). «Маск, Возняк и Хокинг призывают запретить боевой ИИ и автономное оружие». Хранитель. Получено 28 июля 2015.
  39. ^ а б «Смертельные решения - 8 возражений против роботов-убийц» (PDF). п. 10. Получено 2 декабря 2016.
  40. ^ "Титульная страница". Запрет летального автономного оружия. 2017-11-10. Получено 2018-06-09.
  41. ^ «Святой Престол возобновляет призыв запретить роботов-убийц». Католическое информационное агентство. Получено 2018-11-30.
  42. ^ а б Гейл, Дэмиен (2019-03-29). «Великобритания, США и Россия среди тех, кто выступает против запрета на использование роботов-убийц». хранитель. Получено 2019-03-30.
  43. ^ Бенто, Лукас (2017). "No Mere Deodands: ответственность человека при использовании агрессивных интеллектуальных систем в соответствии с международным публичным правом". Депозитарий стипендий Гарварда. Получено 2019-09-14.
  44. ^ Гейст, Эдвард Мур (2016-08-15). «Уже слишком поздно останавливать гонку вооружений ИИ. Вместо этого мы должны управлять ею». Бюллетень ученых-атомщиков. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. Дои:10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  45. ^ Маас, Маттейс М. (06.02.2019). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока из ядерного оружия». Современная политика безопасности. 40 (3): 285–311. Дои:10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  46. ^ Экельхоф, Мерел (2019). «Выходя за рамки семантики автономного оружия: значимый человеческий контроль в действии». Глобальная политика. 10 (3): 343–348. Дои:10.1111/1758-5899.12665. ISSN  1758-5899.

дальнейшее чтение

  • Хейнс, Кристоф (2013), «Отчет Специального докладчика по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях», Генеральная Ассамблея ООН, Совет по правам человека, 23 (3), A / HRC / 23/47.
  • Кришнан, Армин (2009), Роботы-убийцы: Законность и этичность автономного оружия (Олдершот: Ashgate)
  • Мюллер, Винсент К. (2016), «Автономные роботы-убийцы, наверное, хорошие новости», в Эцио Ди Нуччи и Филиппо Сантони де Сио (ред.), Дроны и ответственность: Юридические, философские и социотехнические перспективы использования оружия с дистанционным управлением, 67-81 (Лондон: Ashgate).
  • Стюарт Рассел кампания против ЗАКОНОВ
  • Шарки, Ноэль Э (2012), «Автоматизация войны: уроки, извлеченные из дронов», Journal of Law, Information & Science, 21 (2).
  • Симпсон, Томас В. и Мюллер, Винсент К. (2016), «Просто война и убийства роботов», The Philosophical Quarterly 66 (263), 302–22.
  • Певец, Питер (2009), Wired for war: робототехническая революция и конфликт в 21 веке (Нью-Йорк: Пингвин)
  • Министерство обороны США (2012 г.), «Директива 3000.09, Автономность в системах оружия». <Документ о политике в отношении роботов-убийц 2014 г., Final.docx>.
  • Министерство обороны США (2013 г.), «Интегрированная дорожная карта по беспилотным системам на 2013-2038 гг.». <http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E.
  • Этика автономных систем оружия (2014) Семинар в UPenn <https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >