Юридические последствия роботизации боевых действий
Роль автономной системы вооружения (АСВ), оснащённой искусственным интеллектом. Нормативно-правовые акты, регламентирующие применения оружия во время ведения военных действий. Типы АСВ с ИИ, примеры применения оружия во время войны между государствами.
Рубрика | Государство и право |
Вид | статья |
Язык | русский |
Дата добавления | 07.12.2024 |
Размер файла | 29,1 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Юридические последствия роботизации боевых действий
Сикач Артём Сергеевич, Емельянов Иван Витальевич
Аннотация
В данной статье рассматривается роль автономной системы вооружения, оснащённые искусственным интеллектом, во время проведения исследования применялись нормативно - правовые акты, конвенции, регламентирующие насчёт применения оружия во время ведения военных действий, приводятся подробности типов автономных систем вооружений с ИИ, а также примеры применения такого типа оружия во время войны между государствами. Приводится вывод по данной теме.
Ключевые слова: искусственный интеллект, автономная система вооружения, юридические последствия, МГП, боевые роботы, три закона робототехники.
Annotation
This article examines the role of autonomous weapons systems equipped with artificial intelligence. During the study, normative legal acts and conventions governing the use of weapons during warfare were applied, details of the types of autonomous weapons systems with AI are provided, as well as examples of the use of this type of weapon during a war between states. The conclusion on this topic is given.
Keywords: artificial intelligence, autonomous weapon system, legal consequences, IHL, combat robots, three laws of robotics.
В Российской Федерации долгое время не было легального определения «Искусственный интеллект». Но в 2020 году был разработан специальный Федеральный закон, который регулирует разработку и внедрение искусственного интеллекта в субъекты РФ. Согласно Федеральному закону N 123-ФЗ от 24.04.2020 "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных" «Искусственный интеллект (ИИ) - это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно - коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Одной из ключевых особенностей интеллектуальных вычислительных систем является их способность приобретать знания посредством обучения (самоидентификации) и применять эти знания для решения определенной проблемы. Робототехника и искусственный интеллект представляют собой наиболее перспективную комбинацию для автоматизации решения задач, не входящих в первичные заводские настройки. В последние годы искусственный интеллект все больше распространяется в роботизированных решениях, обеспечивая гибкость и возможность обучения там, где раньше использовались неизменные производственные настройки.
Без искусственного интеллекта невозможно повышение конкурентоспособности в мире и национальной безопасности. Искусственный интеллект и робототехника широко используются в сфере образования, медицинского обслуживания, пенсионного обеспечения, охраны окружающей среды, осуществления государственного управления, правоприменительной деятельности и цифровой экономики.
История показывает, что если новое оружие имеет существенные преимущества для одного государства, то оно будет постепенно приниматься и другими государствами. С учётом значительных преимуществ, которые могут предложить автономные системы вооружения, есть вероятность того, что их применение будет распространяться уже в следующее десятилетие.
Уже сегодня имеющее место применение подобных автономных систем вооружений в рамках вооружённых конфликтов и контртеррористических операций поднимает серьёзные этические вопросы. Вопрос о том, позволяют ли принципы гуманности принимать машинам решения по поводу жизни и смерти в рамках вооружённых конфликтов без участия человека в процессе принятия таких решений.
Филип Олстон в Промежуточном докладе Специального докладчика по вопросу о внесудебных, суммарных и произвольных казнях № А/65/321 от 23.08.2010 на Шестьдесят пятой сессии Генеральной Ассамблеи ООН отметил, что быстрое развитие технологий в области робототехники и автономных устройств, особенно тех, которые можно использовать для военных целей и в режиме пониженной управляемости со стороны человека - оператора, даёт основание для серьёзных опасений, которые почти не изучены правозащитниками или специалистами по гуманитарной деятельности. В настоящее время вопросы применения искусственного интеллекта и автономных систем вооружений нормами международного гуманитарного права не урегулированы.
Автономная система вооружения - это, по мнение Международного Комитета Красного Креста автономная система, обладающая автономией в выполнении своих “важнейших функций”, т.е. оружие, которое может выбирать (т.е. искать или обнаруживать, идентифицировать, отслеживать) и атаковать (т.е. перехватывать, применять силу против, нейтрализовывать, повреждать или уничтожать) цели без вмешательства человека. В энциклопедии Макса Планка по международному публичному праву указано профессором Уорикского университета Маркусом Вагнером, что “автономные системы вооружения” (далее - “АСВ”), иногда называемые как “летательные автономные роботы” (далее - “ЛАР”), “летательные автономные системы вооружения” (далее - “ЛАВС”) или “роботы - убийцы” являются беспилотными системами вооружения (далее - “БСВ”), которые не зависят от непосредственного участия человека перед или во время их использования. Ещё один исследователь в области международного права Кристоф Хейнс дал понятие боевым автономным роботизированным системам “боевые автономные роботизированные системы (БАРС) представляют собой системы оружия, которые после приведения их в действие способны выбирать и поражать цели без последующего вмешательства оператора”.
Автономность является важнейшей функцией систем искусственного интеллекта, которые при этом наделены и другими способностями, например, способностью к самообучению.
На сегодняшний день применяются некоторые системы вооружения, самостоятельно выполняющие такие “критически важные” функции, как выявление и поражение целей.
Например, некоторые оборонительные вооружения имеют автономные режимы перехвата управляемых и неуправляемых ракет, артиллерийских снарядов и летательных аппаратов противника на близком расстоянии. Пока что эти системы обычно являются стационарными и действуют автономно в течение короткого времени, только при строго определённых обстоятельствах (например, при наличии сравнительно небольшого числа гражданских лиц и объектов) и против ограниченного перечня видов целей (например, главным образом, боеприпасы или транспортные средства). Но в будущем автономные системы вооружения могут функционировать вне жёстко заданных пространственно - временных рамок, сталкиваясь с разнообразными быстро меняющимися обстоятельствами и, может быть, непосредственно выбирая людей в качестве цели. Ведь человек сначала активирует или вводит в действие автономную систему вооружений, после которого она самостоятельно запускается или наносит удар, реагируя на информацию, получаемую датчиками извне, и полагаясь на обобщённый “профиль цели” (набор характеристик/условий, при которых система будет применять силу). Сам оператор такие системы не выбирает данную цель или не знает, какая именно цель была выбрана, не знает он и точного времени и (или) места, где будет применена сила.
Такое оружие не будет соответствовать нормам международного гуманитарного права и увеличит риски причинения смерти или вреда здоровью мирному населению в период вооружённого конфликта. В п. 623 Сводной доктрины Великобритании 2011 г. “Подход Соединённого Королевства к беспилотным летательным аппаратам” отмечается, что истинный искусственный интеллект, благодаря которому машина будет обладать способностью мыслить, большей, чем человеческая. Будет полным изменением игры не только в военной отрасли, но и во всех аспектах современной мысли, а изменение парадигмы технологий искусственного интеллекта было бы разрушительным при их военном применении.
Применение автономных систем вооружений порождает риски, вызванных тем, что его последствия сложно прогнозировать и ограничивать. Утрата человеком контроля и невозможность учёта его мнения в случае применения силы и оружия вызывают серьёзную озабоченность с гуманитарной, правовой и этической точек зрения.
Сам процесс функционирования автономных систем вооружений:
- Порождает риск причинения ущерба всем, кого затрагивает вооружённый конфликт, - как комбатантам, так и гражданским лицам, - а также увеличивает опасность его эскалации;
- Создаёт серьёзные трудности с соблюдением норм международного права, в том числе международного гуманитарного права, а именно норм, призванных защитить гражданских лиц при ведении военных действий;
- Поднимает вопросы, вызывающие серьёзную озабоченность этического характера в том, что касается гуманности, фактически предоставляя датчикам, программам и машинным процессам принимать вместо человека решения, от которых зависит жизнь и смерть людей.
МГП нацелено на защиту человеческого достоинства и защиту жертв вооружённого конфликта посредством введения разных ограничений на применение силы. Международное гуманитарное право, в том числе, запрещает использование определённых средств и методов ведения войны.
Ключевым свойством АСВ, обусловливающее отдельное рассмотрение с точки зрения МГП, является их неподконтрольность человеку, приводящая к разрушительным последствиям, и с этой точки зрения следует рассматривать неподконтрольное человеку оружие как способное нанести вред гражданскому населению, а также вред комбатантам. Ч. 4 ст. 51 Протокола I запрещает нападения неизбирательного характера для целей обеспечения защиты гражданского населения. Согласно п. “в” ст. 23 Положения о законах и обычаях сухопутной войны (приложение к Конвенции о законах и обычаях сухопутной войны от 18 октября 1907 г.) запрещается убивать или ранить неприятеля, который, положив оружие или не имея более средств защищаться, сдался.
Автономная система вооружения, оснащённая искусственным интеллектом, не в состоянии учитывать законы человечности. Ведь для того чтобы АСВ считалась используемой для ведения военных действий, человеческие агенты воюющей стороны должны осуществлять непосредственный контроль над этой системой, чтобы использовать её в качестве средства ведения войны, т.е. не на всякое совершение действий АСВ даже в рамках вооружённого конфликта будет распространяться действие положений и требований МГП.
Автономные ударные системы с использованием искусственного интеллекта создают угрозы, которые можно разделить на три группы:
1. Первая группа включает риски, связанные с исключением человека из цикла принятия решений на применение оружия -- так называемая «проблема значимого человеческого контроля». Представители мировой общественности (неправительственные организации «Stop Killer Robots», «Article 36», «International Committee for Robot Arms Control», бизнесмены и ученые, в частности, Стивен Хокинг, Илон Маск, Стив Возняк) считают, что полностью автономное оружие с большой вероятностью не будет в состоянии соответствовать международному гуманитарному праву и правам человека, создаст проблему с определением ответственных лиц в случае противоправных действий автономных аппаратов. Боевым роботам ставится в вину неспособность испытывать сочувствие, то есть то человеческое чувство, которое нередко выступает сдерживающим фактором в отношении применения оружия. Еще один аргумент против САС -- их использование противоречит принципу гуманности и требованиям общественного сознания.
2. Вторая группа угроз связана с риском нарушения стратегической стабильности. Элементы автономности и искусственного интеллекта приходят во все сферы военного противостояния. Так, в ядерной сфере появляются высокоточные тактические ядерные бомбы и гиперзвуковые аппараты с новыми ядерными боеголовками; в космической области -- беспилотные космические дроны, системы низкоорбитальных спутников наблюдения и связи; в сфере ПРО -- связка системы слежения и наблюдения с системой управления и связи; в киберсфере -- кибероружие и автоматизированная система ответного киберудара. Некоторые из этих видов вооружений, как, например, гиперзвуковые ракеты или средства кибернападения, могут служить инструментом стратегического сдерживания наряду с ядерным оружием. То есть даже у неядерных стран возникает возможность резкого наращивания как потенциала сдерживания, так и ударных возможностей. За этими тенденциями стоит серия рисков:
— риск установления технологического и военного глобального превосходства одной из стран;
— новая гонка вооружений;
— повышение региональной и международной напряженности;
— сокращение транспарентности военных программ;
— игнорирование международного права;
— распространение опасных технологий среди негосударственных субъектов.
Основываясь на опыте военного использования военных и коммерческих дистанционно управляемых беспилотных летательных аппаратов (БПЛА), исследователи делают вывод о том, что технологии производства САС, их компоненты и программное обеспечение получат значительное распространение в мире, что станет толчком для гонки вооружений, приводящей к усилению нестабильности и эскалации разнообразных рисков.
Некоторые эксперты полагают, что поддержание стратегической стабильности в ближайшие десятилетия потребует пересмотра основ теории сдерживания в многополярном мире.
3. Третья группа угроз вытекает из радикального сокращения времени на принятие стратегических решений в рамках системы сбора и анализа разведывательной информации (Intelligence, Surveillance & Reconnaissance (ISR)) и военного управления и связи (Communications, Command and Control (C3)). Главный недостаток человека в сравнении с машиной состоит в том, что человеческому мозгу необходимо слишком много времени для оценки ситуации и принятия верного решения. Целый ряд военных программ в ведущих государствах мира (в частности программы Пентагона Maven, COMPASS, Diamond Shield) нацелен на то, чтобы суперкомпьютеры взяли на себя работу по анализу различных данных и подготовке сценариев для политического и военного руководства.
С этим связаны, как минимум, такие риски:
— нехватка времени для принятия осмысленных решений,
— недостаточный контроль над ситуацией со стороны человека,
— принятие стратегических решений на основе математических алгоритмов и систем машинного обучения, а не человеческой логики,
— отсутствие взаимопонимания между машиной и человеком.
Нейронные сети пока не в состоянии объяснить закономерности своей работы на человеческом языке.
Справедливости ради следует отметить, что глобализация и развитие трансграничных проектов, социальных сетей, транснациональных корпораций, международной кооперации, спутников наблюдения, радиоэлектронных средств слежения сделали мир более прозрачным. В мире появилось много сигнальных датчиков, которые сообщают о появлении новых угроз еще до того, как они материализуются.
Относительно ответственности за причинение ущерба автономными интеллектуальными системами вооружений МГП, в частности его положения, касающиеся ответственности государств, не содержит никаких прямых указаний относительно того, как следует трактовать использование автономных интеллектуальных систем вооружений, но в то же время и не устанавливает напрямую, что государство не несёт ответственности за действия таких систем.
Джон Уивер отмечает, что стандарт применения АИСВ, согласно которому они должны никогда не ошибаться при различении комбатант ов и гражданского населения, кажется не совсем корректным, так как даже люди не всегда могут его придерживаться.
Применение автономных систем вооружений порождает риски, вызванных тем, что его последствия сложно прогнозировать и ограничивать. Утрата человеком контроля и невозможность учёта его мнения в случае применения силы и оружия вызывают серьёзную озабоченность с гуманитарной, правовой и этической точек зрения.
Сам процесс функционирования автономных систем вооружений:
- Порождает риск причинения ущерба всем, кого затрагивает вооружённый конфликт,
- как комбатантам, так и гражданским лицам, - а также увеличивает опасность его эскалации;
- Создаёт серьёзные трудности с соблюдением норм международного права, в том числе международного гуманитарного пр ава, а именно норм, призванных защитить гражданских лиц при ведении военных действий;
- Поднимает вопросы, вызывающие серьёзную озабоченность этического характера в том, что касается гуманности, фактически предоставляя датчикам, программам и машинным процессам принимать вместо человека решения, от которых зависит жизнь и смерть людей.
Российские военные эксперты создали классификацию, в соответствии с которой автономное оружие подразделяется на следующие виды:
1) боевые роботы 1-го поколения с программным и дистанционным управлением, способные функционировать только в организованной среде (например, боевые беспилотные летательные аппараты, которые полностью управляются человеком с земли);
2) боевые роботы 2-го поколения - адаптивные, имеющие своего рода «органы чувств» и способные функционировать в заранее неизвестных условиях, т.е. приспосабливаться к изменениям обстановки (частично управляются человеком при взлёте, заправке и загрузке боеприпасов и иной надобности, допускают человеческое вмешательство);
3) боевые роботы 3-го поколения - интеллектуальные, имеют систему управления с элементами искусственного интеллекта (созданы пока лишь в виде лабораторных макетов).
Что касается роботов 3 поколения, то многие считают, что это всего лишь из области фантастики, но факты о существовании и применении роботов 3 поколения, вынуждающие вернуться к реальности.
Миротворческая общественная организация PAX (МИР) указывает на несколько реально существующих моделей оружия, способных работать на земле, под водой и в воздухе в автономном режиме без прямого управления человеком:
1) наземный стационарный робот SGR-A1, оснащён гранатомётом и автоматом, разработан южнокорейской компанией для контроля границы с Северной Кореей. Благодаря инфракрасным датчикам и программе распознавания движений робот может отслеживать злоумышленников и открыть по ним огонь как в автоматическом, так и в управляемом режиме;
2) израильская разработка «Гарпия» - ракета, выпускаемая с наземного транспортного средства. Автоматически обнаруживает, атакует и уничтожает вражеские радиолокационные излучатели. Может проводить в воздухе до 9 часов в поисках цели;
3) беспилотный стелс самолёт «Нерон», разрабатываемый Францией может находиться в автономном режиме более 3 часов, предназначен для обнаружения и разведки наземных целей. Способен автоматически атаковать, самостоятельно устанавливая цели.
4) Американская автономная подводная лодка «Морской охотник» - предназначена для слежения за вражескими подводными лодками, может работать без контакта с оператором в течение 2 - 3 месяцев.
Исследователи РАХ уверены, что подобные технологии способствуют созданию боевых роботов - убийц в течение долгих, а не десятилетий, как считалось ранее.
Примером современного уровня развития военных технологий, основанных на ИИ, может служить система ИИ Alpha, разработанная компанией Psibernetix (основана выпускниками Университета Цинциннати, США). Alpha победила в имитационном воздушном бою на симулятора военного эксперта - полковника ВВС в отставке Джина Ли, который в должности эксперта занимается обучением военных пилотов и тестирует подобные системы больше 30 лет. Эксперту ни разу не удалось поразить компьютерного противника и не удалось уйти. Alpha испытывали и другие военные пилоты, которые также потерпели поражение.
Следует здесь отметить, что наука движется вперёд, многие страны мира разрабатывают автономные изобретения, играющие роли не только в жизни общества, но и государства, а также в вооружённых силах. Благодаря многим учёным автономные военные вооружения будут помощниками для военных, а также для того или иного государства в целом.
Сама идея использования автономного военного вооружения вызывает интерес множества государств. В докладе Human Rights Watch (HRW), опубликованном в ноябре 2012 г., приведены шесть стран, которые ведут активную разработку автономных видов вооружений: США, Китай, Израиль, Южная Корея, Россия и Великобритания. Кроме того, системы оружия с определённой степенью автономности также разрабатываются и используются в Австралии, Франции, Германии, Индии, Нидерландах, Норвегии, Южной Африке, Швеции и Украине. Это означает, что АСВ набрало настолько больше популярности, что она не оставляет никакого сомнения насчёт её эффективности в её использовании. Положительным результатом этого факта является следующее:
I. Поможет минимизировать количества потери личного состава вооружённых сил, благодаря чему снизит затраты государства как на жалованье госслужащим, так и на социальные статьи расходов (например, выплаты из-за военной травмы).
II. Оснащение автономными системами вооружения ударных беспилотных летательных аппаратов (БПЛА) наподобие MA-9 Reaper позволит свести на нет «человеческий фактор» при нанесении точечных авиаударов по цели. В силу отсутствия эмоциональной составляющей у ИИ исчезнут ситуации, когда оператор, испытывая моральные страдания и чувство жалости, не открывает огонь по противнику, либо, наоборот, в пылу ненависти и агрессии по отношению к противнику допускает излишние жертвы, в том числе и среди мирного населения.
III. Некоторые автоматические системы, управляемые ИИ, превосходят аналогичные системы, которые находятся под управлением человека, в скорости определения цели и нанесении удара по ней, что позволяет сократить срок выполнения задачи. Важным примером может служить «automatic weapons defense systems», в том числе зенитно - артиллерийские комплексы с автоматической системой наведения, используемые для защиты военных кораблей от угрожающих им ракет.
В - четвёртых, введение АСВ в состав вооружённых сил, на мой взгляд, создаст дополнительные рабочие места и позволит «информатизировать» экономику. Согласно данным International Data Corporation объём продаж роботов и дронов разного назначения в 2018 г. выросло в мира на 22,1% по сравнению с 2017 г. и достигла 103,1 млрд долларов.
В 2020 году произошёл военный конфликт в Нагорном Карабахе, в боевых действиях которого участвовали постоянные армии Азербайджана и Армении. В боевых действиях применялись ударные беспилотные аппараты, и их эффективность была подтверждена многократно видеокадрами. Наряду с вооружениями стороны применили перспективные виды вооружений - разведывательные и ударные беспилотные средства. Во время конфликта обе стороны применяли автономные вооружения. Например, Азербайджан использовал беспилотные летательные аппараты (БПЛА) различных типов:
- Турецкие ударные аппараты Bayraktar ТВ2 с высокоточными ракетами и бомбами;
- Несколько видов «дронов - камикадзе» малого размера, в частности барражирующие боеприпасы Sky Striker, Harop, Orbiter-1K и Orbiter-3. Некоторые из них наводятся на радиоизлучение радаров ПВО, другие полагаются на оптические, инфракрасные и иные датчики;
- Израильские разведывательно-дозорные беспилотники Heron TP и Hermes 4507;
- Переделанные под БПЛА древние бипланы Ан-2 в качестве приманки для ПВО, которая обстреливала их и тем самым выдавала свои позиции.
Армения располагала арсеналом небольших беспилотников местного производства, пригодных для разведки и наведения артиллерийского огня, но не для ударных операций: дроны X-55, «Крунк» и «Базе».
Автономная система вооружения имеет много преимуществ в применении для вооружённого конфликта, но многие хотят приостановить производство автономного вооружения. Ведь проблемой применения автономного вооружения состоит в установлении того, как и кем будут соблюдаться нормы международного гуманитарного права. Сможет ли робот провести должное различие между комбатантом и некомбатантом? Для соблюдения норм МГП необходимо, чтобы машины могли адекватно «оценивать» обстановку, оперативно реагировать на её изменения, действовать в соответствии с конкретными обстоятельствами.
Уровень автономности военного вооружения может нести в себе угрозу постоянного ослабления контроля человека за применением силы, что является недопустимым. Применение автономного вооружения может быть разрешено только, если они будут соблюдать принципы МГП. Для этого необходимо в соответствующие механизмы вооружения заложить в обязательном порядке информацию о нормах МГП и алгоритм их неукоснительного соблюдения.
Конкретной нормы, которая относится к автономным система вооружения, не существует. Согласно ст. 36 Дополнительного протокола № 1 к Женевским конвенциям: «При изучении, разработке, приобретении или принятии на вооружение новых видов оружия, средств или методов введения войны Высокая Договаривающаяся Сторона должна определить, подпадает ли их применение, при некоторых или при всех обстоятельствах, под запрещения, содержащиеся в настоящем Протоколе или в каких - либо других нормах международного права, применяемых к Высокой Договарив ающейся Стороне». Давно установившиеся нормы МГП, регулирующие ведение военных действий, в частности, принципы различения целей, соразмерности и принятия предосторожностей при нападении, относятся ко всем новым видам оружия и техническим инновациям в области ведения войны, в том числе, и к автономным системам вооружения.
Самая трудная задача для любого государства, разрабатывающего автономную систему вооружения, заключается в том, чтобы обеспечить её способность функционировать в соответствии со всеми этими принципами. Например, как такое оружие может проводить различие между гражданским лицом и комбатантом, как того требует принцип различения целей. Ведь от
такого оружия может потребоваться, чтобы оно различало комбатантов, которые активно принимают участие в военных действиях, и теми, кто выбыл из строя или сдающимися в плен, а также между гражданскими лицами, принимающими непосредственное участие в вооружённых столкновениях и вооружёнными гражданскими лицами - такими как сотрудники правоохранительных органов или охотники - которые остаются под защитой и по которым нельзя наносить удар. Также автономной системе вооружения необходимо будет действовать в соответствии с принципом соразмерности, согласно которому случайные потери среди гражданского населения, ожидаемые в результате нанесения удара по военному объекту, не должны быть чрезмерными по сравнению с предполагаемым конкретным и непосредственным военным преимуществом.
Иными словами, государства, прежде чем принять на вооружение те или иные АСВ, должны предварительно удостовериться в том, что их применение не вступить в противоречие с основополагающими принципами МГП, такими, как различение целей, соразмерность и принятие предосторожностей при падении.
Так, пункты 38, 39, 42 и 46(а, b) части 3 «Основные правила и различение целей» Руководства Сан-Ремо по международному праву, применимому к вооружённым конфликтам на море гласят:
38. В любом вооруженном конфликте право сторон выбирать средства или методы ведения войны не является неограниченным.
39. Стороны, участвующие в конфликте, всегда проводят различие между гражданскими или другими покровительствуемыми лицами, с одной стороны, и комбатантами -- с другой, а также между гражданскими или другими пользующимися защитой объектами и военными объектами.
42. В дополнение к любым конкретным запретам, обязательным для сторон, участвующих в конфликте, запрещается применение таких средств и методов ведения войны, которые:
a) по своему характеру причиняют излишние повреждения или излишние страдания; или
b) имеют неизбирательное действие, проявляющееся в том, что:
i) они не нацелены или не могут быть нацелены на конкретный военный объект; или
ii) их действие не может быть ограничено, как это требуется в соответствии с нормами международного права, отраженными в наст оящем документе.
46. При нападении соблюдаются следующие меры предосторожности:
a) те, кто планирует нападение, принимает решение о его проведении или осуществляет его, должны сделать все практически возможное для того, чтобы собрать сведения, необходимые для выявления в районе нападения объектов, не являющихся военными объектами;
b) в свете имеющихся у них сведений, те, кто планирует нападение, принимает решение о его проведении или осуществляет его, делают все практически возможное, чтобы нападения ограничивались военными объектами.
И на финале следует сказать, что автономная система вооружения должна будет функционировать так, чтобы это повлияло принимать необходимые меры предосторожности при нападении, которые призваны свести к минимуму число жертв среди гражданского населения.
Но здесь возникает вопрос - кто же понесёт ответственность, если применение автономной системы вооружения приведёт к нарушению МГП?
Автономная система вооружения - это машина, и она не может понести ответственность за нарушение МГП.
Возникает вопрос, выходящий за рамки ответственности тех, кто разворачивает эти системы: кто понесет юридическую ответственность, если в результате функционирования автономной системы вооружения будет совершено военное преступление - инженер, программист, изготовитель или командир, который привел оружие в действие? Если ответственность не может быть определена как того требует международное гуманитарное право, можно ли признать развертывание таких систем законным или этически оправданным?
Проблемы безопасности всегда сопровождают развитие сложных технических систем. Робототехника - не исключение. Начиная с 1979 года, зафиксировано более десяти случаев получения гибели людей при сбоях использования промышленных роботов. Но промышленные роботы системы, не имеющие целью убивать. Боевые роботы намного опаснее и меры безопасности при их использовании должны быть куда как более продуманы. Первыми над этим стали задумываться те, кто наиболее активно применяет подобные системы. Вопрос не праздный, тем более уже имеются прецеденты. 12 октября 2007 года несанкционированным огнём автоматической зенитной пушки GDF-005 «Эрликон» (Oerlikon) в Южной Африке были убиты 9 и ранены 14 военнослужащих. Чем больше будет на вооружении стран мира робототехнических систем, тем выше вероятность подобных случаев.
А 14 февраля 2016 года прецеденты с автономными роботами вышли за границы военной и промышленной сферы и стали касаться всех: впервые попал в аварию самоуправляемый автомобиль Google. В районе Маунтин - Вью, штат Калифорния, он, объезжая препятствие, столкнулся с автобусом. В дорожно-транспортной происшествии никто не погиб, но «очередной звоночек» для человечества прозвенел.
И второй вопрос, вытекающий из первого: кто несёт ответственность в случаях причинения роботами вреда своим военнослужащим или мирному населению? Разделение вины между изготовителем самого робота, разработчиком программного обеспечения для него и оператором (эксплуатирующим подразделением) системы становится актуальным как никогда. Юридически эта ситуация пока не отрегулирована.
Ещё одна спорная ситуация - это наличие морального и этического права предоставлять машинам возможность самостоятельно принимать решение на поражение объектов, в которых может находиться человек.
Но, как бы там ни было, развитие техники неизбежный процесс, его не остановить и к проблемам, которые неизбежно возникнут, нужно готовиться уже сейчас. В апреле 2013, мае 2014 и июне 2015 года вопрос поднимался на совещаниях, проводимых под эгидой ООН в рамках обсуждения развития Конвенции о запрещении или ограничении применения конкретных видов обычного оружия. Совет безопасности ООН выразил обеспокоенность и рекомендовал установить мораторий на развитие автономных боевых роботов (Lethal autonomous robotics - LAR).
Правда решение ООН - всего лишь рекомендация, оно не обязательно к исполнению. Ведущиеся в настоящее время переговоры по разработке нового соглашения наталкиваются на проблему трактовки понятий и желание каждой страны-разработчика оставить за собой право на выполнение ряда работ по данной тематике. В результате ведущие промышленные государства продолжают развитие, а иногда и практическое внедрение, автономных боевых роботов. Так в США уже доведён до стадии испытаний автономный беспилотный истребитель Х49В, в Израиле разрабатывается сеть автоматических пулемётных установок для прикрытия границы, Южная Корея разрабатывает наземный автономный боевой робот SGR -1 и т.п.
Автономная система вооружения имеет свои плюсы и минусы, имеется преимущества, а где-то опасение насчёт того, что автономная система вооружения может выйти из - под контроля, из-за чего может привести к нарушению закона войны, а также к обстрелу не только противников, но и мирного населения. А также может произойти так, что автономная система вооружения пойдёт войной на людей, в том числе на своих создателей. Но не стоит думать, что может ничего хорошего произойти со стороны автономной системы вооружения, ведь она может быть не только инструментом, но и соратником для военных, а также граждан, если вспомнить три закона робототехники писателя фантаста Айзека Азимова, звучат так: Первый закон категорически запрещает роботу вредить людям, второй - приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и третий закон приказывает роботу защищать свою жизнь, не нарушая первых двух. Эти три закона начинают входить в реальность, но чтобы эти три закона могли соблюдаться роботами государству, а также учёным необходимо дальше заниматься урегулированием вопроса насчёт соблюдения норм международного гуманитарного права, а также в недопущении возникновения сбоев в программе.
автономный вооружение искусственный интеллект
Список источников
1. Дремлюга Р.И. Право и этика искусственного интеллекта : учебное пособие / Р.И. Дремлюга. - Владивосток: Издательство Дальневосточного федерального университета, 2021. - 94 с.
2. Козюлин В.Б., Ефимов А.Р. Новый Бонд - машина с лицензией на убийство // Индекс безопасности. 2016. № 1. С. 37-60.; Макаренко С.И. Робототехнические комплексы военного назначения - современное состояние и перспективы развития // Системы управления, связи и безопасности. 2016. № 2. С. 73-132.
3. Петрова Д.А., Гайворонская Я.В., Мамычев А.Ю. Смертоносные автономные системы: этические, юридические, политические проблемы и перспективы их решения // Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. 2019. Т. 11. № 4. С. 33-41.
4. Автономные системы вооружения: вопросы и ответы // Международный комитет красного креста
5. Позиция МККК в отношении автономных систем вооружений // Международный комитет красного креста
6. Автономные системы вооружений: решения об убийстве или уничтожении целей - ответственность людей // Сайт МККК. 2016. 11 апреля
7. Автономные вооружения и законы войны // Валдай Международный дискуссионный клуб
8. Дополнительный протокол к Женевским конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов (Протокол I).
9. Руководство Сан-Ремо по международному праву, применимому к вооруженным конфликтам на море. Сан-Ремо, 12 июня 1994 года.
10. Три закона робототехники Айзека Азимова: к вопросу гуманности применения смертоносных автономных систем вооружения на войне // Теология. Философия. Право
11. Anderson Kenneth, Waxman Matthew C. Law and Ethics for Robot Soldiers // 176 Policy Review. 2012. 35 - 49. Р. 40; см. также: Anderson, Waxman. Law and Ethics for Autonomous Weapons Systems: Why a Ban Won't Work and How the Laws of War Can. Hoover Institution; Stanford University, 2013. Р. 8.
12. Losing Humanity the case against Killer Robots / Human rights watch
13. Schmitt M.N. Autonomous Weapon Systems and International Humanitarian Law: A Reply to the Critics // Harvard National Security Journal Features. 2013. Vol. 4 (2). P. 23.
14. Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system // Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11 - 15 April 2016, Geneva.
15. Олстон Ф. Промежуточный доклад Специального докладчика по вопросу о внесудебных, суммарных и произвольных казнях № A/65/321 от 23.08.2010 на Шестьдесят пятой сессии Генеральной Ассамблеи ООН // . - 27 c. - C. 14.
16. Losing humanity: The Case against Killer Robots / Human Rights Watch. - New York: Human Rights Watch, 2012. - 49 p.
17. Joint Doctrine Note 2/11 “The UK approach to unmanned aircraft systems” // Ministry of Defence of UK. - Swindon: The Development, Concepts and Doctrine Centre, 2011.
18. Сикач А.С. Автономное оружие и МГП / А.С. Сикач / . - 2023. - № 3-1. - С. 51-52.
19. Дополнительный протокол к Женевским конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов (Протокол I).
20. Щербань А.В. К вопросу о международно-правовом регулировании автономных систем вооружения / А.В. Щербань // Закон и право. - 2019. - № 2. - С. 188.
21. Три закона робототехники Айзека Азимова: к вопросу гуманности применения смертоносных автономных систем вооружения на войне // Теология. Философия. Право
22. Сикач А.С. Роль искусственного интеллекта в международном гуманитарном праве / А.С. Сикач // Аллея науки. - 2023. - Т. 1. - № 4(79). - С. 510 - 520.
Размещено на Allbest.ru
Подобные документы
Нормативные правовые акты, регламентирующие порядок применения сотрудниками Федеральной службы безопасности (ФСБ) России оружия и специальных средств. Использование оружия и боевой техники как мера государственного принуждения. Пределы применения оружия.
курсовая работа [26,2 K], добавлен 25.04.2010Юридические аспекты и правовые гарантии применения огнестрельного оружия. Профессиональная обученность как фактор, определяющий его готовность и законность. Психологическая подготовка сотрудников органов внутренних дел к применению огнестрельного оружия.
курсовая работа [34,4 K], добавлен 09.04.2017Понятие ветерана боевых действий, категория военных, подпадающая под него. Правовые основы и законодательное закрепление предоставления социальной поддержки участникам боевых действий. Меры социальной защиты, проблемы, которые возникают при их реализации.
курсовая работа [181,2 K], добавлен 17.03.2015Понятие оружия и его видов. Запрещенные средства и методы ведения военных действий. Правовое регулирование торговли оружием. Основные международные документы, регулирующие оборот оружия. Перспективы создания международного договора о торговле оружием.
курсовая работа [74,4 K], добавлен 28.08.2013Эволюция, признаки, классификация огнестрельного оружия и патронов к нему. Виды следов применения огнестрельного оружия на различных преградах. Осмотр места происшествия в случае применения огнестрельного оружия. Обнаружение, осмотр стреляных пуль, гильз.
дипломная работа [1,8 M], добавлен 27.03.2014Сущность криминалистической баллистики. Виды огнестрельного оружия и специфика следов его применения. Обнаружение огнестрельного оружия, следов его выстрела. Фиксация, изъятие огнестрельного оружия, следов его применения и их криминалистический анализ.
курсовая работа [40,3 K], добавлен 28.02.2010Правовые основы деятельности сотрудников органов ФСБ по освобождению заложников. Условия правомерности применения оружия и спецсредств при освобождении заложников. Законодательное регулирование и правоприменительная практика при использовании оружия.
дипломная работа [81,3 K], добавлен 26.09.2010Лицензионно-разрешительная система ОВД. Порядок выдачи разрешений на право ношения и хранения оружия гражданами. Административно-правовые средства контроля ОВД оборота оружия и боевых припасов, значение его в предупреждении террористических актов.
реферат [47,2 K], добавлен 30.09.2011Осмотр места происшествия, связанного с применением огнестрельного оружия. Работа со следами применения огнестрельного оружия. Правила обнаружения, фиксации и изъятия гильз и пуль, ведение их учета с использованием достижений информационных технологий.
статья [15,6 K], добавлен 12.07.2015Судебная баллистика и ее значение в следственной практике. Боеприпасы, их осмотр и изъятие. Следы, возникающие при производстве выстрелов. Следы применения огнестрельного оружия. Криминалистическое исследование холодного оружия.
курсовая работа [74,9 K], добавлен 15.02.2004