Москва не на стороне роботов-убийц
Конференция государств-участников Конвенции о «негуманном» оружии заседала неделю в Женеве, но так и не приняла решения по центральному вопросу повестки – запрету боевого применения роботов-убийц, действующих без контроля со стороны человека. Почему? Объясняет директор Института РУССТРАТ Елена Панина
Рутинные заседания дипломатов обычно не пользуются вниманием публики. Однако встреча, завершившаяся 17 декабря в Женеве, стала исключением из правил: к ней было приковано внимание СМИ и правозащитников по всему миру. Еще бы: обсуждались, ни много ни мало, правила «войны человечества с андроидами».
Так или примерно так подается событие в мировой прессе Шестая Обзорная конференция государств-участников Конвенции о «негуманном» оружии, прошедшая с 13 по 17 декабря под эгидой ООН. На ней дипломаты из 125 стран, включая Россию, безуспешно пытались договориться о том, вносить ли в эту конвенцию САС — смертоносные автономные системы вооружений.
При этом многие зарубежные комментаторы подчеркивали, что именно Россия заняла на данном этапе наиболее четкую позицию против любого обязывающего договора, который бы запрещал применение не контролируемого человеком оружия. «Москва — на стороне роботов-убийц! Русские готовят нашествие машин!» — ну чем не сюжет для медийной раскрутки?
Разыгравшееся воображение обывателя, на которого выплеснули сложнейшую проблему, с готовностью рисует фантасмагорические картины из «Терминатора»: боевые шагающие механизмы истребляют все на своем пути. О том, что, по сути, той же позиции, только не артикулируя ее четко, придерживается и ряд других стран, от США до Австралии и от Израиля до Китая, вспоминали реже. А еще реже – о том, что угроза на настоящий момент просто откровенно надумана. Но обо все по порядку.
«Неприемлемы и отвратительны»
Конвенция о «негуманном» оружии появилась на свет в 1980 году и спустя три года была ратифицирована Советским Союзом. Она была призвана минимизировать чрезмерные повреждения среди солдат противника от тех или иных видов оружия или его неизбирательное действие, угрожающее гражданским лицам. В рамках конвенции было принято пять протоколов, запрещающих или ограничивающих применение мин-ловушек, кассетных боеприпасов, напалма, ослепляющих лазеров. Москва подписала все эти протоколы.
Участники конвенции ежегодно проводят совещания, а раз в пять лет, как сегодня в Женеве, собираются на обзорные конференции с целью решить, что бы еще такого запретить. Договориться удается редко: всякий раз гуманитарные соображения вступают в конфликт с законными оборонными интересами тех или иных государств.
Есть и другое основание для споров: «все запретить», как правило, требуют страны с неразвитым ОПК или те, кому никто не угрожает. Впрочем, как не раз отмечали российские дипломаты, гораздо важнее другая проблема: даже ратифицированные протоколы соблюдаются не всеми и не всегда.
Вопрос о смертоносных автономных системах вооружений (САС) обсуждается на таких совещаниях с 2014 года, а последние четыре года изучается в дискуссионном формате на сессиях Группы правительственных экспертов. Там против полного запрета летального автономного оружия выступают, помимо России, еще целый ряд государств. Среди них США, Великобритания, Франция, ФРГ, Израиль, Южная Корея, Япония — практически все основные разработчики современных систем вооружения. И объясняется это вовсе не только опасением безнадежно отстать в гонке вооружений.
Вслушаемся в аргументацию сторон. Страны вроде Бразилии или Австрии, ратующие за полный запрет САС, высказываются против самой концепции «роботов-убийц», которые самостоятельно выбирают цель на поле боя и решают, уничтожить ее или нет. Они приводят в пример нашумевший инцидент в Ливии, где в марте 2020 года, согласно докладу ООН, турецкий квадрокоптер Kargu-2 произвольно, без связи с оператором, атаковал отступающие подразделения сил, примкнувших к Халифе Хафтару. Называют и другой случай применения искусственного интеллекта в военных целях — в мае 2021 года он, якобы, управлял роем израильских дронов в операции против ХАМАС.
«Машины, которые имеют право убивать без вмешательства человека, политически неприемлемы, морально отвратительны и должны быть запрещены международным правом», — подытожил генеральный секретарь ООН Антониу Гутерриш под аплодисменты Amnesty International и Human Rights Watch.
И Россия разделяет этот гуманистический посыл. Подконтрольность робота человеку прямо прописана в российской Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Вот только прежде чем что-то запрещать, нашим партнерам хорошо бы как следует прояснить, о чем идет речь.
А если бы он вез патроны?
Увы, сторонники полного запрета САС готовы с водой выплеснуть и ребенка. Дай им волю, и они запретили бы вообще все боевые системы, которые пугают их развитым ИИ: от ракет ПРО и истребителей пятого поколения до бытовых дронов — даже несмотря на то, что алгоритмы их работы целиком зависят от человеческого разума.
Начать надо с того, что не очень понятно, как приверженцы запретительных мер вообще собираются отличать боевых роботов от гражданских. Если начинить беспилотный автомобиль взрывчаткой и направить его в сторону людей — это боевое применение или нет? А ведь существуют, к примеру, и безвредные военные дроны, автономно разминирующие местность, но теоретически способные кого-то случайно взорвать, — их тоже следует запретить?
Не удивительно, что нечеткость формулировок в устах экспертов — одна из главных причин неготовности России (и не ее одной) поддержать включение САС в Конвенцию о «негуманном» оружии. Строго говоря, таких систем в мире до сих пор просто не существует: турецкий и израильский казусы — это пока лишь квазиавтономное оружие. Превентивно прописывать в конвенции гипотетическую проблему по принципу «А если бы он вез патроны?» — не лучшее занятие для дипломатов.
Этические вопросы, связанные с САС, по большому счету тоже спорны. Не только российские, но и западные военные эксперты считают, что чем оружие умнее, тем оно гуманнее, поскольку уменьшает число «сопутствующих потерь». Не говоря уже о том, что применение боевых роботов на поле боя сохраняет жизни собственных солдат. Для многих стран этот аргумент выглядит весомее, чем апокалиптические мантры тех, кто в упор не замечает куда большие злодеяния на планете.
В целом же, Москва исходит из того, что действующих норм международного права пока что достаточно, чтобы охватить всю сферу смертоносных автономных систем вооружения. Протолкнуть новые протоколы в обход России и доброго десятка других держав, может, и получится — только они не будут стоить ни гроша. При этом, как подчеркивает директор Департамента по вопросам нераспространения и контроля над вооружениями МИД РФ Владимир Ермаков, к продолжению обсуждения проблематики САС в рамках профильной Группы правительственных экспертов Россия вполне готова.
А если оценивать перспективу, то очень похоже, что спор идет о том, с помощью каких именно норм следует взять под контроль разработки боевых интеллектуальных автоматов. Причем, спор этот явно растянется на годы, если не на десятилетия. И если расставить в нем все точки над «i» нереально, то сейчас принципиально важно договориться о том, как его вести, не впадая ни в режим обвинения, ни в панические запреты. Очевидно ведь, что никакие договоренности в рамках или вне рамок ООН не способны остановить научно-технический прогресс. Далеко не всегда они могут, как мы, к сожалению, не раз убеждались, и предотвратить сползание к новым войнам — с роботами или без оных.
Больше того, эксперты давно высказывают опасение, что САС могут попасть в руки криминальных и террористических структур, которые вовсю пользуются, скажем, теми же дронами. Понятно, что появление «роботов-убийц» на черном рынке вооружений сопоставимо с попаданием на него ядерного оружия. Это, безусловно, сулит человечеству такие сценарии, что кинопроделки Терминатора покажутся детскими шалостями.
В этом смысле намечающаяся новая гонка военных технологий поднимает проблемы, с которыми человечество просто еще не сталкивалось. А значит необходимо договориться о том, как взять под контроль передачу «критической функции» (терминология Красного Креста), включить принцип обязательного контроля и ответственности оператора за применением оружия в национальные законодательства, а потом уже договариваться об общих правилах. Некоторые идут еще дальше и ставят вопрос о создании структур, которые будут препятствовать проникновению военных инноваций на криминальные рынки.
И еще один вывод, который, если посмотреть на ситуацию без эмоций, вытекает из позиции Москвы по этой будоражащей воображение теме. Обсуждение норм по таким темам требует профессионального разговора, без ажиотажа и апелляций к общественному мнению, для которого в приоритете сюиминутные решения – как в кино.
Иначе сложный разговор о «роботах-убийцах» рискует превратиться в их активную маркетинговую рекламу.