2021 год стал рубежным в давно уже обсуждаемой теме применения автономных от человека боевых машин. Если раньше за пультом беспилотных дронов практически всегда находился человек, и именно человек принимал решение о применении оружия, открытии огня и убийстве других людей с помощью дистанционно управляемой техники — то теперь свершилось то, о чём уже не первый год ломают копья на самых высоких международных площадках.
Как стало известно весной, роботы начали находить и убивать людей на поле боя, принимая решения самостоятельно — без участия оператора или его командира. Совсем недавно такой возможности разработчики военной техники и военные ведомства разных стран немного «стеснялись».
Однако известия о том, что подобное уже реально используется на полях сражений, обрушили плотину. После этого разговоры в ООН, конечно, продолжились — но гонка вооружений в области создания автономных боевых роботов (они же «автономные боевые системы», они же «автономные системы уничтожения», они же «смертоносные автономные системы вооружений» в документах ООН, строгая терминология ещё не устоялась) стала вестись публично и открыто.
Начнём с более-менее свежих новостей.
В середине октября 2021 года по сети разлетелись фотографии усовершенствованного «робо-пса» Q-UGV, он же Vision 60, от американской компании Ghost Robotics. Изначально эти многоцелевые четвероногие шагоходы предполагалось использовать для разведки, патрулирования, картографирования, связи, осмотра опасных объектов и тому подобных целей, в каковом качестве испытывались на базе ВВС США Неллис в Неваде, а затем были поставлены на боевое дежурство на базе ВВС Тиндалл во Флориде. Они могут работать как под дистанционным управлением оператора, так и автономно согласно заложенным алгоритмам поведения.
Уже на стадии испытаний разработчик объявил, что гибкая модульность Q-UGV представляет самые широкие и гибкие возможности для использования, ограниченные только возможностями и фантазией владельца. Четыре лапы позволяют дроиду ходить, бегать и карабкаться по очень сложным ландшафтам и постройкам, в том числе разрушенным, в любое время суток и погоду.
Теперь же «робо-пёс» получил на «спину» массивный боевой модуль SPUR (Special Purpose Unmanned Rifle) от SWORD International. Он включает в себя систему снайперский комплекс с электронно-оптическим датчиком и тепловизором, системой анализа целей и наведения, способный вести прицельный огонь на расстоянии до 1200 метров. Он может оснащаться оружейным блоком под патроны Creedmoor калибром 6,5 мм, либо же под стандартные 7.62 NATO.
Важной особенностью получившейся машины разработчики называют её способность действовать без участия оператора в полной автономности. В том числе – что, в общем-то, и стало самой громкой составляющей новости — самостоятельно определять и поражать цели без участия и подтверждения человека-оператора. Более того, сообщается, что этими устройствами то ли ещё заинтересовались, то ли уже начали закупки вооружённые силы США и Австралии, сближающиеся в рамках нового блока AUKUS.
«Что скажете теперь, мешки с костями, а-ха-ха?»19 октября уже российские военные объявили о полигонных испытаниях группы автономных ударных боевых роботов «Маркер» от «Андроидной техники» и Фонда перспективных исследований. Три колёсные и две гусеничные машины, оснащённые пулемётами, гранатомётами и ракетами, без участия операторов занимали выгодные огневые позиции, решали задачи по распределению целей в группе, реагировали на меняющуюся боевую обстановку и обменивались целеуказаниями.
И американские, и российские автономные боевые роботы пока что – по заявлениям военных РФ и США — планируется использовать прежде всего для охраны важных объектов. Российские «Маркеры» ранее уже обкатали на периметре космодрома «Восточный».
И американских «робо-псов», и российских «маркеров» пока что предполагается использовать прежде всего в охране особо важных объектов – как и полагается в классическом киберпанке. И тем и другим уже не суждено стать первым автономным роботом, убившим человека. Эту пальму первенства взяли турецкие боевые роботы — причём не сейчас, а полтора года тому назад.
Весной 2021 года из доклада группы экспертов Совбеза ООН по Ливии мир узнал о первом подтверждённом эпизоде применения автономного боевого робота против противников-людей.
По данным ООН, ещё в марте 2020 года барражирующие боеприпасы-квадрокоптеры STM Kargu-2 турецкого производства, поддерживавшие с воздуха наступающие войска западноливийского ПНС, самостоятельно, без участия операторов определяли цели и атаковали отступающие войска маршала Хафтара.
На эти несколько фраз в вышедшем в марте докладе экспертов ООН мировые СМИ и международные организации обратили внимание только в мае. После чего начался очередной раунд ведущейся уже не первый год дискуссии о границах применимости в военных действиях полностью автономных боевых машин.
Ну а военные ведомства и комплексы ВПК бросились усиленно разрабатывать собственные образцы роботов-убийц — и приоткрывать завесу секретности над уже созданным. Естественно, такие системы все, кто могут, разрабатывают уже давно. Не только американцы, россияне и турки: есть сведения об активной работе в этой области французов, британцев, израильтян, китайцев, южнокорейцев, иранцев. До 2021 года говорить об этом открыто считалось не совсем «приличным» и чреватым бурной общественной критикой. Теперь же все военные ведомства могут кивать на разнообразных вероятных противников и на необходимость не уступать им в военных технологиях.
Те самые квадрокоптеры-камикадзе STM Kargu-2, ставшими первыми в истории применёнными для убийства живой силы противника автономными роботами-убийцами
Беспилотная техника на поле боя — давно уже не новость. Боевые дроны от крупных высотных машин до крохотных разведывательных «вертолётиков» активно применяются в военном деле не первый десяток лет. И не только передовыми странами с высокотехнологичной военной промышленностью, но и всевозможными боевиками. В нашу эпоху победившего киберпанка собрать примитивный боевой дрон можно в гараже из подержанных китайских запчастей.
Однако доселе практически все они были не автономными, а управляемыми дистанционно: за пультом управления какого-нибудь MQ-9 Reaper или шайтан-квадрокоптера с гранатой в стакане обязательно сидел оператор. Именно он направлял движение беспилотника, именно он нажимал на «пуск» после определения цели и принятия решения на поражение. Машина убивала лишь в техническом смысле — решали убить и стреляли вполне конкретные люди: оператор, его командир или политический руководитель, пусть и находясь порой на другом конце земного шара. Война дронов всё равно оставалась войной людей.
Да, в некотором смысле любая «самонаводящаяся» ракета или планирующая бомба тоже является машиной-убийцей: её сенсоры и компьютер вычленяют цель и донаводятся. Иногда она сама – как часть противокорабельных ракет при атаке ордера кораблей — определяет самую важную из нескольких целей и наводится именно на неё. Однако решение об определении целей и пуске такой ракеты всё равно принимает всё тот же человек.
Полностью автономной боевой машиной, причём уже не первый десяток лет стоящей на вооружении, можно назвать разве что российскую систему автоматизированного ответного ядерного удара «Периметр», она же «Мёртвая рука». Однако на пути боевого применения этого «Скайнета» находится такое количество ограничений, что его можно сравнить скорее со своего рода «растяжкой» с гранатой на «двери» массированного ядерного нападения.
Знаменитый автономный боевой робот ED-209 из «Робокопа». В 1987 году это выглядело фантастикой — в 2021 году это уже реальностьТеперь ситуация меняется: роботы выходят на свободную охоту на двуногую добычу. Человек лишь определяет условия, при которых машина определяет цель как враждебную, и открывает огонь без приказа или хотя бы разрешения от оператора.
Это открывает новую страницу в истории войн – и ставит перед человечеством массу непростых вопросов: от прикладных технических до политических, правовых и этических. Если в «традиционном» применении оружия – включая дистанционно управляемые дроны — всегда есть те конкретные люди, которые отдали приказ и нажали на «спусковой крючок», то кого именно и как признавать виновным в убийстве, решение о котором было принято автономным роботом согласно алгоритмам?
Кто будет отвечать, если программа даст сбой, и машины начнут уничтожать гражданских, медиков, миротворцев или собственных военных? Кто сможет дать точный ответ, был ли это сбой, хакерский взлом или злонамеренная имитация ошибки? Кто понесёт ответственность, если боевая машина полностью выйдет из-под контроля и начнёт убивать всех, кого сможет?
Японский демонстрационный пилотируемый робот Kuratas со страйкбольными пулемётамиВ ООН тема автономных боевых машин, и их соответствия нормам международного гуманитарного права, права в области прав человека, конвенции о «негуманном» оружии, активно обсуждается с 2013 года. Как водится — очень этично, но не особенно успешно. Предложения по введению всеобщего моратория на разработку и эксплуатацию автономных боевых систем звучали неоднократно — им выказывали моральную поддержку, но поддерживать всерьёз никто так и не собрался.
На консультациях под эгидой ООН в Женеве в 2018 году из 88 участвовавших стран введение запрета на автономные боевые системы поддержали только 26 государств — и ведущих военных держав среди них не оказалось. Всё, о чём делегации смогли договориться — десяток «потенциальных принципов» самого общего характера: чтобы разработки соответствовали «гуманистическим принципам», а ответственность за их применение всё равно нёс хоть кто-нибудь из людей.
Не возымели особенного эффекта и резолюция Европарламента 2018 года, кампания по запрету автономных боевых роботов 2019 года во главе с лауреаткой Нобелевской премии мира Джоди Уильямс — хотя к ней присоединились 130 общественных организаций из 60 стран мира, а также генеральный секретарь ООН Антониу Гутерриш. По сей день автономные боевые системы находятся в практически не описанной юридически «серой зоне» международного гуманитарного и военного права.
Кампания Stop Killer Robots от Human Rights Watch в августе 2020 года констатировала поддержку уже 165 организаций из 65 стран — однако и то, что лишь 30 из почти 200 стран прямо высказываются в поддержку запрета боевых роботов.
Из заметных военных держав в этом списке оказались только Пакистан и Египет. Прочие предпочитают ограничиваться обтекаемыми формулировками о том, что мы за всё хорошее и гуманное, но не стоит спешить, нужно подумать и разобраться. Международные форумы и встречи разной представительности о запрете автономных боевых машин проходят регулярно в разных точках планеты — но серьёзных перспектив запрета боевых роботов пока что не просматривается.
Дело в том, что запрос на подобные системы у современных военных слишком велик — и продолжит расти в обозримом будущем.
Человек современного урбанизированного общества отнюдь не рвётся убивать и тем более умирать за что бы то ни было. Гуманизм и неприятие насилия в большинстве обществ планеты, что бы ни утверждали некоторые, неуклонно растут — что весьма наглядно показывает и статистика смертей и преступлений, и исследования: к примеру, Стивена Пинкера и Акопа Назаретяна. Число людей, готовых к тому, чтобы идти в атаку на пулемёты и ловить пули своей персональной грудью, а не сидеть с чашкой кофе за пультом дрона в безопасном бункере, падает во всё большем числе стран. То же касается и готовности причинять вред другим людям, даже если это военные враги.
Идеи с отбором в войска психопатов показали сомнительные результаты — подробнее можно почитать в одной из моих старых статей . Даже частные военные компании всё чаще предпочитают избегать идейных боевиков-радикалов и ветеранов с ПТСР, желающих из-за психотравм «жить войной».
В современных военных конфликтах при возрастающем совершенстве технологий всё более сложной проблемой оказывается найти мотивированную пехоту для ближнего боя: которая сможет профессионально штурмовать вражеские позиции и нести неизбежные потери — и при этом не окажется «золотой» в смысле индивидуального отбора и затрат на подготовку, как немногочисленные высокопрофессиональные спецподразделения.
Более того, даже военные потери уровня десятков человек в год для многих современных обществ оказываются чрезмерными и недопустимыми. А опосредованное и дистанционное убийство «из кресла с кофе через монитор» часто оказывается причиной серьёзных психических травм, этических противоречий, проблем социального характера — что уже хорошо осознаётся на примере американских операторов ударных БПЛА.
Однако правительства и прочие политические акторы пока совершенно не готовы отказываться от войны как «последнего довода политиков». И автономные боевые системы в этой ситуации, при всей своей сомнительности с множества точек зрения — слишком удобный инструмент войны будущего.
Автономная машина может иметь несравнимо лучшую скорость реакции и точность, чем любой оператор-человек. С ней не получится так просто перехватить дистанционное управление, как в случае с некоторыми американскими дронами. И уж тем более машина не боится идти в атаку на вражеские позиции. На роботов не нужно писать похоронки, их потери не возмущают избирателей и налогоплательщиков.
У автономной боевой машины нет рефлексирующего и сомневающегося оператора, которого потом придётся лечить от алкоголизма и ПТСР, или разбираться с последствиями «слива» журналистам секретной информации о внесудебных убийствах. Машина не сомневается в этичности и законности участия в некой конкретной операции, особенно не очень официальной.
В конце концов, некоторые вещи можно будет свалить на сбои систем, выразить сожаления — и при этом у военного преступления может не быть конкретного виновника. Ответственность оказывается размытой, никто лично не нажимал на курок — ни оператор, ни командир, ни политик. «Так получилось, это же машина, а мы предупреждали не появляться в том районе».
Естественно, всё более активное применение автономных боевых систем будет встречать всё большее сопротивление общественности. Многие уже имеющиеся проблемы, скорее всего, только усугубятся. Даже операторы-люди трагически часто наносят удары по гражданским или своим же — с машинными алгоритмами это может оказаться ещё более частым явлением.
Очень многие современные конфликты имеют форму партизанской или полупартизанской войны, где грань между комбатантом и некомбатантом крайне размыта. Как именно прописывать машине определение легитимной цели, если человек с автоматом на плече в гражданской одежде может быть и повстанцем, и вполне мирным пастухом, а боевики, скажем, имеют привычку использовать для перемещения машины «скорой помощи»? Как солдату избежать гибели от огня робота, если он собрался сдаться? Как роботу отличить залёгших бойцов противника от неспособных продолжать бой раненых?
Получится ли осуществлять непосредственную поддержку войск в том самом, важном и сложном для современных армий ближнем огневом бою без недопустимого риска обстрела своих солдат — хотя камуфляж и обвес у сторон могут быть похожи до слабой различимости с дистанции, а в «гаражную» РЭБ оказываются способны даже племенные ополченцы в тапочках?
Хуже того: как «разруливать» ситуацию, если боевые роботы автоматически обстреляют солдат, пограничников или роботов другой страны на её территории? А если это случится из-за сбоя или провокации в условиях острого военно-политического кризиса, когда войска стянуты к границам у всех «пальцы пляшут на спусковых крючках»?
Отдельным большим вопросом неизбежно станет совмещение автономных боевых систем с нейросетями. Нейросети могут существенно повысить гибкость, адаптивность и общую эффективность боевых машин, сделать их самообучаемыми, гораздо более живучими и смертоносными — но это же делает их поведение гораздо менее предсказуемым даже для собственных создателей и владельцев. И начинает совсем уж откровенно напоминать классику антиутопий вроде «Терминатора» и страж-птиц Роберта Шекли. А уж если дело дойдёт до автоматизированных систем управления войсками… ну вы поняли.
Всё это открывает массу сложнейших вопросов, которые, так или иначе, придётся решать в ближайшие десятилетия. Опыт человечества показывает, что универсальных рецептов и алгоритмов нет. Люди воздержались от боевого применения ядерного оружия после Хиросимы и Нагасаки – хотя у очень многих «чесались руки» применить его в локальных конфликтах. Люди сумели не пустить в ход огромные запасы химического оружия даже среди жесточайшей Второй мировой войны – за прискорбным исключением японских войск в Китае. В то же время попытки запретить применение, скажем, белого фосфора и противопехотных мин до сих пор не слишком успешны.
Интенсивность международной дискуссии об автономных боевых системах будет возрастать параллельно росту интенсивности их боевого применения. Многое будет зависеть от практики этого применения: от реальной эффективности и полезности на поле боя для военных, от числа громких трагедий, связанных с их использованием.
Возможно, войны будущего превратятся в столкновения армий роботов почти без участия людей. Возможно, общественное давление окажется настолько сильным, а выгоды применения – сомнительными, что сами ведущие военные державы со временем сочтут за благо поддержать запрет и следить за его выполнением. Однако даже в этом случае ход прогресса приведёт к тому, что довольно скоро автономную боевую машину, в том числе с нейросетью, можно будет собрать «в гараже». Что будет иметь следствием ещё одну гору сложнейших военных, социальных и политических проблем.
Ясно только одно: мы уже вступили в эпоху роботов-убийц, превратившихся из фантастики в реальность, и в ближайшие годы мы всё чаще будем видеть их на полях сражений XXI века.
Такие дела.
Комментариев нет:
Отправить комментарий