NV Премиум

CAESAR имеет собственные мозги. Специалист — о том, как Украина использует в войне искусственный интеллект и как это делает РФ

События

7 октября 2023, 10:25

Искусственный интеллект(ИИ) все больше становится не только привычной частью повседневности, но и переходит в другие сферы, в том числе становится составляющей современных войн. Инструменты ИИ, способные быстро обрабатывать большие массивы информации, используются для анализа оперативной обстановки, определения вражеских целей и принятия решений по их уничтожению, для операций по разведке и логистике. Более того, ИИ оснащены некоторые виды современного вооружения, в частности высокоточные боеприпасы и дроны-камикадзе, которые не требуют постоянного контроля человека, а действуют автономно.

NV обратился к Александру Коваленко, военно-политическому обозревателю группы Информационное сопротивление, с просьбой рассказать, как Украина и РФ используют ИИ в войне.

— Давайте начнем с того, зачем вообще использовать ИИ в войне? Он действительно работает?

Подпишитесь, чтобы прочитать целиком

Нам необходима ваша поддержка, чтобы заниматься качественной журналистикой

Первый месяц 1 ₴. Отписаться можно в любой момент

— Прежде всего, использование ИИ повышает эффективность применения средств поражения. Даже если говорить на уровне боеприпасов и снарядов, то, например, тандемный боеприпас с самонаведением SMArt для немецкой самоходной артиллерийской установки(САУ) Panzerhaubitze 2000 или тандемный боеприпас BONUS для французской САУ CAESAR тоже используют элементы ИИ.

Дело в том, что в их общую базу заложены данные о том, как выглядят вражеские объекты и техника. Таким образом, когда этими боеприпасами производится выстрел, они, находясь в зоне, где нужно нанести поражение по вражескому объекту, сканируют площадь, выбирают цель и, сравнивая изображение со своей базой данных, самостоятельно принимают решение о нанесении удара по одному из этих объектов. Это значительно повышает эффективность нанесения ударов и позволяет реализовывать выстрелы в формате выстрелил и забыл. Фактически оператору не нужно убеждаться — произошло попадание в объект или нет. Поскольку такой высокоточный боеприпас стопроцентно попадет.

Аналогично используются такие системы и при применении дронов-камикадзе, в чью базу внесены данные о вражеских объектах, которые необходимо уничтожить. И это касается не только БПЛА, но и надводных дронов-камикадзе. В последнем случае в базу вносятся данные контуров кораблей из флота врага. Таким образом, приближаясь к объекту, морской дрон сопоставляет изображения, чтобы выяснить, что это за тип судна: вражеский фрегат, корвет или большой десантный корабль. Действительно ли он внесен в базу данных для нанесения поражения. Или же это просто туристический лайнер или другое гражданское судно.

Также ИИ применяется в разведке, поскольку он способен замечать то, чего не видит человеческий глаз. Например, распознавать на местности неестественные или искусственно созданные контуры. ИИ, используя свои алгоритмы и полученные данные, делает вывод: это какой-то деревянный или надувной макет вражеской техники или же реальное оружие, которое необходимо уничтожить.

Кроме того, инструменты ИИ применяются и в логистике, при прокладывании маршрутов по доставке боеприпасов и тому подобное.

— Именно поэтому россияне пытаются маскировать свои корабли в Черном море, окрашивая их в черный цвет?

— Да, они это делают, чтобы уменьшить контуры своих судов. Преимущественно корабли врага имеют серую окраску, и россияне посередине или в носовой, или кормовой части корабля наносят черную краску, чтобы визуально уменьшить или исказить контуры судна. Таким образом фрегат визуально уменьшается до уровня корвета, корвет — до уровня катера погранслужбы и тому подобное. Впрочем, у врага это не очень срабатывает, хотя на больших расстояниях все же может вводить в заблуждение.

Может ли ИИ распознать такую маскировку врага? Думаю, что да. Но все зависит от того, насколько профессионально был создан этот ИИ.

— Вы сказали, что для работы инструментов ИИ нужна база данных, это какая-то глобальная база или для каждого случая она отдельная?

— Если речь о базе данных вооружения, о той технике, которую нужно уничтожать, то да [это глобальная база данных]. Если же речь идет о чем-то другом, то все зависит от того, какой именно алгоритм или программа будет записана. То есть разный ИИ требует разных подходов. Например, если нужен ИИ, который будет искать в открытых источниках какую-то уникальную информацию, то это один алгоритм. Если же нужен ИИ, который должен уничтожить конкретный объект, например, танк, то ему необходимо иметь базу данных танков, которые есть у врага, и ИИ будет их анализировать, когда будет выполнять свою боевую задачу.

— Но ведь, кроме вооружения, ИИ может использоваться и для создания дипфейков, чтобы создать у врага ложное представление о ситуации и вызвать ложную реакцию. Что вам об этом известно?

— Дело в том, что если иметь профессиональный подход, то дипфейк можно распознать. Сейчас создание дипфейков не выведено на столь высокий уровень. Но в целом действительно не подготовленный человек может с легкостью поверить в такие дипфейки.

— Россия также использует инструменты ИИ в войне против Украины?

— Да, россияне пытались создавать дипфейки. Например, была волна, когда в РФ активно использовали генератор изображений на базе ИИ — Midjourney. Следует сказать, что этот генератор работает довольно сложно, там нельзя просто ввести слово, чтобы ИИ это нарисовал, а необходимо вводить определенный алгоритм, написать своеобразную программу, чтобы ИИ выдал соответствующее изображение. Но рядовой житель РФ об этом не знает.

Так вот в России намеренно вводили в алгоритм создания изображения всякий негатив и провокационные ложные данные о западных и украинских политиках и получали дипфейки, например, на Джозефа Байдена, Олафа Шольца, Эммануэля Макрона, Владимира Зеленского, Кирилла Буданова или Валерия Залужного. И выкладывали это в своих соцсетях, мол, вот как ИИ видит этих людей. И в глазах рядовых россиян, которые не знают, что ИИ также можно настроить, эти изображения не только дискредитировали этих людей, но и таким образом подтверждали распространенные среди граждан РФ фейки.

— В таком случае, какие еще опасности существуют от использования ИИ в войнах? И как этого можно избежать?

— Во-первых, с помощью ИИ враг тоже может повышать эффективность ведения войны со своей стороны. А во-вторых, ИИ может помогать вести войну информационно, особенно войну фейков. Как я и говорил, это могут быть намеренно созданные изображения или фото, которые воспринимаются людьми неправильно. Или же это может быть какое-то реальное видеоизображение, на которое наложен дипфейк. И таким образом враг может вводить в заблуждение.

Что касается опасности, будто ИИ может выйти из-под контроля человека. То, несмотря на то, что ИИ обладает высокой способностью к саморазвитию, выход из-под контроля невозможен. Возможен сбой, но не выход из-под контроля. Дело в том, что для выхода из-под контроля ИИ нужен большой ресурс и чтобы этот ресурс был полностью автономным — как по своей эволюции, так и по своим действиям. Но автономности у ИИ нет и в будущем его тоже не будет.

А вот что касается возможного сбоя, то не исключается, что в ходе своего внутреннего развития ИИ может выйти за пределы алгоритмов и начнет выполнять несвойственные ему функции.

Приведу примитивный пример. Скажем, ИИ, занимающийся разработкой нового танка и формирующий его идеальный корпус, неожиданно решит, что в таком новейшем танке должна быть кофеварка, и начнет разрабатывать отдельным алгоритмом эту кофеварку. И постепенно будет уделять все больше своего ресурса для проектирования именно кофеварки, а не танка. Вот такой сбой может произойти.

Как этого избежать? В любом случае должен быть контроль человека, который будет следить за тем, что происходит при выполнении алгоритмов ИИ.

Другие новости

Все новости