Государства все чаще используют искусственный интеллект в войнах. Например, он может помочь беспилотникам преодолеть сотни километров, выбрать цель для авиаудара и даже сбить самолет. И это уже вызывает беспокойство ученых, исследователей и правозащитников.
Ваш браузер не поддерживает HTML5
Вот две свежих истории использования ИИ в военных целях. Первая: украинский беспилотник нанес удар по предприятию в Татарстане более чем в тысяче километров от границы Украины и России. Американский телеканал CNN отмечает: часть украинских дальнобойных дронов, атакующих российские предприятия, уже оборудованы искусственным интеллектом. Он позволяет беспилотникам лучше ориентироваться и поражать цели с точностью до нескольких метров.
Вторая: израильское издание "+972" опубликовало материал о программе "Лаванда", основанной на искусственном интеллекте. По словам израильских военных, с которыми поговорили журналисты, "Лаванда" используется для определения целей бомбардировок. Под целями подразумеваются люди, которых программа отметила как предполагаемых боевиков ХАМАС (организации, признанной террористической в США и ЕС). В начале этого витка израильско-палестинского конфликта ЦАХАЛ практически не проверял данные, предоставленные искусственным интеллектом, утверждают собеседники "+972". Один из них говорит: у него было 20 секунд на принятие решения, и он просто одобрял цель, предложенную программой.
После публикации статьи Армия Израиля выпустила заявление: "ЦАХАЛ не использует искусственный интеллект для идентификации террористов и для того, чтобы определить, является ли человек террористом. Информационные системы – исключительно инструмент для аналитиков для определения целей". Позже Госдепартамент США объявил, что проверит информацию, опубликованную журналистами.
Развитием искусственного интеллекта человечество занимается уже несколько десятилетий – к примеру, шахматисты пытаются обыграть компьютер. В 2024 году нейросети доступны каждому – за пару долларов различные приложения на основе фотографий генерируют сотни аватарок, которые выглядят как улучшенная версия человека. Чат GPT и его аналоги пишут простой код, мотивационные письма и даже дипломные работы. К качеству и количеству пальцев на руках аватара все еще остаются вопросы, но это не мешает использовать ИИ для решения скучных задач.
СМОТРИТЕ ТАКЖЕ: Как искусственный интеллект определяет фальсификации на президентских выборах – объясняет соруководитель движения "Голос" Роман Удот
Есть проблемы с этичностью использования нейросетей. Сгенерированные дипфейки могут повлиять на результаты выборов, вызвать массовую панику и привести к другим, не самым желательным, последствиям. 13 марта 2024 года Евросоюз принял первый в мире закон о регулировании искусственного интеллекта, но только для гражданских лиц.
"Интересно, что военных исключили из законодательства по ИИ, и на это есть причина. Многие способы применения искусственного интеллекта в военном деле считаются неприемлемыми. Например, использование биометрических данных для того, чтобы установить личность человека. В обычной жизни это как правило неприемлемо, но в ситуации войны, когда у тебя есть цель, можно использовать эти технологии, чтобы ее определить", – объясняет доцент кафедры систем и предприятий Технологического университета в Хобокене (США) Филип Одонкор.
Для армии нейросети стали новым объектом гонки вооружений. Лидируют в отрасли США, разработки ведут Великобритания, Израиль, Южная Корея, Украина, Россия и Китай.
К военному искусственному интеллекту относятся: беспилотники, роботизированные установки, системы ПВО и умные крылатые ракеты – эти системы сами принимают решения об атаке и убийстве; разведывательные и аналитические системы – нейросети успешно собирают и анализируют данные; компьютерные игры, которые просчитывают вероятность исхода боя; беспилотный грузовой транспорт и другие разработки.
В случае с ИИ, как и с живым человеком, есть вероятность ошибки. Но нейросеть, в отличие от живого оператора, стремится выполнить задачу любой ценой, и встает вопрос, к чему может привести постоянное нарушение первого закона робототехники – не причинять вреда человеку.
Об использовании ИИ в условиях ведения войны в эфире Настоящего Времени рассказал Валерий Яковенко, основатель DroneUa – украинской группы компаний, которая специализируется на интеграции высокотехнологичных решений, в том числе в военную промышленность.
Ваш браузер не поддерживает HTML5
По словам Валерия Яковенко, понимание того, насколько критичным является использование беспилотной машины в контексте выбора целей – вопрос достаточно сложный и опасный даже в мирное время. В военных ситуациях эта технология позволяет сохранять жизни операторов и не подвергать их излишнему риску. "Сейчас, к примеру, на территории Украины существует самая большая в мире территория, где сигнала GPS в принципе нет и навигация невозможна. Искусственный интеллект используется в том числе для того, чтобы выполнять и распознавать объекты в ходе движения, для того чтобы находить себя в пространстве. <...> Когда мы говорим о выборе целей, то регион, где уже известно, что есть враг, противник, там обычно технологии используются с пониманием того, что дружественных целей там быть не может, – говорит он. – Использовать технологии искусственного интеллекта в робототехнике для усиления потребностей безопасности рекомендуется все-таки не с летальным оборудованием, и всегда давать возможность человеку принимать финальное решение, подтверждая выбор цели".
Эксперт объясняет, что искусственный интеллект – это не более чем матричная модель, сравнение сложных объектов с библиотекой знаний, которая находится в облаке или на борту определенного устройства, для того чтобы с высокой долей вероятности подтвердить реальность той или иной цели. Именно поэтому, по его словам, в работе с искусственным интеллектом на текущем этапе развития технологий обязательно должен присутствовать оператор, поскольку компьютеру нельзя доверять на сто процентов. "Если мы говорим о том, что используется сейчас на поле боя в Израиле или в Украине, то технологии отличаются между собой. Украина ведет войну для защиты своих территорий, и Украине легче определять вражеские цели – просто потому, что это немного другой формат защиты. В Израиле действительно есть большое количество потенциальных рисков использования технологий искусственного интеллекта", – уверен основатель DroneUa.
Валерий Яковенко говорит, что те разработки, которые ведет сейчас Украина и используют на поле боя украинские военные, начались еще с момента вторжения в 2014 году. "В момент полномасштабного вторжения была определенная эскалация технологических подходов для того, чтобы украинские решения выкатывали новые и новые технологии, догоняя врага по возможностям защиты своей территории и обгоняя его технологически, потому что такого количества живой силы у украинцев нет – Украина воюет технологиями. Если говорить о тех технологиях, которые использует Украина, то Россия чаще всего копирует наиболее успешные практики с опозданием на пять-шесть месяцев. Очень часто мы видим в информационном пространстве достаточно открытые пропагандистские ролики о тех технологиях, которые Россия на самом деле не использует. Но при этом они об этом говорят. Украина же о своих достижениях чаще всего молчит, пока это не станет уже очевидно всем, потому что на самом деле такие вещи нужно делать тихо и эффективно", – говорит он.
СМОТРИТЕ ТАКЖЕ: "Создать фейк легче, дешевле и быстрее, чем разоблачить его". Как распознать дипфейки – рассказывает аналитик-фактчекер