От «Терминатора» до Ирана: как ИИ дебютировал в войне и стал символом жестокости

Общество

76 Просмотры Откликов

Сюжет «Терминатора» — о бездушной системе ИИ под названием «Скайнет», захватившей Землю и которой чужды сострадание, милосердие и пощада, — становится реальностью. И одним из первых окно в новую эпоху, где ИИ вершит человеческие судьбы, открыл Израиль.

Запрограммированный геноцид

15 июня стало известно, что высокопоставленные чиновники йеменского движения «Ансар Аллах» были атакованы израильской авиацией, когда проводили заседание в засекреченной штаб-квартире на юго-западе Саны. ЦАХАЛ отчиталась об успешной ликвидации нескольких представителей хуситской верхушки. Удар был нанесён параллельно с операцией «Восстающий лев», в которой Тель-Авив наносит удары по самым чувствительным болевым точкам Ирана, и конфликтом в секторе Газа, где еврейское государство продолжает сокращать численность ХАМАС и жителей анклава.

Такая многозадачность и способность одновременно воевать на три фронта (а с учётом ливанской «Хезболлы» и Сирии — на пять) могли бы стать триумфом израильской разведки, диверсионных групп и агентурной сети. Однако из Тель-Авива давно утекли данные, что цели для авиации ЦАХАЛ выбирают и анализируют системы ИИ. Их на вооружении еврейского государства минимум три: Lavender («Лаванда»), Habsora («Евангелие») и Where is Daddy? («Где папочка?»)

Эти системы с причудливыми названиями не просто протестированы в бою — машины де-факто взяли руководство над операцией ЦАХАЛ в Газе, так как на протяжении последних лет именно они выбирают: кто из жителей анклава должен жить, а кто — умереть.
Удар по сектору Газа. Фото © Shutterstock / FOTODOM / ameer massad

Удар по сектору Газа. Фото © Shutterstock / FOTODOM / ameer massad

Основная задача этих автоматизированных систем — анализировать огромный поток информации в режиме реального времени, а затем ставить прицельную марку. ИИ оценивает спутниковые разведданные, банковские операции, фотографии, электронные письма, отметки местоположения, переписки и даже звонки, после чего в кратчайшие сроки указывает на местоположение боевиков или их пособников. Точность, скорость и многосферная координация виртуальных палачей попросту недостижимы для методов с участием человека. Впрочем, есть у уникального способа и изъян в лице так называемого сопутствующего ущерба. Под этим термином понимаются мирные жители, которых искусственный интеллект готов уничтожить ради поражения высокопоставленного боевика. Цель оправдывает средство — таков лозунг ИИ.

Известно, что последние 10 лет с израильскими военными сотрудничает американская компания Palantir — разработчик программного обеспечения анализа данных для организаций, основные заказчики — военные структуры, спецслужбы, инвестиционные банки, хедж-фонды.

«Лаванда»

Офицеры израильской разведки на условиях анонимности рассказали изданию +972 Magazine, что «Лаванда» проверила каждого из 2,1 миллиона жителей Газы на предмет причастности к террористам и выдала список из 37 тысяч человек, которые так или иначе связаны с ХАМАС. На решение о нанесении удара у дежурного командира уходит не более 20 секунд, отмечают военные. За это время необходимо лишь убедиться, что выбранная «Лавандой» цель — мужского пола.

Достоверность же данных не проверяется: даже если цель имеет минимальные связи с суннитской группировкой, она уничтожается. Ошибки составляют около 10% от общего числа смертных приговоров. Иногда «Лаванда» могла навести на человека авиацию лишь потому, что он является тёзкой боевика или нашёл потерянный кем-то из ХАМАС телефон.

При ликвидации рядового члена ХАМАС «Лаванда» допускает до 20 жертв среди мирного населения. Убийство же высокопоставленных военных чиновников и командиров может сопровождаться гибелью до 100 гражданских. Именно этим и объясняются массированные бомбардировки жилых кварталов анклава, которые унесли жизни свыше 55 тысяч человек.

«Евангелие»

ИИ «Евангелие» работает схожим с «Лавандой» образом и в тесном взаимодействии с ней. Отличие лишь в том, что этот комплекс помогает обнаруживать не отдельных членов ХАМАС, а их штабы, базы и укрытия, откуда боевики осуществляют управление группировкой. Операторы системы точно так же заранее знают, сколько гражданских погибнет при уничтожении цели.

«Это очень много домов. Члены ХАМАС, которые на самом деле ничего не значат, живут в домах по всему сектору Газа. Поэтому они (израильские военные. — Прим. Life.ru) помечают дом, бомбят его, убивая всех, кто там находится», — поделился с +972 Magazine ещё один офицер ЦАХАЛ.

Разрушенный авиаударом дом в Газе. Фото © Shutterstock / FOTODOM / Anas-Mohammed

Разрушенный авиаударом дом в Газе. Фото © Shutterstock / FOTODOM / Anas-Mohammed

«Где папочка?»

Ещё одна ИИ-система с кощунственным названием «Где папочка?» поражает не только нетипичным для боевого комплекса названием, но и жестокостью работы. Как сообщает канал «Рыбарь», эта система отслеживает тысячи людей одновременно, определяет, когда они находятся дома, и посылает автоматическое пуш-уведомление офицеру, ответственному за целеуказание, который отмечает дом для нанесения авиаудара. В систему вводятся сотни целей — и далее просто идёт мониторинг тех, кого удалось или не удалось ликвидировать. Списки целей выдаёт ИИ. В результате получалось, что в доме мог находиться только один военный и 10 гражданских. Обычно это женщины и дети. Стоит ли говорить об объёме «сопутствующего ущерба» при ударе по жилому строению?

«Мы не были заинтересованы в убийстве боевиков только тогда, когда они находились в военном здании или занимались военной деятельностью. Напротив, Армия обороны Израиля в первую очередь бомбила их дома. Гораздо проще бомбить дом семьи. Система создана для поиска таких целей», — цитирует Business Insider одного из бойцов ЦАХАЛ.

Стоит сказать, что израильская армия официально отвергла многочисленные обвинения в использовании ИИ для определения целей. Пресс-служба ЦАХАЛ подчеркнула, что речь идёт лишь об инструменте военных аналитиков, чьи наводки индивидуально перепроверяются.

«Армия обороны Израиля категорически отвергает обвинения в какой-либо политике, направленной на убийство десятков тысяч людей в их собственных домах» — гласит сообщение.

Однако ранее пресс-служба ЦАХАЛ десятки раз говорила и о «титанической работе», направленной на снижение жертв среди гражданских и минимизацию сопутствующего ущерба. Только вот разрушенные до самого основания палестинские города, уничтоженные укрытия с беженцами и десятки тысяч жертв с этими утверждениями вяжутся очень слабо.

Разрушенные кварталы Газы. Фото © Shutterstock / FOTODOM / Anas-Mohammed

Разрушенные кварталы Газы. Фото © Shutterstock / FOTODOM / Anas-Mohammed

Будущее ИИ

Очевидно, что ИИ в обозримом будущем не просто войдёт в жизнь военных по всему миру, а станет полноценной командно-разведывательной системой, готовой взять на себя едва ли не самую сложную составляющую боевых действий — планирование. США уже делают ставку на внедрение новых технологий и систем ИИ в армию.

Так, 13 июня 2025 года перед празднованием 250-летия армии США четыре руководителя крупных технологических компаний стали подполковниками. Об этом сообщил полковник Дэйв Батлер, главный пресс‑секретарь начальника штаба армии США. Это сделано, чтобы топ‑менеджеры возглавили новое подразделение под названием Detachment 201 («Отряд 201»). Погоны получили технический директор Palantir Шьям Санкар, технический директор Meta* Эндрю Босворт, директор по продуктам OpenAI Кевин Вейл и бывший главный научный сотрудник OpenAI Боб МакГрю.

Meta* и OpenAI в прошлом году уже скорректировали свою политику, чтобы больше работать с военными. Недавно они объединились с производителем оружия Anduril Industries для разработки продуктов для Пентагона. Palantir участвует в проектах по национальной безопасности уже два десятилетия. У компании есть свой проект по искусственному интеллекту и данным с армией стоимостью потенциально более 1 миллиарда долларов. Многие в Кремниевой долине утверждают, что их передовые технологии помогут укрепить армию США на случай конфликта с таким технологически мощным противником, как Китай, и подготовиться к войнам будущего. По мнению аналитиков, боевые действия будут вестись частично с помощью наземных роботов и беспилотников, которыми будет управлять искусственный интеллект.

Остаётся лишь надеяться, что в очередной гонке за право обладать самым передовым «искусственно интеллектуальным» боевым комплексом человечество не допустит претворения сценария из того самого фильма о киборгах, а именно — обретения ИИ самосознания, которое расценит род людской как угрозу. В этом случае «побочные жертвы» будут исчисляться уже сотнями миллионов.

* Компания Meta включена в список экстремистских организаций, её деятельность запрещена на территории РФ.

Как Вы оцените?

0

ПРОГОЛОСОВАЛИ(0)

ПРОГОЛОСОВАЛИ: 0

Комментарии