Сюжет «Терминатора» — о бездушной системе ИИ под названием «Скайнет», захватившей Землю и которой чужды сострадание, милосердие и пощада, — становится реальностью. И одним из первых окно в новую эпоху, где ИИ вершит человеческие судьбы, открыл Израиль.
Запрограммированный геноцид
15 июня стало известно, что высокопоставленные чиновники
йеменского движения «Ансар Аллах» были
Такая многозадачность и способность одновременно воевать на три фронта (а с учётом ливанской «Хезболлы» и Сирии — на пять) могли бы стать триумфом израильской разведки, диверсионных групп и агентурной сети. Однако из Тель-Авива давно утекли данные, что цели для авиации ЦАХАЛ выбирают и анализируют системы ИИ. Их на вооружении еврейского государства минимум три: Lavender («Лаванда»), Habsora («Евангелие») и Where is Daddy? («Где папочка?»)
Удар по сектору Газа. Фото © Shutterstock / FOTODOM / ameer massad
Основная задача этих автоматизированных систем — анализировать огромный поток информации в режиме реального времени, а затем ставить прицельную марку. ИИ оценивает спутниковые разведданные, банковские операции, фотографии, электронные письма, отметки местоположения, переписки и даже звонки, после чего в кратчайшие сроки указывает на местоположение боевиков или их пособников. Точность, скорость и многосферная координация виртуальных палачей попросту недостижимы для методов с участием человека. Впрочем, есть у уникального способа и изъян в лице так называемого сопутствующего ущерба. Под этим термином понимаются мирные жители, которых искусственный интеллект готов уничтожить ради поражения высокопоставленного боевика. Цель оправдывает средство — таков лозунг ИИ.
Известно, что последние 10 лет с израильскими военными сотрудничает американская компания Palantir — разработчик программного обеспечения анализа данных для организаций, основные заказчики — военные структуры, спецслужбы, инвестиционные банки, хедж-фонды.
«Лаванда»
Офицеры израильской разведки на условиях анонимности
Достоверность же данных не проверяется: даже если цель имеет минимальные связи с суннитской группировкой, она уничтожается. Ошибки составляют около 10% от общего числа смертных приговоров. Иногда «Лаванда» могла навести на человека авиацию лишь потому, что он является тёзкой боевика или нашёл потерянный кем-то из ХАМАС телефон.
При ликвидации рядового члена ХАМАС «Лаванда» допускает до 20
жертв среди мирного населения. Убийство же высокопоставленных
военных чиновников и командиров может сопровождаться гибелью до 100
гражданских. Именно этим и объясняются массированные бомбардировки
жилых кварталов анклава, которые
«Евангелие»
ИИ «Евангелие» работает схожим с «Лавандой» образом и в тесном взаимодействии с ней. Отличие лишь в том, что этот комплекс помогает обнаруживать не отдельных членов ХАМАС, а их штабы, базы и укрытия, откуда боевики осуществляют управление группировкой. Операторы системы точно так же заранее знают, сколько гражданских погибнет при уничтожении цели.
«Это очень много домов. Члены ХАМАС, которые на самом деле ничего не значат, живут в домах по всему сектору Газа. Поэтому они (израильские военные. — Прим. Life.ru) помечают дом, бомбят его, убивая всех, кто там находится», — поделился с +972 Magazine ещё один офицер ЦАХАЛ.
Разрушенный авиаударом дом в Газе. Фото © Shutterstock / FOTODOM / Anas-Mohammed
«Где папочка?»
Ещё одна ИИ-система с кощунственным названием «Где папочка?» поражает не только нетипичным для боевого комплекса названием, но и жестокостью работы. Как сообщает канал «Рыбарь», эта система отслеживает тысячи людей одновременно, определяет, когда они находятся дома, и посылает автоматическое пуш-уведомление офицеру, ответственному за целеуказание, который отмечает дом для нанесения авиаудара. В систему вводятся сотни целей — и далее просто идёт мониторинг тех, кого удалось или не удалось ликвидировать. Списки целей выдаёт ИИ. В результате получалось, что в доме мог находиться только один военный и 10 гражданских. Обычно это женщины и дети. Стоит ли говорить об объёме «сопутствующего ущерба» при ударе по жилому строению?
«Мы не были заинтересованы в убийстве боевиков только
тогда, когда они находились в военном здании или занимались военной
деятельностью. Напротив, Армия обороны Израиля в первую очередь
бомбила их дома. Гораздо проще бомбить дом семьи. Система создана
для поиска таких целей», —
Стоит сказать, что израильская армия официально
«Армия обороны Израиля категорически отвергает обвинения в какой-либо политике, направленной на убийство десятков тысяч людей в их собственных домах» — гласит сообщение.
Однако ранее пресс-служба ЦАХАЛ десятки раз говорила и о «титанической работе», направленной на снижение жертв среди гражданских и минимизацию сопутствующего ущерба. Только вот разрушенные до самого основания палестинские города, уничтоженные укрытия с беженцами и десятки тысяч жертв с этими утверждениями вяжутся очень слабо.
Разрушенные кварталы Газы. Фото © Shutterstock / FOTODOM / Anas-Mohammed
Будущее ИИ
Очевидно, что ИИ в обозримом будущем не просто войдёт в жизнь военных по всему миру, а станет полноценной командно-разведывательной системой, готовой взять на себя едва ли не самую сложную составляющую боевых действий — планирование. США уже делают ставку на внедрение новых технологий и систем ИИ в армию.
Так, 13 июня 2025 года перед празднованием 250-летия
армии США четыре руководителя крупных технологических компаний
Meta* и OpenAI в прошлом году уже скорректировали свою политику,
чтобы больше работать с военными. Недавно
Остаётся лишь надеяться, что в очередной гонке за право обладать самым передовым «искусственно интеллектуальным» боевым комплексом человечество не допустит претворения сценария из того самого фильма о киборгах, а именно — обретения ИИ самосознания, которое расценит род людской как угрозу. В этом случае «побочные жертвы» будут исчисляться уже сотнями миллионов.
* Компания Meta включена в список экстремистских организаций, её деятельность запрещена на территории РФ.
Комментарии