
Армія Сполучених Штатів застосувала Claude від Anthropic у спецоперації з арешту президента Венесуели Ніколаса Мадуро. Про це пише WSJ, посилаючись на джерела.
Спецоперація включала атаку з повітря на декілька будівель у Каракасі. Застосування моделі у таких цілях йде врозріз з відкритою політикою Anthropic. Принципи компанії чітко забороняють використовувати ШІ для насильницьких дій, розробки зброї або організації спостереження.
«Ми не можемо коментувати, чи був залучений Claude або будь-яка інша модель в конкретній операції — таємній чи іншій. Будь-яке застосування LLM — як у комерційному секторі, так і в державних установах — має відповідати нашій політиці, що регламентує способи застосування нейромережі. Ми тісно працюємо з партнерами, щоб гарантувати дотримання правил», — повідомив представник Anthropic.
Впровадження Claude у структури Міноборони стало реальним завдяки співпраці Anthropic з Palantir Technologies. Продукти останньої активно використовуються військовими та федеральними правоохоронними органами.
Після нальоту співробітник Anthropic запитав у колеги з Palantir, яку саме роль нейромережа відігравала в операції з арешту Мадуро, пише WSJ. Представник стартапу зазначив, що фірма не обговорювала використання своїх моделей у конкретних місіях «з жодними партнерами, включно з Palantir», обмежуючись лише технічними питаннями.
«Anthropic прихильна до застосування передового ШІ для підтримки національної безпеки США», — додав представник фірми.
Anthropic проти Пентагону?
Представник Пентагону Шон Парнелл оголосив про перегляд відносин з ШІ-лабораторією.
«Нашій державі потрібні партнери, готові допомагати бійцям здобувати перемогу в будь-якій війні», — сказав він.
У липні 2025 року Міністерство оборони США підписало контракти на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у сфері безпеки. Головне управління цифрових і ШІ-технологій відомства планувало застосувати їхні розробки для створення агентних систем безпеки.
Проте вже в січні 2026 року WSJ повідомила про загрозу розірвання угоди з Anthropic. Розбіжності виникли через строгу етичну політику стартапу. Правила забороняють застосовувати модель Claude для масштабного стеження та автономних смертоносних операцій, що ускладнює її використання спецслужбами на зразок ICE і ФБР.
Незадоволення урядовців посилилося на тлі впровадження чатбота Grok у мережу Пентагону. Міністр оборони Піт Гегсет, коментуючи співпрацю з xAI, наголосив, що відомство «не буде використовувати моделі, які не дають змоги вести війни».
Тиск на розробників
Axios, посилаючись на джерела, повідомили, що Пентагон тисне на чотири великі ШІ-компанії, щоб ті дозволили армії США використовувати технології для «всіх законних цілей». Зокрема йдеться про розробку озброєнь, збір розвідданих і бойові операції.
Anthropic відмовляється зняти обмеження на стеження за громадянами США та створення повністю автономного озброєння. Перемовини зайшли в безвихідь, проте швидко замінити Claude складно через технологічну перевагу моделі у специфічних державних завданнях.
Окрім чатбота Anthropic, Пентагон застосовує ChatGPT від OpenAI, Gemini від Google і Grok від xAI в несекретних завданнях. Усі три погодилися послабити обмеження, що діють для звичайних користувачів.
Зараз обговорюється перенесення LLM у секретний контур і їх використання «для всіх законних цілей». Одна з трьох компаній вже згодилася це зробити, інші дві «демонструють більшу гнучкість» у порівнянні з Anthropic.
Мілітаризація ШІ
США — не єдина держава, яка активно впроваджує штучний інтелект в оборонний сектор.
Китай
У червні 2024 року в КНР представили ШІ-командувача для масштабних військових симуляцій за участю всіх видів військ НВАК. Віртуальний стратег наділений широкими повноваженнями, швидко навчається та покращує тактику під час цифрових тренувань.
У листопаді ЗМІ повідомили, що китайські дослідники адаптували модель Llama 13B від Meta для створення інструменту ChatBIT. Нейромережу оптимізували для збору й аналізу розвідувальної інформації, а також підтримки ухвалення оперативних рішень.
Індія
Нью-Делі також зробив ставку на ШІ як каталізатор національної безпеки. Уряд розробив стратегії та програми на національному рівні, заснував спеціальні інститути та органи для впровадження ШІ, а також запустив проєкти із застосування технології в різних сферах.
Велика Британія
Лондон закріпив за штучним інтелектом статус пріоритетного напряму. У «Стратегії ШІ для оборони» (2022) відомство розглядає ШІ як ключовий компонент майбутніх збройних сил. У «Стратегічному оборонному огляді» (2025) технологію названо фундаментальним елементом сучасної війни.
Якщо раніше штучний інтелект у військовому контексті сприймався як допоміжний засіб, то зараз британські Збройні сили планують трансформацію в «технологічно інтегровані сили», де ШІ-системи повинні застосовуватися на всіх рівнях — від штабної аналітики до поля бою.
Нагадаємо, у березні 2025 року Пентагон анонсував використання ШІ-агентів для моделювання зіткнень з іноземними противниками.
