Армія США застосувала Claude від Anthropic у захопленні Мадуро – ForkLog UA: за даними WSJ

Армія Сполучених Штатів застосувала Claude від Anthropic у спецоперації з арешту президента Венесуели Ніколаса Мадуро. Про це пише WSJ, посилаючись на джерела.

Спецоперація включала атаку з повітря на декілька будівель у Каракасі. Застосування моделі у таких цілях йде врозріз з відкритою політикою Anthropic. Принципи компанії чітко забороняють використовувати ШІ для насильницьких дій, розробки зброї або організації спостереження.

«Ми не можемо коментувати, чи був залучений Claude або будь-яка інша модель в конкретній операції — таємній чи іншій. Будь-яке застосування LLM — як у комерційному секторі, так і в державних установах — має відповідати нашій політиці, що регламентує способи застосування нейромережі. Ми тісно працюємо з партнерами, щоб гарантувати дотримання правил», — повідомив представник Anthropic.

Впровадження Claude у структури Міноборони стало реальним завдяки співпраці Anthropic з Palantir Technologies. Продукти останньої активно використовуються військовими та федеральними правоохоронними органами.

Після нальоту співробітник Anthropic запитав у колеги з Palantir, яку саме роль нейромережа відігравала в операції з арешту Мадуро, пише WSJ. Представник стартапу зазначив, що фірма не обговорювала використання своїх моделей у конкретних місіях «з жодними партнерами, включно з Palantir», обмежуючись лише технічними питаннями.

«Anthropic прихильна до застосування передового ШІ для підтримки національної безпеки США», — додав представник фірми.

Anthropic проти Пентагону?

Представник Пентагону Шон Парнелл оголосив про перегляд відносин з ШІ-лабораторією.

«Нашій державі потрібні партнери, готові допомагати бійцям здобувати перемогу в будь-якій війні», — сказав він.

У липні 2025 року Міністерство оборони США підписало контракти на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у сфері безпеки. Головне управління цифрових і ШІ-технологій відомства планувало застосувати їхні розробки для створення агентних систем безпеки.

Проте вже в січні 2026 року WSJ повідомила про загрозу розірвання угоди з Anthropic. Розбіжності виникли через строгу етичну політику стартапу. Правила забороняють застосовувати модель Claude для масштабного стеження та автономних смертоносних операцій, що ускладнює її використання спецслужбами на зразок ICE і ФБР.

Незадоволення урядовців посилилося на тлі впровадження чатбота Grok у мережу Пентагону. Міністр оборони Піт Гегсет, коментуючи співпрацю з xAI, наголосив, що відомство «не буде використовувати моделі, які не дають змоги вести війни».

Тиск на розробників

Axios, посилаючись на джерела, повідомили, що Пентагон тисне на чотири великі ШІ-компанії, щоб ті дозволили армії США використовувати технології для «всіх законних цілей». Зокрема йдеться про розробку озброєнь, збір розвідданих і бойові операції.

Anthropic відмовляється зняти обмеження на стеження за громадянами США та створення повністю автономного озброєння. Перемовини зайшли в безвихідь, проте швидко замінити Claude складно через технологічну перевагу моделі у специфічних державних завданнях.

Окрім чатбота Anthropic, Пентагон застосовує ChatGPT від OpenAI, Gemini від Google і Grok від xAI в несекретних завданнях. Усі три погодилися послабити обмеження, що діють для звичайних користувачів.

Зараз обговорюється перенесення LLM у секретний контур і їх використання «для всіх законних цілей». Одна з трьох компаній вже згодилася це зробити, інші дві «демонструють більшу гнучкість» у порівнянні з Anthropic.

Мілітаризація ШІ

США — не єдина держава, яка активно впроваджує штучний інтелект в оборонний сектор.

Китай

У червні 2024 року в КНР представили ШІ-командувача для масштабних військових симуляцій за участю всіх видів військ НВАК. Віртуальний стратег наділений широкими повноваженнями, швидко навчається та покращує тактику під час цифрових тренувань.

У листопаді ЗМІ повідомили, що китайські дослідники адаптували модель Llama 13B від Meta для створення інструменту ChatBIT. Нейромережу оптимізували для збору й аналізу розвідувальної інформації, а також підтримки ухвалення оперативних рішень.

Індія

Нью-Делі також зробив ставку на ШІ як каталізатор національної безпеки. Уряд розробив стратегії та програми на національному рівні, заснував спеціальні інститути та органи для впровадження ШІ, а також запустив проєкти із застосування технології в різних сферах.

Велика Британія

Лондон закріпив за штучним інтелектом статус пріоритетного напряму. У «Стратегії ШІ для оборони» (2022) відомство розглядає ШІ як ключовий компонент майбутніх збройних сил. У «Стратегічному оборонному огляді» (2025) технологію названо фундаментальним елементом сучасної війни.

Якщо раніше штучний інтелект у військовому контексті сприймався як допоміжний засіб, то зараз британські Збройні сили планують трансформацію в «технологічно інтегровані сили», де ШІ-системи повинні застосовуватися на всіх рівнях — від штабної аналітики до поля бою.

Нагадаємо, у березні 2025 року Пентагон анонсував використання ШІ-агентів для моделювання зіткнень з іноземними противниками.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *