
Корпорація Google проводить обговорення з Міністерством оборони США щодо можливого впровадження Gemini в системи Пентагону у різних рівнях доступу до інформації — від публічних до строго конфіденційних. Про це інформує The Information, спираючись на джерела.
Домовленість надасть можливість Міноборони застосовувати розробку Google «для будь-яких правомірних цілей».
В ході переговорів корпорація запропонувала включити положення, які унеможливлюють використання Gemini для масштабного спостереження за населенням або створення автономної зброї.
Представник Пентагону не став прямо коментувати діалог із Google. Разом з тим, він зазначив, що відомство продовжить впроваджувати передові технології штучного інтелекту шляхом тісної взаємодії з приватним сектором на всіх рівнях секретності.
Скандал з Anthropic
Нещодавній конфлікт між Пентагоном і ШІ-стартапом Anthropic виник саме на цій основі. Він переріс у судовий процес та заборону з боку президента США Дональда Трампа на використання технологій компанії в усіх федеральних структурах.
Передумови з’явилися у липні 2025 року. Тоді Міністерство оборони США уклало угоди на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у сфері безпеки. Головне управління цифрових і ШІ-технологій відомства планувало застосувати їхні розробки для створення агентних систем. З усіх контрагентів лише інструменти Anthropic інтегрували в захищені середовища завдяки їх високій якості.
Однак вже у січні 2026 року WSJ повідомила про ймовірність припинення угоди. Розбіжності з’явилися через сувору етичну політику стартапу: правила Anthropic забороняють використовувати модель Claude для масштабного стеження та в автономних смертоносних операціях.
Незадоволення посадовців збільшилося на тлі інтеграції чат-бота Grok у мережу Пентагону. Міністр оборони Піт Хегсет, коментуючи партнерство з xAI, підкреслив, що відомство «не буде використовувати моделі, які не дозволяють вести війни».
Ситуація загострилася у лютому 2026 року, коли армія США використала Claude в операції із захоплення президента Венесуели Ніколаса Мадуро.
CEO стартапу Даріо Амодей заявив, що Anthropic швидше відмовиться від співпраці з Пентагоном, ніж погодиться на використання своїх технологій у спосіб, який може «підірвати, а не захистити демократичні цінності». Він підтвердив, що проблема полягає у можливому застосуванні інструментів на зразок Claude у двох цілях: «масштабне стеження всередині країни» та «абсолютно автономна зброя».
Принципова позиція Anthropic збільшила популярність продуктів стартапу — користувачі оцінили готовність розробників захищати їхні інтереси.
В той же час, OpenAI зазнала критики за свою угоду з Міністерством оборони. Згодом Сем Альтман назвав це рішення передчасним.
Повернення до початку
Поточні переговори Google з Пентагоном віддзеркалюють події 2018 року. Тоді корпорація припинила участь у Project Maven — програмі, де штучний інтелект використовувався для аналізу відео з дронів.
Компанія вийшла з проєкту через гостре невдоволення співробітників. Більше 3000 людей підписали відкритий лист до керівництва з вимогою припинити розробку ШІ для бойових безпілотників. Випадок викликав широке обговорення в техіндустрії про допустимість використання алгоритмів у військових цілях.
З того часу Google поступово відновлювала відносини з урядом. У 2022 році компанія створила спеціальний підрозділ для роботи з державним сектором.
У 2024 році компанія підписала з Міноборони угоду про взаємодію у сфері ШІ. Вона обмежувалася застосуванням технології в несекретному сегменті.
На початку 2025 року Google вилучила зі своїх внутрішніх принципів ШІ пункт, який прямо забороняв використання технології у «зброї та системах спостереження».
Можливе підписання контракту, який передбачає роботу в секретних середовищах, означає вихід за межі звичайної «взаємодії». Такий крок свідчить про готовність до повномасштабної інтеграції технологій компанії в ключові оборонні операції.
Співробітники проти
Участь Google в оборонних контрактах продовжує викликати внутрішнє незадоволення.
У 2018 році компанія обіцяла ніколи не працювати над військовими технологіями. Проте у квітні 2024 року стало відомо про надання хмарних обчислювальних послуг та доступу до сервісів ШІ Міністерству оборони Ізраїлю.
На цьому фоні близько 200 співробітників DeepMind, профільного підрозділу Google зі ШІ, висловили офіційний протест. Вони закликали розірвати угоди з оборонними відомствами. Автори ініціативи побоюються, що передові розробки лабораторії передаються арміям, які проводять реальні бойові дії.
«Будь-яка участь у військовій та збройовій діяльності негативно впливає на нашу позицію лідера в галузі етичного та відповідального ШІ, а також суперечить нашій місії та заявленим принципам штучного інтелекту», — йдеться в документі, який зібрав підписи близько 5% співробітників.
Пентагон наполягає
У лютому ЗМІ дізналися, що Пентагон закликає провідні компанії зі сфери ШІ зробити свої інструменти доступними в секретних середовищах без стандартних обмежень, які зазвичай застосовуються до користувачів.
Такі мережі використовують для широкого спектра конфіденційних завдань — від планування операцій до наведення зброї. Військові хочуть використати здатність ШІ обробляти інформацію для підтримки прийняття рішень.
Проте нейромережі можуть помилятися та вигадувати факти. Застосування таких інструментів у бойових умовах може призвести до фатальних наслідків.
Компанії ШІ намагаються мінімізувати негативні аспекти своїх продуктів, але в Пентагоні невдоволені такими обмеженнями.
Нагадаємо, у Міноборони мають намір прискорити прийняття рішень за допомогою штучного інтелекту та зробити його ключовим елементом стратегії з об’єднання сенсорів і ударних систем у бойових операціях.
