
Компанія SpaceX та її нещодавно створена ШІ-компанія xAI беруть участь у таємному тендері Міністерства оборони США на розробку автономних роїв безпілотників з можливістю голосового контролю, повідомляє Bloomberg, посилаючись на інформаторів.
Участь обох стартапів підприємця у розробці збройних систем, заснованих на штучному інтелекті, — це несподіваний та потенційно спірний крок для мільярдера, зауважує видання.
SpaceX вже давно є військовим підрядником, а Маск активно підтримує прогрес ШІ, проте раніше висловлював заперечення проти створення «нових інструментів для знищення людей».
У 2015 році мільярдер підписав відкритий лист, який попереджав про небезпеки автономної зброї. Підприємець закликав до заборони зброї, яка може самостійно вибирати цілі та діяти без значного втручання людини.
Суть проєкту
Для участі у піврічному конкурсі з бюджетом $100 млн було відібрано обмежену кількість підприємств. Його мета — створити передову «технологію рою, яка здатна перетворювати усні команди на цифрові вказівки та координувати роботу багатьох дронів».
Здатність одночасно координувати дії декількох дронів вже існує. Проте розробка програмного забезпечення для одночасного управління десятками апаратів залишається непростим завданням.
Проєкт буде реалізовано у п’ять етапів — від створення програмного забезпечення до випробувань у реальних умовах. БПЛА будуть використані в наступальних операціях, стверджує Bloomberg.
Стартап xAI розпочав активний пошук інженерів у Вашингтоні та на Західному узбережжі США з наявним допуском до державної таємниці для співпраці з федеральними підрядниками.
У січні ШІ-агента Grok було інтегровано в мережу Пентагону. Міністр оборони США Піт Хегсет заявив, що «надасть всі необхідні дані» з військових IT-систем, включаючи інформацію з розвідувального відділу.
Раніше Міністерство оборони США виділило $200 млн компаніям Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у сфері безпеки.
Головне управління цифрових і ШІ-технологій відомства повідомило, що фінансування допоможе прискорити впровадження передових можливостей нейромереж у засоби національної безпеки.
OpenAI теж
SpaceX вже давно є оборонним підрядником, але в основному компанія займалася ракетами багаторазового використання та супутниками для космічних досліджень, військового зв’язку та розвідки. Про ПЗ для наступальної зброї не йшлося.
Вона не єдина, хто бере участь у проєкті. OpenAI підтримує заявку компанії Applied Intuition. Однак обмежиться лише елементом «центру управління місією», який перетворюватиме усні інструкції командирів на цифрові команди.
Технології компанії Сема Альтмана не будуть використані для управління дронами, інтеграції озброєння або вибору цілей.
Пентагон наступає
Пентагон нарощує використання штучного інтелекту на полі бою. У січні було опубліковано нову ШІ-стратегію, яка передбачає застосування агентів, зокрема для планування операцій і наведення на цілі, потенційно включно зі смертельними ураженнями.
У лютому ЗМІ повідомили про застосування Claude від Anthropic в операції із затримання президента Венесуели Ніколаса Мадуро. Водночас угоду відомства з ШІ-стартапом мають намір переглянути. У сторін виникли розбіжності через сувору етичну політику Anthropic. Правила забороняють використання моделі Claude для масового стеження та автономних летальних операцій.
«Нашій країні потрібні партнери, які готові допомагати бійцям перемагати в будь-якій війні», — заявив представник Пентагону Шон Парнелл.
Армія США чинить тиск на чотири великі ШІ-компанії, щоб дозволили застосовувати технології для «всіх законних цілей». Йдеться, зокрема, про розробку озброєння, збір розвідувальної інформації та бойові операції.
Anthropic відмовляється знімати обмеження на стеження за громадянами США та створення повністю автономного озброєння. Переговори зайшли в глухий кут, але швидко замінити Claude складно через технологічну перевагу моделі у конкретних державних завданнях.
Окрім чат-бота Anthropic, Пентагон використовує ChatGPT від OpenAI, Gemini від Google та Grok від xAI у несекретних завданнях. Всі троє погодилися послабити обмеження, що діють для звичайних користувачів.
Зараз обговорюється перенесення LLM у секретний контур та їх застосування «для всіх законних цілей». Одна з трьох компаній вже погодилася це зробити, інші дві «виявляють більшу гнучкість» у порівнянні з Anthropic.
Axios дізналися, що Хегсет «близький» до розриву ділових відносин з Anthropic і до визнання компанії «ризиком для ланцюга постачання» — це означає, що будь-яка фірма, яка хоче працювати з армією США, повинна буде припинити співпрацю з творцем Claude.
«Це буде надзвичайно складно розплутувати. Ми подбаємо про те, щоб вони заплатили ціну за те, що змусили нас піти на такий крок», — заявив високопоставлений представник Пентагону.
Визнання Anthropic ризиком для ланцюга постачання зобов’яже підрядників Пентагону підтвердити, що вони не використовують Claude у своїх процесах. Ймовірно, це торкнеться багатьох компаній. Раніше стартап Даріо Амодеї стверджував, що вісім з 10 найбільших фірм США застосовують чат-бота.
Нагадаємо, у березні 2025 року Пентагон оголосив про використання ШІ-агентів для моделювання зіткнень з іноземними супротивниками.
