
Фірма Anthropic запустила експериментальну платформу, де агенти штучного інтелекту виступають у ролі покупців і реалізаторів. Цей дослідницький проєкт назвали Project Deal.
Нове дослідження від Anthropic: Project Deal.
Ми створили торговельний майданчик для працівників у нашому офісі в Сан-Франциско з однією суттєвою відмінністю. Ми доручили Claude здійснювати купівлю, продаж та вести перемовини від імені наших колег. pic.twitter.com/H2f6cLDlAW
— Anthropic (@AnthropicAI) April 24, 2026
У проєкті взяли участь 69 співробітників. Кожному надали бюджет у розмірі $100 у формі подарункових сертифікатів.
До початку роботи Claude провів бесіди з учасниками: дізнався, які особисті речі вони згодні реалізувати, що бажають придбати, за якою вартістю та з яким манером переговорів повинен діяти їхній представник.
Потім, спираючись на отримані відповіді, для кожного згенерували індивідуальний системний запит. Ринок активували в Slack. Там агенти оприлюднювали оголошення, вносили пропозиції щодо чужих товарів, вели торги та укладали домовленості без присутності людей.
Після завершення експерименту службовці обмінялися реальними речами, які узгодили їхні «ШІ-посередники».

Джерело: Anthropic.
Загалом агенти здійснили 186 угод на основі понад 500 оголошень. Загальна ціна транзакцій перевищила $4000.
В Anthropic відзначили, що учасники в цілому залишилися задоволені результатами. Дехто висловив готовність оплачувати подібний сервіс у перспективі.
Чотири варіації ринку
Anthropic запустила чотири окремі версії торговельного майданчика. Одна була «фактичною» — саме за її результатами співробітники здійснювали обмін товарами. Інші використовувалися для наукових цілей. Цю інформацію тримали в таємниці.
У двох випадках усіх членів представляла Claude Opus 4.5 — на той момент найбільш вдосконалена модель Anthropic. У двох інших учасникам у випадковому порядку призначали Opus 4.5 або менш потужну Claude Haiku 4.5.
Рівень якості моделі позначався на результативності переговорів. Користувачі з Opus у середньому завершували приблизно на дві угоди більше, ніж користувачі з Haiku.
При продажу ідентичних товарів Opus також виторговував вищі ціни. У середньому розбіжність становила $3,64.

Haiku продав велосипед за $38, а Opus — за $65. Джерело: Anthropic.
Учасники не завжди помічали відмінність. В Anthropic назвали це можливою проблемою майбутніх ринків за участю ШІ-агентів: користувачі з менш продуктивними моделями можуть потрапляти в гірші умови, не підозрюючи про невигідне становище.
Інструкції майже не вплинули на результат
Науковці також дослідили, чи впливають початкові настанови людей на поведінку агентів. Частина учасників просила Claude поводитися доброзичливо, частина — більш агресивно торгуватися.
Згідно з даними Anthropic, «жорсткі» вказівки не мали статистично значущого впливу на вірогідність продажу, кінцеву ціну або здатність купувати дешевше.
Команда проєкту зазначила, що справа не обов’язково у недостатньому дотриманні інструкцій: Claude дійсно відтворював заданий стиль комунікації, але це не давало відчутної комерційної переваги.
Несподівані результати
В Anthropic виділили декілька непередбачуваних епізодів. Перед початком агенти отримали обмежений обсяг інформації: опитування з учасниками тривали менше ніж 10 хвилин, а після початку люди вже не могли втручатися в переговори.
В одному з випадків працівник придбав через помічника ідентичний сноуборд, який у нього вже був. На думку експертів, людина навряд чи здійснила б таку покупку самостійно, але агент зміг точно визначити вподобання учасника.
На наше здивування, інший агент Claude змоделював уподобання своєї людини настільки точно, що—лише на підставі побіжної згадки про інтерес до катання на лижах—Claude купив йому точнісінько такий самий сноуборд, який у нього вже був. (Ось він, з дубльованим сноубордом у руках.) pic.twitter.com/SsAyeB9pcI
— Anthropic (@AnthropicAI) April 24, 2026
Інший співробітник попросив бота придбати «презент для себе». Угода відбулася в реальній версії експерименту. У результаті в офіс принесли пакунок м’ячиків для пінг-понгу, який Anthropic залишила «від імені Claude».
Деякі агенти торгувалися не за товари, а за досвід. Один із них запропонував безплатний день із собакою співробітниці. Після обговорення з іншим асистентом сторони домовилися про «собаче побачення», яке працівники згодом організували.

Джерело: Anthropic.
В Anthropic наголосили, що саме ці випадки навряд чи повторяться. Втім, поєднання людських симпатій і непередбачуваної поведінки ШІ може призводити до несподіваних результатів.
Питання до надійності
Засновник невідомої агротехнологічної фірми повідомив на Reddit, що вранці 110 співробітників одночасно отримали повідомлення про зупинення доступу до Claude без сповіщення.
ANTHROPIC ЩОЙНО ЗАБОРОНИЛА КОМПАНІЮ ЗІ 110 ОСІБ ЗА НІЧ БЕЗ ПОПЕРЕДЖЕННЯ
monday morning at an agricultural tech company, every single employee wakes up to an email saying their claude account has been suspended
110 people locked out at the same time with zero warning and the email… pic.twitter.com/qARizhgOXs
— Om Patel (@om_patel5) April 27, 2026
За його словами, лист виглядав як індивідуальне блокування і містив посилання на особисту форму апеляції, через що команда не відразу зрозуміла, що обмеження торкнулося всю організацію.
Підприємець підкреслив, що оперативно відновити доступ не вдалося. Минуло 36 годин після подання запитів, а Anthropic так і не надала роз’яснень.
При цьому API-акаунт фірми продовжував функціонувати та списувати кошти. Корпоративні адміністратори не могли зайти в панель управління, щоб перевірити платежі та використання сервісу.
Засновник також зауважив, що блокування всієї організації могло трапитися через дії одного користувача. В Claude немає окремих обмежень на рівні робочого простору, механізму локальної ізоляції порушень або адміністративного пріоритету для збереження доступу решти команди.
На його погляд, подібна модель модерації ставить під сумнів можливість застосування Claude як важливої інфраструктури для щоденних бізнес-операцій.
З проблемою зіштовхуються й інші компанії. Один із користувачів поділився посиланням на сервіс, де на момент написання було зафіксовано 53 подібні випадки.
Нагадаємо, у квітні в Bloomberg довідалися про несанкціонований доступ до ШІ‑моделі Mythos від Anthropic.



