Anthropic презентовала Claude Opus 4.7

Фірма Anthropic оприлюднила Claude Opus 4.7 — найбільш вражаючу на сьогодні модель сімейства Opus.

Нова ітерація відкрита для всіх платних клієнтів Claude та в API — $5 за 1 млн вхідних токенів, $25 — за 1 млн вихідних.

Головні покращення

Opus 4.7 найкраще показує себе у важких задачах. Клієнти покладаються на неї в тому, що раніше вимагало суворого контролю, відзначили розробники.

В агентному програмуванні модель перевершила попередницю на 10%, в опрацюванні візуальних даних — на 13%. За іншими показниками приріст більш стриманий.

Модель отримала значно розширені візуальні можливості: обробляє світлини до 2576 пікселів по довгій стороні (приблизно 3,75 Мп) — більш ніж втричі більше, ніж у минулих версій Claude.

image

image

Джерело: Anthropic.

Opus 4.7 чіткіше дотримується інструкцій. Промпти, створені для попередніх моделей, можуть давати непередбачувані результати: вони вільно трактували інструкції, тоді як нова версія сприймає їх дослівно. Рекомендовано переналаштувати запити.

Окрім того, остання Claude навчилася запам’ятовувати інформацію між сеансами — зберігає нотатки у файлах і може використовувати їх у кожній новій розмові.

Anthropic додала в Opus 4.7 новий рівень зусиль xhigh («екстра високий») — між high («високий») і max («максимальний»). Він дає змогу точніше коригувати баланс між глибиною аналізу та швидкістю відповіді.

У Claude Code рівень зусиль за замовчуванням підвищено до xhigh для всіх планів.

Інші нововведення:

  • Task budgets (публічна бета API) — регулювання витратою токенів;
  • /ultrareview — виділена сесія перевірки коду в Claude Code;
  • режим auto для користувачів Max — Claude самостійно приймає рішення.

Обмеження кіберможливостей

Opus 4.7 слабша за Mythos Preview у кібербезпеці. Anthropic навмисно зменшила ці можливості під час тренування. Модель має вбудований захист, що блокує заборонені та небезпечні запити.

«Те, що ми дізнаємося з реального розгортання цих захисних механізмів, допоможе нам просуватися до нашої кінцевої мети — широкого випуску моделей класу Mythos», — зауважила команда стартапу.

Фахівцям з безпеки, які прагнуть використовувати Opus 4.7 у законних цілях (дослідження вразливостей, пентести), в Anthropic запропонували приєднатися до нової програми Cyber Verification.

Для клієнтів обмеження стали проблемою. Деякі клієнти нарікають, що модель відмовляється писати код, оскільки «бачить шкідливе ПЗ у кожному запиті».

Відповідь OpenAI

Компанія OpenAI представила «велике оновлення» Codex, яке поки доступне лише на macOS.

Нова версія здатна взаємодіяти із застосунками на комп’ютері користувача: бачити екран, клікати й друкувати власним курсором. На Mac підтримується паралельна робота кількох агентів без перешкод для іншого софту.

Вбудований браузер, плагіни й життєвий цикл розробки

Codex оснащений вбудованим браузером: сторінки можна коментувати безпосередньо, надаючи агенту точні вказівки. Це корисно для фронтенд- та ігрової розробки.

Розробники планують розширити керування браузером за межі локального середовища.

Також Codex отримав підтримку gpt-image-1.5 для генерації та ітерацій зображень. Разом зі скриншотами та кодом це дає змогу створювати візуальні концепти, фронтенд-дизайн, макети й ігри в єдиному інтерфейсі.

OpenAI випустила понад 90 додаткових плагінів, що об’єднують навички, інтеграції із застосунками та MCP-сервери. Серед них — Atlassian Rovo для роботи з JIRA, CircleCI, CodeRabbit, GitLab Issues, Microsoft Suite, Neon by Databricks, Remotion, Render і Superpowers.

У Codex додали підтримку коментарів GitHub, кількох вкладок термінала та підключення до віддалених devbox через SSH (в альфа-версії).

Клієнти можуть відкривати файли прямо в бічній панелі з розширеним переглядом PDF, таблиць, слайдів і документів, а також користуватися новою панеллю зведення для відстеження планів агента, джерел та артефактів.

Пам’ять і планування

Codex навчився планувати майбутню роботу й автоматично відновлювати виконання довгострокових завдань — потенційно на дні чи тижні. Команди використовують автоматизацію для різних цілей: від запитів на перевірку коду до відстеження задач у Slack, Gmail і Notion.

image

image

Джерело: OpenAI.

Розробники поліпшили пам’ять асистента. Codex навчився запам’ятовувати корисний контекст із минулих діалогів — особисті вподобання та виправлення.

Модель також активно пропонує корисні дії, продовжуючи роботу з того місця, де зупинився клієнт. Наприклад, агент може знайти відкриті коментарі в Google Docs, витягнути контекст зі Slack, Notion і кодової бази, а потім видати пріоритетний список дій.

Нова модель GPT

Додатково OpenAI представила модель ШІ GPT‑Rosalind для прискорення розробки ліків.

Її названо на честь англійської біофізикині Розалінд Франклін, чиї дослідження допомогли розкрити структуру ДНК і заклали основи сучасної молекулярної біології.

Розробники зауважили, що у США на розробку нового препарату йде в середньому 10–15 років. Майбутнє препарату значною мірою визначається на початкових етапах досліджень. Найбільші труднощі пов’язані з аналізом величезних масивів наукових публікацій і вузькоспеціалізованих баз даних.

Завдання GPT‑Rosalind — бути асистентом біолога: підсумовувати наукові тексти, формулювати гіпотези, будувати плани експериментів і опрацьовувати інформацію. Модель особливо сильна в задачах, пов’язаних із білками, генами та подібними біологічними структурами.

На бенчмарку BixBench (реальний біоінформатичний аналіз) GPT‑Rosalind показала один із найкращих результатів серед моделей з опублікованими даними.

На LABBench2 рішення випередило GPT‑5.4 у шести з 11 завдань. Найбільший відрив — у CloningQA, де потрібно проєктувати ДНК і ферменти для протоколів молекулярного клонування.

Додатково OpenAI виклала безплатний плагін Life Sciences для Codex на GitHub. Він доступний усім клієнтам і дає змогу під’єднати ШІ до більш ніж 50 публічних наукових баз даних і профільних інструментів.

Нагадаємо, 16 квітня компанія Google випустила Gemini 3.1 Flash TTS — оновлену модель синтезу мовлення на базі покоління Gemini 3.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *