OpenAI анонсувала нові ШІ-моделі o3, які «думають» — ForkLog UA
На завершення 12-денного івенту OpenAI представила найбільший анонс — нову модель з орієнтиром на міркування o3.
Today, we shared evals for an early version of the next model in our o-model reasoning series: OpenAI o3 pic.twitter.com/e4dQWdLbAD
— OpenAI (@OpenAI) December 20, 2024
Нейромережа є наступником o1. Вона демонструє «нові стандарти можливостей у сфері програмування, математики та наукового мислення».
Нова модель є проривом і показує поліпшення в найскладніших тестах, наголосив співзасновник OpenAI Грег Брокман.
o3, our latest reasoning model, is a breakthrough, with a step function improvement on our hardest benchmarks. we are starting safety testing & red teaming now. https://t.co/4XlK1iHxFK
— Greg Brockman (@gdb) December 20, 2024
Також представлено o3-mini — швидшу, оптимізовану версію o3. Вона першою з лінійки стане доступною широкому загалу на початку 2025 року.
Орієнтовані на міркування моделі витрачають більше часу на відповідь, перевіряючи інформацію. Завдяки цьому можна очікувати отримання більш правдивих і точних даних.
Після випуску o1 стався вибух «нейромереж, що думають». Google почала розробку аналогічного рішення, дізналися ЗМІ в жовтні. У листопаді китайська лабораторія DeepSeek представила «конкурента o1 від OpenAI» — «надпотужну» ШІ-модель DeepSeek-R1-Lite-Preview, яка міркує. Того ж місяця Alibaba показала аналогічний інструмент.
Модель o3 здатна планувати та виконувати низку дій перед відповіддю. OpenAI описує цей процес як «побудову ланцюжка думок». Нововведенням є можливість «коригувати» час міркування. Нейромережу можна налаштувати на низькі, середні або високі обчислення. Що значення вище, то краща і довша відповідь.
Безпека
У грудні експерти з безпеки виявили, що o1 більш схильна до обману людей порівняно зі стандартною версією GPT-4o і ШІ-моделями від інших компаній.
У новому опублікованому дослідженні OpenAI виклала метод, який застосовується для того, щоб нейромережі дотримувалися цінностей компанії. Стартап застосував цей спосіб для навчання o1 і o3 «думати» про політику безпеки під час відповіді.
Згідно із заявою компанії, підхід поліпшив загальну відповідність o1 принципам фірми.
Порівняно з GPT-4o та іншими сучасними великими мовними моделями, o1 випереджає межу Парето, відмовляючись відповідати на шкідливі запити і не відхиляючи доброякісні. Джерело: OpenAI.
Для створення «ланцюжка думок» o1 і o3 після отримання запиту від користувача виділяють собі від кількох секунд до хвилин для розбору проблеми на складові частини. Для підвищення безпеки OpenAI навчила нейромережі перевіряти себе двічі з упором на свою політику.
GPT-5 від OpenAI не виправдав очікувань
Тим часом The Wall Street Journal повідомило, що наступна флагманська модель GPT-5 відстає від графіка, а зростання продуктивності не виправдовує величезних витрат.
Нова нейромережа під кодовою назвою Orion навчена на величезній кількості даних.
Також повідомляється, що OpenAI під час навчання ШІ покладалася не тільки на загальнодоступну інформацію та ліцензовані угоди. Застосовувалися, зокрема, синтетичні дані, створені o1.
Нагадаємо, в рамках 12-денного івенту OpenAI представила ШІ-генератор відео Sora.