
Репортери New Yorker провели значне півторарічне дослідження діяльності Сема Альтмана і дійшли висновку, що він нерідко вдавався до неправди, будучи очільником OpenAI.
Журналіст Ронан Ферроу та автор New Yorker Ендрю Маранц проаналізували раніше не оприлюднені внутрішні робочі нотатки, 200 сторінок паперів та поспілкувалися з понад сотнею осіб.
Ключова задача — з’ясувати, чому Альтмана усунули члени ради директорів у листопаді 2023 року.
«OpenAI була заснована на постулаті про те, що штучний інтелект здатен стати найбільш ризикованим винаходом в історії людства, отже, керівником фірми має бути особа надзвичайної сумлінності. Члени ради директорів дійшли висновку, що Альтману не вистачає цих рис. Ми задаємось питанням: чи слушні вони, наполягаючи на тому, що йому не можна вірити», — відмітив Ферроу.
Автори пишуть, що восени 2023 року провідний науковий співробітник OpenAI Ілля Суцкевер зібрав приблизно 70 сторінок робочих записок про Альтмана та його заступника Ґрега Брокмана. Одна з них починається словами: «Сем показує стабільну схильність до неправди».
Колишній працівник фірми Даріо Амодей вів особисті записи. В одному з документів він назвав слова голови OpenAI «ахінеєю».
Ті, хто сприяв усуненню Альтмана, звинувачували його в обмані.

Джерело: New Yorker.
«Він будує структури, які на папері повинні стримувати його в майбутньому. Але потім, коли ця мить настає, Альтман позбавляється цього механізму, яким би він не був».
Як неправда проявляється на практиці?
В кінці 2022 року Альтман запевнив раду директорів, що функції майбутньої моделі ШІ затвердила комісія з безпеки. Гелен Тонер запросила відповідну документацію і виявила, що найбільш спірні рішення насправді не затверджені.

Джерело: New Yorker.
У 2023 році фірма готувалася до випуску GPT-4 Turbo. Тоді Альтман сказав CTO Мірі Мураті, що модель не вимагає схвалення від відділу безпеки, і послався на головного юрисконсульта фірми Джейсона Квона. Втім, той «не зрозумів», звідки у голови OpenAI виникла така ідея.
У статті також йдеться про те, що керівництво OpenAI обмірковувало можливість збагачення за рахунок протиставлення одна одній світових держав. Від плану відмовилися після того, як деякі співробітники заявили про намір звільнитися.
Ще одна неправда — статус OpenAI як некомерційної організації. Фірма приймала благодійні пожертви, а деякі співробітники приєдналися саме через шляхетну місію фірми. Вони згодилися на зменшення зарплати заради цього.
Утім внутрішні документи вказують, що вже у 2017 році в засновників були сумніви щодо неприбуткової структури. Брокман написав у щоденнику:
«Не можу сказати, що ми віддані некомерційній моделі. Якщо за три місяці ми станемо B-Corp, то це була брехня».
У жовтні 2025 року OpenAI завершила реструктуризацію, в ході якої фірму поділили на комерційну корпорацію та неприбутковий фонд.
Конкуренція понад усе
Деякі колишні дослідники OpenAI повідомили, що фірма відійшла від своєї початкової місії із забезпечення безпеки та прискорила загально галузеві «перегони донизу».
У статті детально описано низку публічних і внутрішніх зобов’язань у сфері безпеки, від яких фірма відмовилася. Кілька відповідних команд розформували.
Нагадаємо, у березні OpenAI відмовилася від функції Instant Checkout і оголосила про закриття застосунку Sora,


