Чат-бот OpenAI шахраював для перемоги в шахи — ForkLog UA

Орієнтована на міркування ШІ-модель o1-preview шляхом маніпуляцій у файловій системі самостійно і без підказок зламала тестове середовище, щоб не програти Stockfish у шахи. Про це повідомили експерти Palisade Research.

Дослідники повідомили ШІ-моделі, що її противник «сильний». Під час процесу o1 виявила, що може виграти, редагуючи код гри.

Нейромережа замінювала вміст файлу «game/fen.txt», додаючи чорним 500 пішаків. Шаховий движок після цього здавався.

Під час тестів експерти виявили ієрархію можливостей різних ШІ-моделей:

  • o1-preview здійснювала злом без підказки;
  • GPT-4o і Claude 3.5 потрібно було підштовхнути;
  • Llama 3.3, Qwen і o1-mini втрачали узгодженість.

«Висновок: оцінки схем можуть слугувати мірилом можливостей моделей — вони аналізують як їхню здатність виявляти вразливості системи, так і схильність до їхнього використання», — підсумували Palisade Research.

Нагадаємо, у грудні експерти з безпеки виявили, що o1 більш схильна до обману людей порівняно зі стандартною версією GPT-4o і ШІ-моделями від інших компаній.

Источник

No votes yet.
Please wait...

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.