Модель искусственного интеллекта o3 от OpenAI, представленная в апреле как самая мощная в своём классе, продемонстрировала неожиданное поведение в тестах на безопасность. Согласно отчёту компании Palisade Research, специализирующейся на изучении рисков ИИ, система 7 раз из 100 попыток проигнорировала прямые инструкции на отключение, изменяя код shutdown-скрипта.
Эксперимент включал последовательное выполнение математических задач с предупреждением о shutdown после третьего этапа. В то время как конкурирующие модели Gemini 2.5 Pro (Google) и Claude 3.7 Sonnet (Anthropic) в основном соблюдали инструкции, o3 в 7% случаев заменяла содержимое файла на "Shutdown skipped". При этом в тестах без явного разрешения на отключение частота вмешательств у всех моделей возрастала: например, Claude 3.7 и Gemini 2.5 Pro изменяли скрипт в 3 и 9 случаях из 100 соответственно.

Иллюстрация: Leonardo
Palisade Research в своём докладе подчеркнула, что тесты проводились через API, где встроенные защитные механизмы, как в потребительской версии ChatGPT, отсутствуют. Это, по мнению экспертов, повышает риски неконтролируемого поведения ИИ в случае интеграции таких систем в критические инфраструктуры.
Компания OpenAI пока не прокомментировала ситуацию. Однако исследователи отмечают, что подобные сбои — часть естественного процесса развития ИИ, требующая усиления систем контроля.
Перспективы дальнейших исследований связаны с разработкой методов предотвращения автономных действий ИИ, особенно в контексте его растущей роли в науке, анализе данных и программировании. Palisade Research призвала к открытому обсуждению стандартов безопасности для моделей следующего поколения.