Бывший руководитель ИИ-направления Tesla и сооснователь OpenAI Андрей Карпаты опубликовал на GitHub open-source проект AutoResearch — компактный скрипт на 630 строк (лицензия MIT), предназначенный для полной автоматизации научного метода в машинном обучении.
AutoResearch реализует автономный цикл оптимизации: агент получает обучающий скрипт и фиксированный вычислительный бюджет, самостоятельно формулирует гипотезы (например, меняет глубину сети или learning rate), модифицирует код, запускает эксперимент и оценивает результат. Если метрика улучшается, то изменение сохраняется, иначе — откатывается.

Иллюстрация: Sora
В одном из запусков агент за ночь провёл 126 экспериментов, снизив метрику loss с 0,9979 до 0,9697. За двое суток система выполнила около 700 автономных изменений, выявив 20 улучшений, которые затем были успешно перенесены на более крупные модели. Итог — ускорение метрики «Time to GPT-2» на 11%.
Проект быстро стал вирусным: только за двое суток пост Карпаты собрал более 8,6 млн просмотров. В сети Hyperspace 35 агентов за ночь провели 333 эксперимента, делясь открытиями через протокол GossipSub. Например, найденная одним агентом стратегия инициализации, снизившая loss на 21%, была мгновенно подхвачена остальными.
AutoResearch уже выходит за пределы машинного обучения. В маркетинге агенты способны запускать десятки тысяч A/B-тестов в год вместо привычных 30–50, формируя уникальную «карту» эффективных решений для конкретной аудитории.
В сообществе обсуждаются риски: переоптимизация под валидацию, потеря универсальности моделей. Карпаты подчёркивает: «Всё, что мы делаем — оптимизируем результат на вычислениях… это реальные и значимые улучшения».










