Новая функция Dreaming позволяет агентам Claude изучать прошлые сессии, выявлять повторяющиеся ошибки и автоматически создавать «плейбуки» для будущих задач
Компания Anthropic представила новую систему Dreaming («Сновидение») для платформы Claude Managed Agents, которая позволяет ИИ-агентам самостоятельно анализировать собственный опыт, извлекать закономерности из прошлых задач и улучшать поведение в будущих сессиях. Разработчики называют это шагом к самокорректирующимся ИИ-системам, способным постепенно обучаться на своих ошибках без переобучения модели.
Анонс состоялся на ежегодной конференции Code with Claude в San Francisco. Вместе с Dreaming компания также перевела в публичную бета-версию две другие технологии — Outcomes и Multi-Agent Orchestration. Первая позволяет агентам автоматически проверять свою работу по заранее заданным критериям качества, а вторая — разбивать сложные задачи между несколькими специализированными ИИ-агентами.
Главной новинкой Anthropic считает именно Dreaming. В отличие от обычной памяти, где ИИ просто хранит контекст диалога или пользовательские предпочтения, Dreaming работает как отдельный процесс анализа «в спящем режиме». Система периодически просматривает прошлые сессии агентов, ищет повторяющиеся паттерны, ошибки и успешные решения, а затем превращает их в текстовые заметки и структурированные инструкции для будущей работы.
В Anthropic подчёркивают, что речь не идёт о переписывании самой нейросети или изменении её весов. ИИ не «переобучает себя» напрямую. Вместо этого агент создаёт собственные «плейбуки» — своего рода методички для будущих версий самого себя.

Руководитель исследовательского продуктового направления Anthropic Алекс Альберт сравнил систему с накоплением профессионального опыта человеком. По его словам, после выполнения сложной задачи человек обычно формирует внутренний навык или рабочую схему, а Dreaming делает то же самое автоматически — только для ИИ.
Во время презентации компания показала демонстрацию на вымышленном аэрокосмическом стартапе Lumara, разрабатывающем автономные дроны для посадки на Луну. Система использовала сразу нескольких ИИ-агентов: один отвечал за выбор площадки посадки, второй — за навигацию, третий — за общий успех миссии. После серии неидеальных симуляций команда активировала Dreaming. За ночь система проанализировала предыдущие попытки и автоматически создала подробный «плейбук посадки». На следующий день эффективность симуляций заметно выросла.
Anthropic утверждает, что подобный подход помогает решить одну из ключевых проблем современных ИИ-агентов: деградацию качества во время длинных и сложных сессий. Компания отмечает, что отдельный агент-проверяющий, работающий в «чистом контекстном окне», зачастую обнаруживает ошибки лучше, чем тот же агент внутри длинной цепочки рассуждений.
Параллельно Anthropic усиливает ставку на многоагентные системы. Multi-Agent Orchestration позволяет одному «главному» агенту распределять подзадачи между специализированными агентами с отдельными контекстными окнами и собственными инструментами. В компании считают, что такой подход эффективнее, чем попытка удерживать всю сложность задачи внутри одного диалога.
На конференции CEO Anthropic Дарио Амодеи заявил, что рост компании оказался значительно выше ожиданий: вместо планируемого десятикратного роста в год Anthropic столкнулась с ростом использования и выручки примерно в 80 раз в пересчёте на годовые показатели. По его словам, именно это стало причиной постоянного дефицита вычислительных мощностей.
Компания также сообщила о партнёрстве со SpaceX для расширения вычислительной инфраструктуры через дата-центр Colossus.
Anthropic фактически делает ставку на то, что в ближайшие годы главным конкурентным преимуществом ИИ-платформ станет не просто «ум модели», а способность надёжно работать автономно в долгих производственных процессах — с памятью, самоанализом и постепенным накоплением опыта.








