Компания Alibaba Group представила QwenLong-L1 – новую архитектуру, позволяющую большим языковым моделям (LLM) эффективно обрабатывать чрезвычайно длинные входные данные. Эта разработка открывает новые возможности для корпоративных приложений, требующих анализа обширных документов, таких как подробные корпоративные отчёты, многостраничные финансовые ведомости или сложные юридические контракты.
До недавнего времени способность больших моделей с рассуждениями (LRM) к работе с длинными текстами оставалась серьёзной проблемой. Хотя прогресс в области обучения с подкреплением (RL) значительно улучшил их навыки решения задач, эффективность таких моделей резко снижалась при обработке текстов, превышающих 4000 токенов. Разработчики QwenLong-L1 в своей статье отмечают, что это ограничение препятствует практическому применению LRM в областях, требующих взаимодействия с обширными базами знаний, например, в научных исследованиях.

Иллюстрация: VentureBeat / Ideogram
Ключевое отличие QwenLong-L1 – многоэтапный подход к обучению. Процесс включает три основных стадии. Сначала модель проходит этап контролируемой тонкой настройки (SFT) на примерах рассуждения с длинными контекстами, что закладывает основу для точного извлечения информации из больших объёмов данных. Далее следует поэтапное обучение с подкреплением (RL), где длина входных документов постепенно увеличивается, что обеспечивает стабильную адаптацию модели к более сложным задачам. Наконец, на заключительном этапе используется выборка сложных примеров из предыдущих этапов, что стимулирует модель к освоению самых трудных задач и исследованию различных путей рассуждения.
Важной особенностью QwenLong-L1 является гибридная система вознаграждения. Она сочетает в себе строгую проверку на основе правил, гарантирующую точность, и оценку, производимую другой LLM, которая сравнивает смысловое содержание сгенерированного ответа с эталонным. Это позволяет более гибко обрабатывать различные варианты правильных ответов, характерные для длинных и сложных документов.
Тестирование QwenLong-L1 на семи эталонных наборах данных для задач вопрос-ответ на основе документов (DocQA) показало впечатляющие результаты. Модель QWENLONG-L1-32B продемонстрировала производительность, сопоставимую с Anthropic’s Claude-3.7 Sonnet Thinking, и превзошла модели OpenAI o3-mini и Qwen3-235B-A22B. Более компактная модель QWENLONG-L1-14B превзошла Google Gemini 2.0 Flash Thinking и Qwen3-32B.
Примечательно, что обучение с помощью QwenLong-L1 привело к появлению у модели специализированных навыков рассуждения в длинном контексте: лучшее «заземление» ответов (связывание ответов с конкретными частями документа), постановка промежуточных целей, отслеживание ошибок и их исправление, а также верификация ответов. Alibaba выпустила код QwenLong-L1 и веса для обученных моделей, что открывает широкие возможности для её применения в различных областях, включая юридическую сферу, финансы и сферу обслуживания.