Европейский Союз представил первый черновик "Кодекса практики" для универсальных моделей искусственного интеллекта (GPAI), который станет основой для регулирования таких технологий. Документ, окончательная версия которого ожидается в мае 2025 года, описывает меры по управлению рисками и помогает компаниям соблюдать правила, избегая крупных штрафов.
GPAI охватывает модели, обученные с использованием вычислительных мощностей более 10²⁵ FLOPs, что ставит под регулирование такие компании, как OpenAI, Google, Anthropic и другие. Новый кодекс направлен на обеспечение прозрачности, защиту авторских прав, оценку рисков и их минимизацию, а также усиление внутренней и внешней подотчетности разработчиков.
Особое внимание уделяется прозрачности: компании должны раскрывать данные о веб-сканерах, использованных для обучения моделей. Этот шаг отвечает на обеспокоенность правообладателей, которые не хотят, чтобы их контент использовался для обучения нейросетей. Также введены требования по внедрению фреймворка безопасности и защиты (SSF), позволяющей оценивать и снижать системные риски. Технические меры включают защиту данных моделей, управление доступом и регулярный пересмотр их безопасности.
Нарушение норм может привести к серьезным санкциям: до 35 миллионов евро или 7% от мирового годового дохода компании, в зависимости от того, что больше.
Черновик открыт для отзывов до 28 ноября через платформу Futurium, что позволит заинтересованным сторонам внести свои предложения.