Учёные создали алгоритмы, которые «просеивают» шумы в данных с космических телескопов. Метод, основанный на машинном обучении, позволяет выявлять следы биогенных газов в атмосферах экзопланет даже при крайне слабых сигналах — примерно так же, как современные аудиофильтры выделяют речь в записи с фоновым гулом.
Суть подхода — анализ спектров атмосфер, полученных при прохождении света звезды через атмосферную оболочку планеты. Каждый газ оставляет уникальный след в спектре, но при низком соотношении сигнал/шум традиционная обработка требует многократных наблюдений. Нейросети, обученные на миллионе данных о спектрах планет системы TRAPPIST-1 e, решают эту задачу за счёт распознавания паттернов: идентифицируют комбинации метана, озона и водяного пара, характерные для потенциально обитаемых экзопланет, даже при однократном транзите планеты перед звездой.

Иллюстрация: Leonardo
Ключевое преимущество технологии — оптимизация работы телескопов типа JWST. Если ручной анализ каждого кандидата занимает десятки часов, то алгоритмы способны за минуты отобрать наиболее перспективные цели для последующих наблюдений. В тестах на спектрах, имитирующих современную Землю, система корректно определяла биомаркеры в 83% случаев, что вдвое сокращает риск пропустить обитаемую планету из-за человеческого фактора или аппаратных ограничений.
Метод особенно эффективен для систем красных карликов, где короткие орбитальные периоды (как у TRAPPIST-1 e) позволяют чаще фиксировать транзиты. Интеграция алгоритмов в программы JWST увеличит число проверяемых экзопланет без дополнительных затрат наблюдательного времени. Уже в ближайшие годы это может привести к обнаружению «двойника» Земли — особенно если следующее поколение телескопов, таких как ELT, получит предварительно отфильтрованный список целей от ИИ. Как показало исследование, именно сочетание автоматического отбора и последующей ручной верификации даст астрономам преимущество в многовековом поиске жизни за пределами Солнечной системы.