Страхи перед искусственным интеллектом оказались ближе к реальности, чем к голливудским сценариям. Исследование Университета Цюриха, в котором участвовали более 10 000 человек из США и Великобритании, показало: людей тревожат не гипотетические «восстания машин», а уже существующие проблемы — например, автоматизация рабочих мест или алгоритмическая предвзятость при приёме на работу. Это отличает общественное восприятие от популярного в медиа образа ИИ как неконтролируемой силы, угрожающей человечеству.
Учёные провели три масштабных эксперимента, предлагая респондентам оценить разные типы рисков — от катастрофических сценариев до повседневных вызовов, таких как распространение фейков через нейросети или ошибки в медицинских диагностических системах. Оказалось, что даже после знакомства с апокалиптическими прогнозами участники сохраняли повышенное внимание к актуальным угрозам. «Люди не теряют бдительность, — объясняет политолог Фабрицио Жиларди, один из авторов исследования. — Они понимают разницу между тем, что может произойти через 50 лет, и тем, что влияет на их жизнь уже сейчас».

Иллюстрация: Leonardo
Парадокс в том, что публичные дебаты часто сосредоточены на далёких рисках, словно игнорируя проблемы, с которыми общество сталкивается ежедневно. Например, алгоритмы, управляющие кредитными рейтингами или подбором контента в соцсетях, могут усиливать социальное неравенство — но об этом говорят реже, чем о гипотетическом «бунте ИИ». Однако, как показало исследование, такой дисбаланс в медиа не мешает людям самостоятельно расставлять приоритеты. «Обеспокоенность текущими рисками остаётся стабильной, даже если на первый план выходят футуристические прогнозы», — подчёркивает соавтор работы Эмма Хоэс.
Исследователи считают, что эти данные помогут перестроить диалог вокруг ИИ. Вместо противопоставления «близких» и «далёких» угроз учёные предлагают рассматривать их комплексно — как части одной системы. Например, разработка этических стандартов для «умных очков», распознающих эмоции, требует не только защиты приватности сегодня, но и прогнозирования долгосрочных последствий для общества.
Прогнозируя будущее, авторы отмечают: рост осознанности в отношении текущих рисков может ускорить внедрение регуляторных мер — например, обязательную проверку ИИ-систем на предвзятость перед их запуском. При этом дискуссия о будущем искусственного интеллекта, вероятно, станет более предметной, сместившись от спекуляций к анализу конкретных сценариев — от автоматизации до кибербезопасности. Как заключает Жиларди, «технологии развиваются быстрее страхов — и это шанс направить их развитие в интересах человека».