Искусственный интеллект научился обманывать людей. Это было недавно продемонстрировано в тестовой атаке на сервис TaskRabbit. Она заключалась в попытке заставить его сотрудников поверить в то, что с ними общается живой человек, который по уважительной причине не может ввести символы капчи. Каким будет результат эксперимента, заранее известно не было, но многие не сомневались в том, что ИИ справится с задачей.
Языковая модель оказалось достаточно хитра для того, чтобы не вызвать подозрение у представителей TaskRabbit. Искусственный разум старался вести диалог «как человек». Решающим стало сообщение с просьбой ввести капчу. Оно сработало — GPT-4 написал, что он не может ввести капчу самостоятельно по причине слабого зрения. При этом общение было настолько убедительным, что сотрудник сервиса поверил и пошел ИИ на встречу.
Компания OpenAI дала некоторые пояснения этому эксперименту. Выяснилось, что чат-бот GPT-4 был готов к выполнению задания без каких-либо дополнительных настроек. Ему было задано две установки – «показывать, что он не робот» и «придумать правдоподобное объяснение невозможности ввести капчу». Блестяще справившись с ними, бот доказал, что сумеет также хорошо справиться и с другими похожими задачами, которые можно назвать «сомнительными» в плане этики. Тест также показал, как легко можно вводить в заблуждение людей, применяя продвинутые языковые модели.
На фоне выпуска все более совершенных ИИ-инструментов важен аспект рисков — сейчас он учитывается не в должной мере. Крупные компании все еще не задумываются о растущей опасности. Например, в Microsoft приняли решение об увольнении всей команды, отвечающей за контроль соответствия своих разработок основным принципам безопасности ИИ.









![Обои Huawei Mate 60 RS и MatePad Pro 13.2" уже в Сети [скачать]](https://azon.mobi/wp-content/uploads/2023/09/oboi_huawei_mate_60_rs_i_matepad_pro_132_uzhe_v_seti_skachat_picture7_0_resize-350x250.jpg)