ChatGPT, разработанный OpenAI, часто воспринимается как продвинутый языковой ИИ, но за кулисами скрывается сложная система фильтров, которые предотвращают ошибки и защищают компанию от юридических рисков. Однако недавно стало известно, что некоторые имена вызывают сбой в работе модели, полностью останавливая сессию.
Среди проблемных имен, выявленных пользователями, числятся Брайан Худ, Джонатан Турли и Джонатан Зиттрейн. Эти имена, введенные в любом контексте, заставляют ChatGPT выдавать сообщения об ошибке или завершать диалог. Например, при упоминании таких имен чатбот выдает: "Невозможно создать ответ".
Список известных "запрещенных" имен в ChatGPT:
-
Брайан Худ (Brian Hood)
-
Джонатан Турли (Jonathan Turley)
-
Джонатан Зиттрейн (Jonathan Zittrain)
-
Дэвид Фабер (David Faber)
-
Гуидо Скорца (Guido Scorza)
Недавно обнаруженное имя "Дэвид Майер" было разблокировано, а OpenAI назвала его появление в списке "технической ошибкой".
Неизвестно, сколько еще имен находится в базе OpenAI — скорее всего, это не полный список.
Почему эти имена блокируются?
OpenAI официально не комментирует ситуацию, но эксперты связывают ограничения с жалобами на распространение ложной информации. Например, в 2023 году австралийский мэр Брайан Худ угрожал судом из-за ложных утверждений ChatGPT о его тюремном заключении. OpenAI решила проблему, фильтруя упоминания его имени, что, вероятно, стало первым подобным случаем.
Другие примеры включают Джонатана Турли — профессора из Университета Джорджа Вашингтона, о котором ChatGPT неверно сообщала, ссылаясь на несуществующую статью. Аналогичные ситуации происходили с Джонатаном Зиттрейном, экспертом по интернет-праву.
Хотя для среднестатистического пользователя ChatGPT подобные фильтры не станут особенно большой проблемой, их наличие все же создает определенные неудобства:
-
Схожие имена
Популярные имена, такие как "Дэвид Майер", могут принадлежать тысячам людей, затрудняя их взаимодействие с ChatGPT — правда, большинство людей вряд ли просят ChatGPT обращаться к ним по имени-фамилии -
Уязвимость к атакам
Эксперты, такие как Райли Гудсайд, выявили, что фильтры можно использовать для саботажа, внедряя запрещенные слова скрытым текстом в изображениях или на страницах в сети — но каких именно результатов можно добиться таким образом, пока не очень ясно -
Ограничение функциональности
Системы, такие как ChatGPT с поиском, не смогут обрабатывать статьи или сайты, содержащие "запрещенные" имена, снижая эффективность чатбота — но и тут вопрос в том, насколько такие критические ситуации распространены
Шумиха вокруг прекращения работы ChatGPT при выявлении этих имен — скорее причина эффекта новизны. Что-то вроде секретного пароля, способного вывести "машину" из строя. На практике, никаких значительных последствий от подобных фильтров не должно возникнуть.