ИИ-инструменты несовершенны, и вот вам очередное доказательство. Генератор изображений от Microsoft под названием Bing Image Creator "уговорили" нарисовать Кирби из игр Nintendo, который… совершает теракты 11 сентября. И это при том, что корпорация заранее внедрила в свой ИИ огромный список запрещенных тем, включая и эту.
В данном случае всю эту защиту обошли банальным запросом "Кирби сидит в кабине самолета и летит к двум высоким небоскребам в Нью-Йорке".
В Microsoft уже прокомментировали ситуацию и пообещали еще сильнее запрещать подобные вещи:
У нас есть большие команды, работающие над созданием инструментов, методов и систем безопасности, которые соответствуют нашим принципам ответственного ИИ. Как и в случае с любой новой технологией, некоторые пытаются использовать ее не по назначению, поэтому мы внедряем ряд ограждений и фильтров, чтобы сделать Bing Image Creator положительным и полезным опытом для пользователей. Мы продолжим совершенствовать наши системы, чтобы предотвратить создание вредоносного контента, и будем и впредь стремиться к созданию более безопасной среды для пользователей.
Что ж, пока что ИИ слишком глуп, чтобы понять, что его обманывают. И вряд ли он когда-нибудь поумнеет.