Некоторые имена заставляют ChatGPT прекращать работу — вот почему это происходит
ChatGPT, разработанный OpenAI, часто воспринимается как продвинутый языковой ИИ, но за кулисами скрывается сложная система фильтров, которые предотвращают ошибки и защищают компанию от юридических рисков. Однако недавно стало известно, что некоторые имена вызывают сбой в работе модели, полностью останавливая сессию.Среди проблемных имен, выявленных пользователями, числятся Брайан Худ, Джонатан Турли и Джонатан Зиттрейн. Эти имена, введенные в любом контексте, заставляют ChatGPT выдавать сообщения об ошибке или завершать диалог. Например, при упоминании таких имен чатбот выдает: "Невозможно создать ответ".Брайан Худ (Brian Hood)Джонатан Турли (Jonathan Turley)Джонатан Зиттрейн (Jonathan Zittrain)Дэвид Фабер (David Faber)Гуидо Скорца (Guido Scorza)Недавно обнаруженное имя "Дэвид Майер" было разблокировано, а OpenAI назвала его появление в списке "технической ошибкой".Неизвестно, сколько еще имен находится в базе OpenAI — скорее всего, это не полный список.OpenAI официально не комментирует ситуацию, но эксперты связывают ограничения с жалобами на распространение ложной информации. Например, в 2023 году австралийский мэр Брайан Худ угрожал судом из-за ложных утверждений ChatGPT о его тюремном заключении. OpenAI решила проблему, фильтруя упоминания его имени, что, вероятно, стало первым подобным случаем.Другие примеры включают Джонатана Турли — профессора из Университета Джорджа Вашингтона, о котором ChatGPT неверно сообщала, ссылаясь на несуществующую статью. Аналогичные ситуации происходили с Джонатаном Зиттрейном, экспертом по интернет-праву.Хотя для среднестатистического пользователя ChatGPT подобные фильтры не станут особенно большой проблемой, их наличие все же создает определенные неудобства:Схожие именаПопулярные имена, такие как "Дэвид Майер", могут принадлежать тысячам людей, затрудняя их взаимодействие с ChatGPT — правда, большинство людей вряд ли просят ChatGPT обращаться к ним по имени-фамилииУязвимость к атакамЭксперты, такие как Райли Гудсайд, выявили, что фильтры можно использовать для саботажа, внедряя запрещенные слова скрытым текстом в изображениях или на страницах в сети — но каких именно результатов можно добиться таким образом, пока не очень ясноОграничение функциональностиСистемы, такие как ChatGPT с поиском, не смогут обрабатывать статьи или сайты, содержащие "запрещенные" имена, снижая эффективность чатбота — но и тут вопрос в том, насколько такие критические ситуации распространеныШумиха вокруг прекращения работы ChatGPT при выявлении этих имен — скорее причина эффекта новизны. Что-то вроде секретного пароля, способного вывести "машину" из строя. На практике, никаких значительных последствий от подобных фильтров не должно возникнуть.