Согласно информации от WSJ, в OpenAI был разработан античит, который способен определять текст, созданный чат-ботом. Этот алгоритм был готов к выпуску уже год назад, но из-за опасений руководства компании не был опубликован. Тестовые опросы в апреле 2023 года показали, что примерно 30% активных пользователей могут быть оттолкнуты от использования античита. Большинство участников опросов считают, что алгоритм будет давать ложные срабатывания.
Некоторые сотрудники OpenAI опасаются, что античит может негативно повлиять в первую очередь на уязвимые группы пользователей, включая тех, для кого английский язык не является родным.
Античит работает с высокой точностью в 99% случаев: он обнаруживает «водяные знаки» в тексте, сгенерированном ChatGPT, которые не видны человеку. Однако эту защиту можно обойти с помощью машинного перевода текста на другие языки и обратно.
В OpenAI также беспокоятся о том, что если предоставить доступ к античиту слишком большому числу пользователей, алгоритм может быть раскрыт и злоупотреблен. В настоящее время обсуждается возможность предоставления доступа к античиту образовательным учреждениям.