В OpenAI создали свой античит, но программу пока не хотят публиковать: в компании боятся потерять активных пользователей.
Как пишут WSJ, алгоритм, распознающий текст от чат-бота, появился год назад, и он уже готов к выпуску в любой момент. Но в руководстве компании не спешат его публиковать: как показали тестовые опросы в апреле 2023 года, античит мог бы оттолкнуть около 30% активных пользователей. Две трети человек уверены, что инструмент будет давать ложные срабатывания. Некоторые сотрудники OpenAI опасаются, что античит затронет в первую очередь уязвимые группы — например, людей, для которых английский язык не является родным.
Античит работает с 99% точностью: он видит что-то наподобие «водяных знаков» в тексте, созданном ChatGPT, которые не может увидеть человек. Правда, защиту можно обойти машинным переводом на другой язык и обратно. Кроме того, в OpenAI переживают, что если дать доступ к античиту слишком многим пользователям, алгоритм будет непременно раскрыт (а затем и обманут). Пока что обсуждается доступ для образовательных учреждений.