Обнаружение ИИ Turnitin
Проверка Turnitin AI — инструмент, который должен давать подсказки о фрагментах текста, сгенерированных ИИ. Для студентов и преподавателей важно понять, что сообщает этот сервис и насколько надёжны его результаты. Turnitin сам подчёркивает, что обнаружение не является доказательством и не должно служить единственной основой для мер. Примеры в отрасли и исследования показывают, что обнаружение ИИ по сути сложно.
Обзор Turnitin AI Checker
Проверка Turnitin AI — это функция в отчёте о сходстве Turnitin. Она оценивает долю «квалифицируемого» связного текста (длинные прозаические предложения), которая, вероятно, произошла от крупной языковой модели (LLM). При этом различают «только ИИ-сгенерировано» и «ИИ-сгенерировано и изменено с помощью парафразирования/обхода». Технически Turnitin сегментирует текст на перекрывающиеся участки, оценивает предложения по шкале от 0 (человеческий) до 1 (ИИ) и усредняет эти оценки до процента документа. Основание — предсказуемость словосочетаний и др., как описано в FAQ Turnitin. Для отчета требуется как минимум 300 слов прозы. Поддерживаются форматы файлов .docx, .pdf, .txt и .rtf. Поддерживаемые языки — английский, испанский и японский; парафразирование/обход на данный момент доступно только для английского. Эти требования к файлам перечислены в документации Turnitin.

Quelle: imagetou.com
Пример интерфейса Turnitin, выделяющего индикатор распознавания ИИ со значением 75%.
Текущее состояние и развитие
Turnitin внедрила обнаружение ИИ в 2023 году и вскоре после этого указала на увеличение ложноположительных с низкими значениями. Начиная с июля 2024 года значения ниже 20% не отображаются как число; вместо этого звездочка помечает, что оценка менее надёжна. Это следует из Release Notes Turnitin. В 2025 году появился расширенный отчет с двумя категориями («сгенерировано ИИ» и «сгенерировано ИИ и парафразировано») и визуальным разбиением через боковую диаграмму, как описано в модели обнаружения текста ИИ. Turnitin подчёркивает, что отображение не зависит от классического индекса сходства и является лишь отправной точкой для проверки. Это объясняется в классическом режиме просмотра отчета. По данным Turnitin, о которых писала Wired в апреле 2024 года, 11% из более чем 200 миллионов проверенных работ содержали не менее 20% текста, созданного ИИ; 3% имели 80% и более ИИ-текста. Общая доля ложноположительных по документу составила менее 1% при более чем 20% доле ИИ.
Анализ и контекст
У университетов должна быть ориентация на фоне повседневного использования текстовых генераторов. Поставщики, как Turnitin, позиционируют себя как инфраструктура целостности. Учебные заведения балансируют между педагогикой, справедливостью и доказательностью, как описано в руководства Turnitin. В то же время некоторые университеты временно приостанавливают обнаружение ИИ из-за риска пристрастий и ложных срабатываний либо чтобы усилить правила. Vanderbilt отключал детектор Turnitin AI. СМИ также освещают как реальные примеры использования ИИ, так и ложные выводы и призывают к четким правилам, а не технологическим моногенциям, как Wired сообщил. Turnitin сам подчеркивает цели справедливости, тесты на предвзятость и консервативные пороги, чтобы минимизировать ложные срабатывания. Это отражено в блоге Turnitin и в частях FAQ по обнаружению ИИ. Кроме того, OpenAI в 2023 году сообщил о том, что свой собственный классификатор текста был снят из-за недостаточной точности, что служит напоминанием о границах технологии, как сам OpenAI сообщил.
Реакции и контраргументы
Университеты, такие как Vanderbilt, временно отключали функцию с ссылкой на непрозрачность и риски, как указано в руководстве Vanderbilt. СМИ документируют как реальное использование ИИ, так и ложные выводы и выступают за четкие правила вместо технологических монопольных решений, как Wired сообщил. Сам Turnitin подчеркивает цели справедливости, тесты на предвзятость и консервативные пороги, чтобы минимизировать ложные срабатывания. Это изложено в блоге Turnitin и в FAQ по обнаружению ИИ. Одновременно независимые исследования показывают, что несколько детекторов чаще ошибочно помечают тексты не носителями английского языка как ИИ — важный сигнал для практики, как описано в Cell Patterns.
Последствия и рекомендации
Учителям следует использовать значение ИИ как повод для беседы, а не как решение. Проверяйте «квалифицирующий» текст, пропуски и две категории в отчёте, устанавливайте правила курса и документируйте проверку. Рекомендации можно найти в руководства Turnitin по проверке отчета и к мерам при высокой оценке в что делать при высокой оценке AI. Для студентов: сохраняйте черновики, заметки и источники; это упрощает разъяснение, когда возникает вопрос по оценке, как советует University of Melbourne. Работая с ИИ, следует уточнять разрешённость использования и документировать её прозрачно — ведь «настоящие» плагиаты всё равно могут отображаться в отчёте сходства, как объясняется в классическом режиме просмотра отчета.
Quelle: YouTube
Короткое пояснение Turnitin по теме ложноположительных результатов полезно для разговора со студентами.

Quelle: leb ow.drexel.edu
Высокий показатель распознавания ИИ в Turnitin подчеркивает необходимость осторожной интерпретации.
Открытые вопросы и перспективы
Остаются открытые вопросы: какова реальная ошибка в конкретных предметных областях, языковых уровнях и формах заданий — включая «человекоподобные» или переписанные тексты ИИ? Нужны независимые долгосрочные полевые исследования по различным дисциплинам. Как меняется предвзятость против носителей нерусского языка с новыми порогами и моделями — сохраняется ли риск или он измеримо снижается? Это важные вопросы, которые обсуждаются, например, в EdIntegrity. И когда устойчивые доказательства происхождения (водяные знаки/прокладка) станут широко применяться и как они повлияют на практику? OpenAI также предлагал размышления на эту тему.
Заключение
Обнаружение Turnitin AI может давать полезные подсказки — особенно если отчёт читается в контексте: квалифицирующий текст, категории, пороги и задача. При этом это не средство мошенничества. Низкие значения следует трактовать с осторожностью, а высокие значения требуют профессиональной проверки и диалога. Это указано в Release Notes и в руководства Turnitin. Поскольку крупные языковые модели развиваются стремительно и существуют обходные/переписывающие инструменты, обнаружение остаётся в игре «кошка-мышь» — полезно как сигнал, а не как приговор. Так было замечено в ложноположительных случаях и в исследованиях. Чтобы повысить целостность, следует сочетать чёткие правила, прозрачные процессы и форматы задач, которые делают процессы мышления видимыми — с AI-отчётом как одной из нескольких информационных источников, как рекомендуется в руководства Turnitin.