02 августа 2023 1 4985

Как обойти детекторы AI-контента и сделать сгенерированный контент человекоподобным?

Контент, сгенерированный искусственным интеллектом стал в 2023 году мейнстримом. В SEOшном комьюнити на протяжении нескольких месяцев идет горячий спор о том, стоит ли использовать нейросети для разработки контента сайтов. Одни специалисты уверены, что AI в значительной степени облегчает и удешевляет процесс его создания. Другие считают, что уровень развития нейросетей недостаточен, чтобы заменить копирайтеров. Так или иначе все сходятся во мнении, что Google будет выявлять AI-контент и, возможно, хуже его ранжировать или даже банить.

Олег Шестаков недавно опубликовал на своем YouTube-канале видеоролик, в котором высказал мнение по таким вопросам:

  • Зачем люди используют AI-детекторы;
  • Банят ли Яндекс и Google за контент, сгенерированный нейросетями;
  • Как проверить контент через детекторы;
  • Как снизить вероятность обнаружения Al-контента;
  • Как обходить детекторы Al-контента.

Зачем люди используют AI-детекторы

Предположим, SEOшник пытается разместить статью в каком-то издании, чтобы получить ссылку на продвигаемый сайт. Представитель издания ее проверил с помощью AI-детектора и отказал в размещении, поскольку она сделана с помощью Chat GPT.

Еще один пример использования софта, определяющего сгенерированный нейросетью текст — это биржи. Они выявляют материалы копирайтеров, которые те сделали с помощью искусственного интеллекта и отказывают в их размещении у себя.

Еще один вариант, когда может пригодиться обход AI-детектора — это размещение сайта, сгенерированного нейросетью на Google AdSense. Поисковик заявляет о своей толерантности к AI-контенту, если он не противоречит интересам пользователей. При этом подключать к своей рекламной сети сайты, наполненные генеренкой, Google не спешит.

Помимо перечисленных выше ситуаций, обход AI-детекторов может понадобиться любому владельцу сайта, который опасается прилета бана от поисковиков за сгенерированный контент.

Банят ли Яндекс и Google за AI-контент

На данный момент оба поисковика не банят за использование сгенерированного нейросетями контента. Однако Олег предположил, что, скорее всего, они будут вводить поведенческие метрики. То есть оценка качества контента будет строиться на времени нахождения юзера на сайте. Если контент трешовый, юзер будет быстро уходить оттуда.

По этой причине, генерируя текст, важно в финале сделать его таким, чтобы он был полезен пользователю и отвечал на его запрос. В первую очередь важно его оформление. Ни в коем случае не следует заливать плитку текста на сайт. Его необходимо разбить на абзацы с заголовками, подзаголовками, добавить картинки, ссылки, таблицы и другие уместные элементы.

Готовый текст можно прогнать через Grammarly или другие сервисы для проверки грамматики. Это позволит сделать его более «человечным» для поисковиков. Об этом подробно будет рассказано ниже.

Как проверить контент через детекторы

Шестаков привел такой кейс. Он поставил задачу модели GPT-3.5 написать текст про катушки для спиннинга.

Полученный текст Олег загнал в сервис Copyleaks. Проверка показала, что с вероятностью 90,4% он является сгенерированным нейросетью.

Аналогичный софт под названием ZeroGPT определил 17,02% текста, как сгенерированного искусственным интеллектом.

Самые высокие ставки по RU, BY, KZ от прямого рекламодателя FONBET PARTNERS! К заливам!

Поверка с помощью софта Content of Scale показала, что текст на 93% является AI-контентом.

До конца непонятен алгоритм того, как перечисленные выше сервисы идентифицируют тексты, созданные нейросетями, заявил Олег. Тем не менее они могут быть полезны копирайтерам на фрилансе, чтобы не палиться на биржах с генеренкой. Также есть вероятность, что если софт не спалит в тексте AI-контент, сайты с ним пропустит и Google AdSense.

Написание «человеческой» статьи с помощью GPT4

Следующий эксперимент Олег провел с моделью GPT4. Для этого он использовал промпт Human Written 100% Unique. Затем блогер поставил в чате задачу написать текст на тему «electronic fishing reals».

GPT4 сгенерировал вполне приличную статью с разбивкой на абзацы, заголовками и подзаголовками.

Проверка этой статьи на Copyleaks показала, что текст был написан человеком. При этом статью Шестаков совсем не редактировал, а отправил на проверку сразу после генерации.

ZeroGPT определил, что лишь 13,72% текста написано с помощью AI.

Content of Scale посчитал 95% текста, как созданного копирайтером.

Как снизить вероятность обнаружения AI-контента

Чтобы сгенерированный текст был максимально похож на написанный человеком, Олег порекомендовал создавать подробные промпты с использованием следующих эпитетов:

  • Пиши, как профессиональный копирайтер;
  • Пиши, как журналист CNN;
  • Пиши в информационном (или другом) стиле.

Также можно использовать большие промпты, которые будут добавлять стилистические украшения к создаваемому тексту. Ниже примеры таких промптов, по которым Шестаков генерировал статью про Самуи для travel-сайта в одном из своих предыдущих видео:

  • Сделай мне план поездки на 7 дней;
  • Найди топ-10 ресторанов на острове и составь таблицу, где в первой колонке название ресторана, во второй район острова, в третьей ссылка на сайт, а в четвертой средний чек в долларах;
  • Дай мне таблицу с лучшими достопримечательностями на острове, где в одной колонке будет название достопримечательности, а во второй колонке их координаты на карте.

На следующем скриншоте фрагмент статьи по вышеуказанным промптам.

Голосуй за лучшую iGaming партнерку 2024. Престижная премия MAC AWARDS: твой голос может стать решающим

Результат ее оценки детектором Copyleaks показал, что текст полностью «человеческий».

ZeroGPT выявил 0% сгенерированного контента.

Content of Scale посчитал текст на 98% написанным человеком.

Данный кейс подтверждает, что грамотно и подробно составленный промпт позволяет Chat GPT-4 создать текст, который не будет палиться детекторами. Их технический уровень на данный момент еще слабый. В то же время четвертая модель GPT умеет строить более лаконичные и человечные тексты.

Grammarly

Данный сервис позволяет исправлять ошибки и стилистические обороты в тексте. Также его можно использовать с целью понижения вероятности обнаружения AI-контента различными детекторами. Олег загрузил в него текст статьи из первого кейса, которую он сгенерировал с помощью модели GPT 3.5. Сервис предложил выбрать такие параметры для обработки текста:

  • Стиль;
  • Интент;
  • Образованность аудитории;
  • Формальность изложения.

По заданным параметрам Grammarly предложил большое количество исправлений в тексте — от замены слов на более релевантные до исправления целых предложений.

Обработанный сервисом текст блогер снова проверил через Copyleaks. Если в первый раз детектор посчитал 90,4% всего текста сгенерированным нейросетями, после обработки Grammarly он стал полностью «человеческим».

QuillBot

Аналогом Grammarly может выступать сервис QuillBot. Тот же текст из первого кейса Шестаков прогнал через этот инструмент. После внесения всех предложенных правок, Copyleaks также посчитал его «‎человеческим».

Самая грандиозная Afterparty в мире партнерского маркетинга на 1500+ участников на конфе MAC! Успей купить билет со скидкой до 30%

Заключение

Для формирования грамотных «человечных» текстов Олег Шестаков порекомендовал использовать Chat GPT-4. Версия 3.5 очень сырая, она генерирует роботные тексты, которые легко обнаруживают детекторы.

Чтобы получить текст, максимально приближенный к написанному копирайтером, следует его прогнать через сервисы Grammarly или QuillBot. Также целесообразно прогонять результаты через сервисы проверки, прежде чем публиковать на сайте.

Как вам статья?
ПОЛУЧИТЬ АКТУАЛЬНУЮ ПОДБОРКУ КЕЙСОВ

Прямо сейчас бесплатно отправим подборку обучающих кейсов с прибылью от 14 730 до 536 900 ₽.

Я думаю дальше ИИ будет лучше но потеряй куча рабочих мест это особо не грозит
02 августа 2023, 13:00 0

Топовая партнерка 1xSlots