В статье рассматриваются уязвимости автоматических текстов и их влияние на рейтинг веб-сайта. Приводятся результаты исследований, факты, свежие данные, обзор литературы, перспективы 2026. Изложенная информация будет полезна для действующих копирайтеров, разработчиков, веб-дизайнеров, владельцев сайтов и всех, кто работает с веб-контентом, веб-ресурсами и текстами.
После обновления March Core Update 2024 Джон Мюллер (John Mueller), руководитель команды Google по взаимодействию поисковика с веб-разработчиками, заверил, что Google не применяет санкции к контенту, созданному с помощью искусственного интеллекта, только на основании его происхождения. Это правда, но есть нюанс.
В октябре 2025 года компания Graphite AI SEO Platform [1] проанализировала 65 тысяч англоязычных статей, изучая влияние автоматических текстов на позиции сайтов в выдаче. Исследование охватывало период с января 2020 по май 2025.
В этот временной интервал доля статей, написанных ИИ, увеличилась с 5% до 48%. Резкий скачок произошел в ноябре 2022 после запуска ChatGPT. Выборка URL-адресов совершалась из базы данных с открытым кодом Common Crawl, содержащей более 300 миллиардов веб-страниц с добавлением 5 миллиардов страниц ежемесячно. Репозиторий является одним из крупнейших источников обучения большинства LLM.
Результаты показали, что 86% статей, занимающих высокие позиции в Google, написаны людьми, и лишь 14% — сгенерированы AI. Аналогичная ситуация наблюдалась и с самими чат-ботами: 82% статей, цитируемых ChatGPT и Perplexity, написаны человеком, и только 18% — нейросетями.
Локальные исследования коррелируют с выводами Graphite. По данным портала Writesonic [2], по состоянию на июль 2025 года из 487 результатов в выдаче поисковика, 83% верхних позиций занимает контент, созданный человеком.
Официально ни Google, ни сами языковые модели не пессимизируют машинный контент. Но на практике ИИ-тексты явно подвергаются остракизму и опасны для сайта.
Были и исключения. Ресурсы с автоматическими текстами, не прошедшие редакцию человеком, ненадолго повышались в выдаче (если быть точной, то на 4% и продолжительностью лишь до 48 часов). Но это именно исключения и несовершенство детекторов — алгоритмов обнаружения искусственного интеллекта.
Факты транслируют [3], что трафик сайтов с нетронутыми нейротекстами может упасть в диапазоне от 12% до 73%, а с поверхностно отредактированными — на 42,17%.
Что делать, если веб-сайт понижен в поисковой выдаче?
Если ресурс значительно потерял позиции из-за нейротекстов, то запоздалая обработка контента человеком не поможет.
В ноябре 2025 на платформе Reddit пользователь задал вопрос о возможности восстановления позиций сайта с AI-контентом. Юзер интересовался, сможет ли его ресурс вернуться в индекс Google, если он перепишет весь контент вручную.
Отвечая на этот вопрос [4], Джон Мюллер прямо указал, что простой рерайт ИИ-текстов не изменит отношения к ним Google:
«Важно не переписать тексты, а переосмыслить всю стратегию контента и его ценность для пользователей», и рекомендовал «рассматривать ситуацию как возможность начать новый проект». Такой подход, по его мнению, позволит избежать почти нерешаемых проблем, связанных с историей [5] старого домена, и послужит мотивацией для создания качественного, оригинального и достоверного контента.
Какой контент Google считает достоверным?
При анализе текстов Google руководствуется принципами E-E-A-T [6]. Эти оценки распространяются на весь контент в интернете, а не только на категорию YLYM (сайты по темам здравоохранения и финансов). Google прямо указывает, что ключевую роль играет Trustworthiness (T), достоверность, а все остальные признаки рассматриваются как дополнительные.
У ненадежных страниц с недостоверным контентом, всегда будет низкий E-E-A-T, независимо от того, насколько опытными (E), экспертными (E) или авторитетными (A) они кажутся.
Что такое ненадежная страница в глазах Google?
Ненадежным веб-контентом считается тот, в котором отсутствует достоверная информация, подкрепленная подлинными фактами из авторитетных источников или цитатами экспертов. Контент, которому не хватает trustworthiness, который похож на спам или не содержит полезной информации, понижается в рейтинге.
Проблема в том, что инструменты искусственного интеллекта не гарантируют точность фактов. LLM, к сожалению, оказались весьма эффективными генераторами дезинформации [7].
По прекрасному промпту ИИ напишет текст, который будет звучать «экспертно», «опытно» и включать массу несуществующих данных, событий, новостей, даже достопримечательностей. При этом машина может запросто ссылаться на релевантные источники, которые… не содержат этих вымышленных фактов.
Нет надежности = нет индексации.
Личный опыт. Однажды я писала текст для сайта производителя металлических листов с перфорацией. Определенным размерам и формам перфораций соответствуют определенные коды в номенклатуре изделий. Эти материалы широко используются в строительстве и имеют единую классификацию кодов. ИИ выдавал ложные коды. Я указывала, что его данные не соответствуют действительности. В ответ мой оппонент уверенно заявлял, что еще раз всё проверил, информация достоверна, и указывал ссылки на источники. Конечно, ни в одном из них не было ни слова в поддержку его утверждений. Можно было указать нужные коды в промпте, но меня заинтересовало, почему ИИ игнорирует реальные коды в источниках, которые он просматривал. Ответа я не нашла.
Разработчики и тренеры LLM понемногу работают над этим изъяном. Например, нейросеть Perplexity обучена ссылаться только на авторитетные сайты с подтвержденной информацией. В большинстве же случаев вам придется проверять и перепроверять за нейросетью все факты и данные.
Низкая оригинальность
Высокий процент плагиата стал почти визитной карточкой языковых моделей. Повторение общей или широкодоступной информации без добавления новых идей и личного опыта, чем и занимаются LLM, наносит ущерб рейтингу сайта.
Когда несколько веб-ресурсов используют схожие инструменты ИИ, они в итоге публикуют практически идентичный контент, который Google расценивает как дублирование и спам.
Личный опыт. В сентябре 2025 года я готовила тексты для сайта бытовых услуг в г. Лос-Анжелесе. Заказчик прислал ссылки на веб-ресурсы и соцсети конкурентов. По мере изучения росло и мое изумление. Клонированные тексты, формулировки и структуры на каждом сайте, в каждом блоке. Сначала я решила, что это некачественный рерайт друг у друга. Но, проверив контент, выяснила, что все размещенные материалы были сгенерированы ИИ.
Если вы задаете языковой машине тождественные инструкции на одну и ту же тему для одной и той же аудитории в одной и той же географической зоне, вы получаете шаблонные, пустые и одинаковые тексты.
— ИИ оптимизирует под наиболее вероятный текст, а не под оригинальность, — быстро и честно ответила мне модель на вопрос об уникальности.
Дело даже не в качестве и детальности промптов. Дело в кардинально разных подходах человека и нейросети к написанию текстов.
Чем отличаются «антропогенные» тексты от машинных?
С точки зрения любой LLM лучший текст тот, в котором все слова в каждом предложении подобраны с наибольшей вероятностью в рамках заданного промпта, стиля и темы. Искусственный интеллект не производит свои идеи, не вкладывает эмоциональные реляции, не видит контент с разных ракурсов. По этой программе работают абсолютно все модели. Некоторые способны к самообучению, некоторым необходим тренер, но общий принцип работы не меняется. Это означает, что полностью сгенерированный ИИ контент хорошо определяется Google. Тексты, которые находятся вне векторов и вероятностей считаются написанными человеком.
Алгоритм Google SpamBrain [8] определяет участие ИИ, обращая внимание на [9]:
Непредсказуемость. Тексты нейросетей основаны на идеально структурированных фразах, идеальном синтаксисе и идеально соответствующих ожиданиям словах. Программа Google понимает, что чем более предсказуемы слова в тексте, тем выше вероятность того, что контент создан ИИ. Тексты людей не подчиняются машинным закономерностям.
Внезапные изменения. Тексты, созданные людьми, демонстрируют большую вариативность в длине предложений, словарном запасе, грамматических конструкциях и эмоциях. LLM склонны к объективному стилю, активно используют списки, числа и символы, оптимизируют длину предложений, предпочитают употреблять больше глаголов, меньше прилагательных. Это результаты исследования, проводившегося на шести предобученных LLM (семейства LLaMa на архитектуре Transformer, Falcon с многопоточным вниманием и Mistral со скользящим окном внимания). Анализировались морфологические, синтаксические, психометрические и социолингвистические аспекты текстов, написанных людьми и машинами [10] [11].
Зато никто лучше ИИ не умеет молниеносно находить информацию и сшивать контекстно релевантный контент. Неважно, что в результате получается компилятивный плагиат.
Личный опыт. Несколько лет назад я писала эссе на одну редкую тему для узкой аудитории. В бэкграунде имелась только одна небольшая статья в газете The Washington Post. Через пару лет мне стало интересно, как бы эту тему осветил ИИ. Задав инструкции ChatGPT, через восемь секунд я получила «франкенштейна» из своего эссе и газетной заметки.
Мультиязычные сайты с переводом версий искусственным интеллектом
Googleоценивает сайты с ИИ-переводами так же, как с автоматически созданными текстами. Снижает позиции. Причина в том, что языковые модели переводят и пишут по одному принципу: выбирая слова с наибольшей вероятностью.
Даже простые детекторы искусственного интеллекта давно рассматривают машинные переводы как тексты с участием ИИ. Я хотела бы поделиться с вами результатами одного интересного исследования на эту тему.
Тексты, написанные людьми на семи языках — боснийском, чешском, немецком, латышском, словацком, испанском и шведском — перевели на английский через нейросеть. Для обнаружения участия ИИ использовались 14 общедоступных детекторов, включая DetectGPT, GPTZero и классификатор текстов OpenAI. Исходные тексты получили оценку 95% «написано человеком». Но машинный перевод — 70% «написано человеком» [12].
Даже с учетом несовершенства алгоритмов обнаружения, падение «человечности» на 25% создает угрозу сайтам. Детектор Google гораздо строже и придирчивее, соответственно, приписывает переведенным текстам еще большую степень автоматизации и снижает рейтинг всего веб-ресурса.
На самом деле, корень зла находится не в машинных переводах. Мысль, что разные языковые версии сайта могут представлять собой обычный перевод — распространенное заблуждение. Около 70% компаний испытывают трудности в продвижении своих продуктов и услуг на зарубежных рынках именно из-за культурных и языковых различий. Текст для иноязычной версии должен не переводиться в привычном смысле, а модифицироваться под бизнес-задачи, учитывать экстралингвистические факторы и даже дизайн сайта. Здесь требуются дополнительные приемы: интернационализация, транскреация, иные ключевые слова и иные акценты в тексте для удержания посетителя при беглом просмотре страницы. Перевод должен быть «кастомизирован» под другие боли, другие потребности и другую лингвокультуру. Это то, что не может выполнить ни один существующий ИИ.
Детекторы и водяные знаки Gemini
«Существует столько степеней использования ИИ в работе, что точное обнаружение невозможно», — заявил представитель Google в интервью изданию Axios.[13]
Примечательно, что детекторы часто отдают приоритет искусственному интеллекту.
Личный опыт. Я проверяла свои статьи, написанные полностью вручную, на нескольких детекторах. Везде получила от 4% до 12% вероятности ИИ-генерации, хотя в результатах ни один фрагмент не был подсвечен как созданный нейросетью.
Проблема автоматического распознавания текста, генерируемого искусственным интеллектом, является крайне острой и останется таковой в будущем [14].
Ввиду отсутствия стопроцентного метода определения ИИ и не особо радужных перспектив, Google пошел другим путем. Не выявлять, а маркировать.
Технология SynthID Text, встроенная в Gemini, вставляет в тексты так называемые водяные знаки. Эти метки не исчезают при редактировании текстов, при копировании в Word, и переносятся на сайты. Таким способом поисковик пытается снизить количество ложноположительных определений.
Интернет ответил мгновенно: через неделю появились инструменты обнаружения маркеров. На самом деле, скрытые метки можно найти, даже просто скопировав текст в установленный на каждом компьютере Блокнот. Да, удалить водяные знаки пока реально. Нет, такая уловка не спасет от санкций Google.
«Взаимодействие человека и LLM сейчас симбиоз, а не дихотомия» —утверждает Стефано Соатто, профессор кафедры вычислительных систем в Калифорнийском университете и вице-президент Amazon Web Services. Коллаборация включает не только само написание контента или перевод на другие языки. С помощью нейросетей авторы создают черновики, осуществляют редактирование, исправляют ошибки, дописывают разделы, добавляют информацию и т.д.
Для целей обнаружения малопонятно, как классифицировать эти гибридные тексты: частично созданные ИИ, или частично созданные человеком. И где проходит граница определения: один процент, пять, пятьдесят? Graphite для своего анализа детерминировал тексты как «написаны человеком», если процент участия машины не превышал пятьдесят [1]. А Google SpamBrain считает такие 50/50 тексты спамом и снижает рейтинг сайта.
Помогут ли гуманизаторы?
Детекторы разные, разброс их результативности широчайший, и ни один гуманизатор не гарантирует универсальный обход, даже если обещает это. В мире автоматического копирайтинга гарантий не бывает вообще.
Такие инструменты хороши для простых тем, коротких текстов, блогов и постов. В разработке же целевого контента каждое слово на вес всей индексации. Гуманизатор нальет воды, добавит разговорных фраз, неуместных артефактов и лирики. У Google незатейливый выбор: или понизить, или повысить. «Раскрашенные» очеловечивателем нейротексты обычно испытывают действие первого выбора, увлекая за собой в пропасть весь сайт.
Задача веб-контента, и ваша, не обмануть поисковики и детекторы, а добавить стоимости продукту и продвинуть его на рынке.
Перспективы автоматического контента 2026Повышение интеллекта LLM
Языковые модели продолжат совершенствоваться и виртуозно имитировать человеческое письмо. Google тоже.
Это обоюдная эволюция: чем искуснее LLM, тем умнее поисковик. На уровне ранжирования ничего не изменится, Google не перестанет пессимизировать сайты с автоматическими текстами. Самое интересное нас ждет в мире гуманоидов.
Законодательные ограничения
Ежегодно в декабре месяце толковый словарь Merriam-Webster [15] выбирает слово года. В 2025 победу, с большим отрывом, одержало слово «slop» — низкокачественный контент, производимый в умопомрачительных объемах искусственным интеллектом.
На выдуманные ИИ-новости ведутся даже мировые агентства, распространяя сначала фейковые сенсации, потом — извинения. Абсурдные видеоролики, нелепые рекламные изображения, невменяемые книги, slop-отчеты о работе в компаниях, slop-ВКР и курсовые в образовании, дипфейки, мошенничество, воровство контента брендов, материальный и репутационный ущерб.
Защита интеллектуальной собственности стала предельно актуальным вопросом. Некоторые платные веб-сайты, тексты которых написаны людьми, блокируют индексацию сервисом Common Crawl. Таким методом ресурсы надеются исключить цепочку репозиторий-обучающий пул LLM-генерация текстов-потеря прибыли.
Проблема, разумеется, не в самих нейросетях. Когда беззастенчивость юзеров масштабируется на макроэкономический уровень, законодательные органы стран вынуждены реагировать. В Китае и Евросоюзе уже действуют акты об обязательной маркировке любого AI-контента. В России аналогичный закон для видеоконтента рассматривается в Госдуме [16].
2026 год принесет правовое регулирование отрасли.
Если юридические меры затронут текстовый контент, то это поможет не только в правильном обнаружении доли ИИ в текстах. Повысится и чистота обучения языковых моделей: им прекратят скармливать их же тексты.
Заключение
Зоркие стражи Google враждебно настроены к контенту, написанному искусственным интеллектом. Сами будучи алгоритмами, они видят «собратьев» издалека, и преследуют их с нечеловеческим упорством.
Используйте LLM как прикладное орудие труда, идеального подчиненного. Ответственность за веб-тексты несете вы, поэтому поручите машине минорные вопросы. А важные задачи по созданию текстов оставьте эталонной нейронной сети, которой мечтают стать все языковые модели, — своему мозгу, опыту и навыкам.
Список литературы и источников
В порядке первых упоминаний в статье:
- Graphite.io, More Articles Are Now Created by AI Than Humans, 2025
- Saloni Kohli, Does Google Penalize AI Content? What You Need to Know in 2025, Jul 22, 2025
- Neil Patel, Google’s Spam Update Just Completed: Here’s What Happened
- Reddit, Can a site with low-quality AI content recover and be indexed if I rewrite everything manually and switch languages? Nov 2025
- Reddit, Indexed but invisible in Google SERP — could my domain’s history be the issue? Oct 2025
- Google Search Central, Что такое принципы Е-Е-А-Т и как ими пользуются специалисты по оценке качества
- Kathleen C. Fraser, Hillary Dawkins, Svetlana Kiritchenko, Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods, Journal of Artificial Intelligence Research 82 (2025) 2233–2278, April 2025 (стр.36)
- Google Search Central, SpamBrain: наше наиболее эффективное решение в борьбе со спамом
- Indigoextra, How Google detects and penalizes AI content
- Muñoz-Ortiz, A., Gómez-Rodríguez, C. & Vilares, D. Contrasting Linguistic Patterns in Human and LLM-Generated News Text. Artif Intell Rev 57, 265 (2024)
- Tengler, K., Brandhofer, G. Exploring the difference and quality of AI-generated versus human-written texts. Discov Educ 4, 113 (2025)
- Weber-Wulff, D., et al. (2023). Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1), 26.
- Megan Morrone, Exclusive: AI writing hasn’t overwhelmed the web yet, Axios, Oct 14, 2025
- Kathleen C. Fraser, Hillary Dawkins, Svetlana Kiritchenko, исследования Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods, опубликованного в апреле 2025 в Journal of Artificial Intelligence Research 82 (2025) 2233–2278 (стр.37)
- Merriam-Webster, Word of the Year: Slop, Dec 14, 2025
- СОЗД, Законопроект № 1069302-8 «О внесении изменений в Федеральный закон «Об информации, информационных технологиях и о защите информации»»








