Министерство юстиции США опубликовало стенограмму закрытого допроса инженера Google. Этот документ стал редким окном внутрь системы ранжирования крупнейшего поисковика мира. Свидетельство, хоть и редактированное, подтверждает существование основных сигнальных блоков, использование данных Chrome, а также внедрение LLM-алгоритмов, основанных на BERT. Оказалось, что Google вручную проектирует ключевые сигналы, чтобы в случае ошибок можно было быстро находить и исправлять проблемные места. Это резко отличает подход компании от более «черного ящика», как у Bing.
Сигналы A-B-C: как Google оценивает релевантность страницы запросу
Инженер описал базовую структуру сигналов, используемых при формировании так называемой топикальности — релевантности документа запросу. Внутри этой структуры выделены три типа данных, обозначенные как A, B, C.
A — Anchors. Ссылки на целевую страницу с других страниц. Учитываются как прямые входящие ссылки, так и их контекст.
B — Body. Наличие ключевых слов из запроса в теле документа как в тексте, так и в структурированных элементах.
C — Clicks. Показатели пользователя о том, как долго он оставался на странице, прежде чем вернуться на страницу выдачи.
По словам инженера, эти сигналы используются как основа для оценки тематической релевантности страницы к запросу. Но это только базовый слой. На самом деле Google использует сотни и тысячи алгоритмов на каждом этапе, от индексации и переранжирования до персонализации и антиспама.
Статичное качество страницы: доверие важнее релевантности
Инженер также подчеркнул, что качество страницы — Page Quality — один из важнейших факторов ранжирования. Важно понимать, что:
этот показатель не зависит от запроса;
если страница признана качественной, она будет таковой во всех связанных поисках;
Page Quality отражает доверие к ресурсу — экспертность, достоверность и безопасность.
Например, если сайт признан авторитетным в медицине, он будет получать преимущество в любых медицинских запросах, даже если конкретный текст не идеален по ключевым словам.
(с) Инженер: «Качество — это то, на что люди жалуются чаще всего. Сейчас, с развитием AI, ситуация стала еще хуже».
Показатель качества статичен. Именно это делает его уязвимым к попыткам реверс-инжиниринга со стороны SEO-специалистов.
Ручная настройка сигналов: почему Google не полагается на чистую автоматику
Одна из важных тем — «ручное проектирование» сигналов:
каждый сигнал проектируется и калибруется инженерами вручную;
это позволяет Google тестировать, контролировать и отлаживать систему, не полагаясь полностью на нейросети;
такой подход делает Google по сравнению с Bing более стабильным и управляемым.
Смысл состоит в том, что Google осознанно избегает полной автоматизации ранжирования, чтобы сохранить контроль и предсказуемость. Это объясняет, почему обновления типа Helpful Content или Core Updates часто сопровождаются ручной донастройкой, а не полной заменой логики ранжирования.
eDeepRank и LLM-сигналы: как Google применяет BERT и объясняет поведение AI
Google применяет и LLM-модели, включая BERT, но делает их максимально интерпретируемыми. Для этого была разработана система eDeepRank, которая:
использует BERT и трансформеры для анализа контента;
разбивает сигналы на компоненты, чтобы инженеры могли понять, почему та или иная страница получила позицию;
помогает соблюдать прозрачность и управляемость LLM-моделей в поиске.
Это подтверждает, что AI-сигналы не «черный ящик», а часть общего фреймворка, который Google контролирует на каждом этапе.
PageRank и link distance: обновленная логика авторитетности
Инженер подтвердил, что PageRank до сих пор используется не как единичный фактор, а как компонент оценки доверия. Сейчас Google применяет link distance ranking:
начальная точка — это набор авторитетных сайтов по каждой теме;
чем ближе сайт к ним по ссылочной структуре, тем выше его доверие;
чем дальше сайт по ссылочной структуре, тем ниже его авторитет.
Это принцип дистанционного ранжирования, который дополняет поведенческие и тематические сигналы. Таким образом, внешние ссылки все еще критически важны, особенно если они поступают из надежных источников по тематике.
Сигнал популярности через Chrome: подтверждение слежения за поведением
В документе также упоминается некий сигнал популярности, название которого редактировано. Известно только: «[redacted] — сигнал популярности, использующий данные из Chrome». Это подтверждает подозрения SEO-сообщества, что Google использует поведение пользователей в Chrome — частоту посещений, время на сайте и возвраты, — как вспомогательные сигналы при ранжировании. Это не Core Web Vitals, а непубличный механизм оценки популярности, работающий на фоне.
Что это значит для SEO, арбитража и цифровых стратегий?
Эта утечка и стенограмма дают редкую возможность понять, как на самом деле работает поиск. Вот ключевые выводы:
контент не является всем — если у сайта слабое качество, то он не пробьется даже с идеальным текстом под ключ;
поведенческие сигналы важны — удержание, возврат в выдачу и поведение в Chrome считываются и влияют на видимость;
LLM — это не автономия, а усиление — Google контролирует AI-сигналы через прозрачные компоненты, поэтому можно работать с этим через структурность и тематическую точность;
авторитетность и ссылочная близость — PageRank жив, но ссылки от проверенных сайтов решают гораздо больше, чем просто анкоры.
Для арбитражников это означает, что технический и поведенческий фактор важнее, чем плотность ключей. SEO сегодня — это управление сигналами, а не просто текст.
👉🏻Следите за новостями в нашем telegram-канале — Новости Арбитража.
Нет комментариев.