Продолжаем потрошить слив, который я опубликовал третьего дня. Теперь разберем "User-Side Data" – одну из наиболее влиятельных, хотя и опосредованно измеряемых, групп сигналов для ранжирования в Google. Согласно слива, Google под этим термином понимает ИМЕННО ДАННЫЕ о взаимодействии пользователей с результатами поиска и веб-страницами, а не пользовательский контент.
Эти сигналы формируются на основе того, как пользователи взаимодействуют с вашей страницей еще до перехода на нее, то есть непосредственно в поисковой выдаче.
Необходимо максимальное соответствие интенту: Контент на странице должен точно отвечать на запрос, который привел пользователя.
Эти сигналы формируются уже после того, как пользователь перешел на ваш сайт.
Please open Telegram to view this post
VIEW IN TELEGRAM
Выводы:
1. User-Side Data – это не отдельные метрики, а экосистема сигналов. Работайте над улучшением пользовательского опыта комплексно.
2.Контент Интент – царь и бог: Глубокое понимание и удовлетворение интента пользователя по каждому запросу – основа для положительных поведенческих сигналов.
3. Техническое SEO + UX = ❤️: Быстрый, удобный, адаптивный сайт – это минимум, необходимый для продвижения.
Анализируйте данные из Google Analytics 4, Google Search Console, тепловых карт (я юзаю Clarity от мелкомягких) и A/B тестов для выявления точек роста и проблемных зон. Не пытайтесь "накрутить" поведенческие факторы искусственно. Google достаточно хитер и злопамятен, чтобы распознать такие манипуляции, что приведет к санкциям. Только естественное улучшение сайта (если он белый) для пользователей!
#DrMax #SEO #Google
1. User-Side Data – это не отдельные метрики, а экосистема сигналов. Работайте над улучшением пользовательского опыта комплексно.
2.
3. Техническое SEO + UX = ❤️: Быстрый, удобный, адаптивный сайт – это минимум, необходимый для продвижения.
Анализируйте данные из Google Analytics 4, Google Search Console, тепловых карт (я юзаю Clarity от мелкомягких) и A/B тестов для выявления точек роста и проблемных зон. Не пытайтесь "накрутить" поведенческие факторы искусственно. Google достаточно хитер и злопамятен, чтобы распознать такие манипуляции, что приведет к санкциям. Только естественное улучшение сайта (если он белый) для пользователей!
#DrMax #SEO #Google
Google опубликовал новые рекомендации (от Дж. Мюллера !!!) по оптимизации контента для своих AI-интерфейсов (AI Overviews, AI Mode). Вот выжимка из оного с комментариями и примерами:
1. Ценный контент для людей
Мюллер заявляет: AI-ответы строятся на контенте, удовлетворяющем сложные, многоэтапные запросы. Это прямой намек на углубление E-E-A-T. AI будет оценивать не просто уникальность текста, а глубину экспертизы, подтвержденную фактами, данными, авторством. Фокусируйтесь на создании контента, который отвечает не на один, а на пул связанных интентов.
Пример: Не просто "как выбрать смартфон", а "сравнительный анализ камер флагманских смартфонов 2025 года в условиях низкой освещенности с примерами фото и ссылками на исходники".
2. Page Experience.
Важность юзабилити, скорости загрузки, адаптивности, четкого выделения основного контента.
Core Web Vitals (особенно INP – Interaction to Next Paint) становятся еще критичнее. AI-системы могут понижать в выдаче страницы с плохим UX, даже если контент релевантен. LCP, FID/INP, CLS – постоянно отслеживаем.
3. Техническая доступность контента.
Отсутствие блокировок для Googlebot, код ответа 200, индексируемый контент. Проверьте корректность директив в robots.txt и мета-тегах robots. Убедитесь, что JS-контент корректно рендерится и доступен Googlebot. Важна чистота HTML-кода и логичная структура заголовков (H1-H6) для лучшего парсинга AI.
4. Управление видимостью через Preview Controls.
Используйте nosnippet, data-nosnippet, max-snippet, noindex. Это ваш инструмент влияния на то, как контент используется в AI Overviews. Стратегически подходите к их использованию. max-snippet:[длина] позволяет дать затравку, но стимулировать клик. data-nosnippet для исключения конкретных частей контента.
Пример: Для статьи с уникальным исследованием можно установить max-snippet:180, чтобы дать понять суть, но не раскрыть все выводы, мотивируя переход.
5. Соответствие структурированных данных видимому контенту.
Валидация и соответствие разметки тому, что видит пользователь. Активно используйте релевантные типы Schema.org: Article (с author, datePublished, dateModified), FAQPage, HowTo, Product, Recipe. Чем точнее и полнее разметка, тем легче AI понять суть контента и использовать его. Особое внимание на author и publisher для демонстрации E-E-A-T.
6. Мультимодальность
Качественные изображения, видео, актуальные Merchant Center и Google Business Profile. Оптимизируйте имена файлов изображений, заполняйте alt атрибуты осмысленным текстом. Для видео – транскрипции и субтитры. Изображения и видео должны быть уникальными и дополнять текст. Используйте разметку ImageObject и VideoObject.
Пример: В статье о ремонте двигателя прикрепите не стоковую картинку, а реальные фото процесса с поясняющими alt или диаграмму с разметкой.
7. Понимание полной ценности визитов.
Мюллер говорит: Клики из AI Overviews могут быть более качественными, пользователи – более вовлеченными.
Дополнение: Сместите фокус с количества кликов на качество сессий и конверсии. Анализируйте поведение пользователей, пришедших из AI-блоков: глубина просмотра, время на сайте, достижение микро- и макро-целей. Это может указывать на необходимость доработки контента под более "прогретую" аудиторию.
Пример: Если видите, что трафик из AI Overviews имеет высокий показатель отказов на определенной странице, возможно, она не до конца удовлетворяет сформированный у пользователя AI-ответом интент.
ВСЯКИЕ РАЗНЫЕ МЫСЛИ
1. Семантическое ядро и NLP-оптимизация: Создавайте контент, максимально насыщенный синонимами, связанными терминами и сущностями. Структурируйте текст так, чтобы он был легко понятен алгоритмам обработки естественного языка (NLP). Думайте о "вопрос-ответных" парах. Юзайте софт SEO Релевантность.
Please open Telegram to view this post
VIEW IN TELEGRAM
2. Внутренняя перелинковка: Укрепляйте тематическую релевантность страниц с помощью продуманной внутренней перелинковки. AI-системы это учитывают при оценке авторитетности и полноты раскрытия темы. Ссылайтесь на поддерживающие материалы и основные "хабовые" страницы (коконцы ))) ).
3. Обновление контента (Content Freshness): Для многих запросов AI будет отдавать предпочтение свежей информации. Регулярно пересматривайте и обновляйте ключевые материалы, особенно если они касаются быстро меняющихся тем (см посты про таблицы и прочее, что публиковал ранее).
4. Авторитетность домена и авторов: Продолжайте наращивать общую авторитетность сайта (качественные обратные ссылки, упоминания). Подчеркивайте экспертизу авторов (отдельные страницы, ссылки на профили, упоминания в тексте).
Выводы: Эволюция Google Search с AI – это не отмена старых правил, а их ужесточение и смещение акцентов. Глубокая экспертиза, техническое совершенство и фокус на пользовательском опыте – вот ключи к успеху в новой AI-реальности.
Адаптируйтесь!
#DrMax #SEO #Google #AIOverviews
3. Обновление контента (Content Freshness): Для многих запросов AI будет отдавать предпочтение свежей информации. Регулярно пересматривайте и обновляйте ключевые материалы, особенно если они касаются быстро меняющихся тем (см посты про таблицы и прочее, что публиковал ранее).
4. Авторитетность домена и авторов: Продолжайте наращивать общую авторитетность сайта (качественные обратные ссылки, упоминания). Подчеркивайте экспертизу авторов (отдельные страницы, ссылки на профили, упоминания в тексте).
Выводы: Эволюция Google Search с AI – это не отмена старых правил, а их ужесточение и смещение акцентов. Глубокая экспертиза, техническое совершенство и фокус на пользовательском опыте – вот ключи к успеху в новой AI-реальности.
Адаптируйтесь!
#DrMax #SEO #Google #AIOverviews
В контексте AI Overviews аттрибут data-nosnippet является одним из ключевых. Если nosnippet – это "ядерный вариант" (скрыть весь сниппет), то data-nosnippet позволяет хирургически вырезать конкретные части HTML-кода страницы из формирования сниппетов и, следовательно, из ответов AI.
Для чего это нужно? Сейчас разные там AI могут "слишком хорошо" отвечать на запрос пользователя, не оставляя ему причин для перехода на сайт. Используя data-nosnippet можно подсунуть AI достаточно информации для формирования полезного ответа, но при этом скрыть самый цимус, который мотивирует переход на сайт.
Вот сценарии использования data-nosnippet:
1. Защита CTA и конверсионных элементов:
Часто цена или точная скидка могут быть извлечены в AI Overview. Чтобы побудить пользователя перейти для ознакомления с полными условиями или вариантами, можно скрыть эти элементы из сниппета.
Пример:
<p>Наш новый процессор Z80 обеспечивает прирост производительности до 40%.</p>
<div data-nosnippet>
<p>Специальная цена: $299! <a href="/buy-z80">Купить сейчас со скидкой 15%</a></p>
</div>
<p>Узнайте больше о технологии Sinclair...</p>
Результат: AI может упомянуть прирост производительности, но для цены и покупки нужно будет кликнуть.
2. Исключение шаблонного/малоценного для сниппета контента:
Навигационные "хлебные крошки", стандартные подписи авторов под каждым абзацем (если они объемные), дисклеймеры, повторяющиеся блоки "Поделиться в соцсетях" – все это можно и нужно скрыть, чтобы AI сфокусировался на сути.
Пример:
<h1>Обзор смартфона AlphaOne</h1>
<p>AlphaOne удивляет временем автономной работы...</p>
<div data-nosnippet>
<p>Автор: Иван Петров. Опубликовано: 20.05.2025. Категория: Гаджеты.</p>
</div>
<p>Основной тест батареи показал...</p>
Результат: Сниппет будет чище и сфокусирован на самом обзоре.
3. Сокрытие "спойлеров" или ключевых данных для стимуляции перехода:
Если у вас на страничке есть уникальное исследование, таблица с эксклюзивными данными или вывод, который является кульминацией статьи, его можно частично или полностью скрыть из сниппета.
Пример (для статьи со статистикой):
<p>Мы проанализировали 10,000 сайтов и выявили корреляцию между скоростью загрузки и конверсией.</p>
<div data-nosnippet>
<p>Точные цифры: увеличение скорости на 1 секунду повышает конверсию в среднем на 7.3% (полная таблица по нишам доступна в статье).</p>
</div>
<p>Подробности методики и разбивку по отраслям читайте в нашем полном отчете.</p>
Результат: AI может указать на наличие важной статистики, но за деталями придется идти на сайт.
4. Управление отображением в спец. блоках:
Например, если у вас есть блок "Часто задаваемые вопросы" на странице, и вы не хотите, чтобы определенный вопрос-ответ попадал в AI Overview (возможно, он слишком общий или вы хотите, чтобы пользователь увидел его в контексте других FAQ на странице).
Пример:
<h2>FAQ по услуге SEO-аудита</h2>
<div>
<h3>Сколько стоит аудит?</h3>
<p>Цена зависит от объема сайта...</p>
</div>
<div data-nosnippet>
<h3>А вы работаете с маленькими сайтами?</h3>
<p>Да, у нас есть решения для любого бизнеса. Для обсуждения деталей, пожалуйста, свяжитесь с нами.</p>
</div>
Результат: Ответ на вопрос о маленьких сайтах с призывом к контакту может быть скрыт из быстрого ответа, побуждая к изучению других FAQ или прямому обращению.
Ну еще можно выдумать 100500 примеров использования. Применять оное крайне просто - добавьте атрибут data-nosnippet к тегам <span>, <div> или section, контент внутри которых вы хотите исключить из сниппетов.
Важно: Контент, обернутый в data-nosnippet, остается видимым для пользователей на самой странице и индексируется Google. Исключение касается только его использования в сниппетах.
Не злоупотребляйте. Если скрыть слишком много, сниппет может стать бесполезным, и Google может выбрать другой, менее релевантный источник, или вообще не использовать ваш контент.
Тестируйте и анализируйте влияние на CTR и поведение пользователей.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Гугл заявляет, что данные по эффективности AI Mode (полноценного ИИ-режима поиска) скоро появятся в Search Console. Однако эти данные не будут выделяться в отдельный сегмент. Они войдут в общий отчет "Веб-поиск" без возможности анализа конкретно AI Mode.
Что анонсирует Гугл:
К чему все это может привести:
Гугл делает все, чтобы затруднить SEO )))) И это нормально )))
Еще почитать можно тут.
#DrMax #SEO #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
Сразу скажу, что есть более умелые и правильные инструменты и сервисы, но вот если пришла нужда, а ничего кроме Лягушки нет под рукой.
Допустим, нам нужно собрать все цены на товары из определенного блока сайта. Нет, лучше возьмем чуть более простой пример - проверка наличия обратных ссылок на страницах доноров.
Используем так:
1. Переводим лягушку в List Mode
2. Идем в настройки конфигурации парсинга и снимаем крыжики с парсинга всего, кроме HTML страниц
3. Далее идем Configuration -> Custom -> Extraction и заводим новый экстрактор
4. Выбираем поле XPath и вводим XPath-запрос ( для извлечении ссылки на любую страницу вашего сайта):
//a[contains(@href, 'site.com')]
правее в экстракторе выбираем "Extract HTML Element", чтобы увидеть всю ссылку, или "Inner HTML" для извлечения только анкора
5. Подсовываем список страниц для обработки (или через ручную вставку или через импорт)
6. Пожужжав, идем на вкладку Настраиваемых экстракторов и смотрим, есть ссылки или нет. Но лучше выгрузить все в Excel для анализа.
Аналогично, можно собирать абсолютно любую инфу как со статичных страниц, так и с JS страниц отдельного сайта. Желательно чтобы они (страницы)имели одинаковый шаблон Для этого
1. заведите новый экстрактор
2. тыкните справа в нем иконку "Глобус"
3. загрузится страничка (кою вы укажите для настройки извлечения)
4. тыкайте слева в окошке встроенного браузера элементы, которые надо извлечь, а справа поднастройте извлечение, выбрав один из вариантов из предложенного списка. Так вы создадите свой настраиваемй экстрактор.
Ну, в целом, как быстрая замена для проф инструментов, Лягушка отлично подойдет.
#DrMax #ScreamingFrog #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Наш коллега, товарищ и просто хороший человек Андрей Симагин опять выкатил обновлении своей тулзы. Если кто не знает Андрея - то он является создателем кучи отличного SEO Софта (бесплатного или копеечной стоимости), который свободно конкурирует с поделками известных буржуинских производителей (например Лягушка).
Итак, что нового в тулзе:
Подробнее: https://site-analyzer.ru/articles/seo-extension-panel/
Ставьте, юзайте - это бесплатно и крайне полезно.
Андрей читает наш чат (комментарии) и отвечает на умные вопросы там же - так что закидывайте его в комментах предложениями )))
#DrMax #SEO #SiteAnalyzer
Please open Telegram to view this post
VIEW IN TELEGRAM
Собственно список на что надо посмотреть ПЕРЕД детальным анализом будущего донора. Юзается для быстрого отсеивания говно-доноров.
✅ Дата в футере сайта: Если не соответствует текущему году, сайт может быть частично или полностью заброшен. Опасаемся.
✅ Последние публикации (смотрим sitemap.xml, разделы "блог/новости"): Отсутствие свежих материалов или нерегулярные публикации – признак низкой активности. Изучите тематику последних статей.
✅ Тематика и качество исходящих ссылок в свежих материалах: Если публикации нетематичны вашему акцептору, содержат ссылки на казино, беттинг, адалт, МФО, фармакологию (если это не профиль донора) – сайт используется как линкферма. Отказ.
✅ Semrush: Динамика органического трафика: Резкое падение трафика или его околонулевые значения – негативный сигнал. Возможны фильтры. Отказ.
✅ Semrush: Authority Score (AS): Слишком низкий AS (относительно вашей ниши и конкурентов) - мало траста от ссылки.
✅ Semrush: Количество и качество ссылающихся доменов на донора: Мало или преобладание спамных ссылающихся доменов – плохой признак. Отказ.
✅ Визуальная оценка (дизайн, юзабилити): Устаревший дизайн, плохая верстка, обилие навязчивой рекламы (особенно pop-up, clickunder)
✅ Индексация сайта (site:domain.com в Google): Малое количество страниц в индексе относительно заявленного или видимого контента.
✅ Контактная информация и страница "О нас": Отсутствие внятных контактов, анонимность, использование бесплатных почтовых сервисов – плохо.
✅ Разделы "Реклама", "Разместить статью", "Write for us": Если условия размещения откровенно указывают на продажу ссылок без редакционного контроля, с низкими требованиями к качеству контента – высокий риск.
✅ Соотношение контента и исходящих ссылок на странице: Если на странице больше ссылок, чем текста, или ссылки вставлены неестественно – это линкопомойка.
✅ Возраст домена и история (Wayback Machine, Semrush)
Если чек лист пройден, то приступайте к детальному анализу донора. Это крайне полезно для экономии бюджета, особенно в бурже.
Накидайте в комментах - на что вы еще смотрите для молниеносной ПЕРВИЧНОЙ оценки донора.
#DrMax #SEO #ссылки
Please open Telegram to view this post
VIEW IN TELEGRAM
Начало (1998-2000-е):
PageRank (PR) изначально был ядром алгоритма Google. Его суть – оценка важности страницы на основе количества и качества входящих ссылок. Чем авторитетнее ссылающиеся страницы, тем больше "веса" передается.
Усложнение и скрытие (2000-е - 2016):
Обновление Florida (2003) начало борьбу с переоптимизацией. Публичный Toolbar PageRank перестал регулярно обновляться с 2013 года и был окончательно убран в 2016-м, хотя сама концепция PR продолжала использоваться внутри Google.
Эпоха ИИ 2015 - наши дни):
Появление RankBrain в 2015 году обозначило использование машинного обучения для интерпретации запросов и оценки релевантности. Утечка данных Google 2024 года подтвердила, что классический PR не исчез, а эволюционировал в несколько внутренних версий:
Дополняющие системы:
Вывод:
Современные вариации PR фокусируются не только на количестве и "весе" ссылок, но и на их контекстуальной релевантности, близости к авторитетным источникам и тематической кластеризации.
#DrMax #PageRank #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Написал статью о том что такое PageRank_NS, как оно работает и расписал несколько приемов (не особо очевидных) для оптимизации сайта.
Поскольку статья обширная - разместил в Телеграфе, где её и можно прочесть.
Обратите внимание, что расписано 8 приемов оптимизации. Всяческие стандартные, типа роста EEAT, качества контента, технички - не расписывал - вы и так все их знаете. Если вы видите меньше 8 приемов в статье - то перегрузите страничку со статьей (бывает, что телеграф глючит).
Приятного чтения.
ЗЫ
На выходных планирую выложить интересную и главное практическую статью по улучшению ранжирования. Ну если допишу, конечно.
#DrMax #SEO #PageRankNS
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Анализ PageRank_NS и оптимизация сайта под метрику
PageRank_NS (Nearest Seed) – это эволюция классического PageRank, сфокусированная на семантическом понимании и кластеризации контента. Работает путем оценки "близости" страницы к авторитетным "семенным" (seed) сайтам в определенной тематике. Чем короче и…
1. Тут товарищи анализ провели и выяснили, что число ссылок (естественных) коррелирует с размером текста. Если кратко, то на страницах более 1000 слов началось заметное падение внешних естественных ссылок. Таким образом получаем некие пределы контента от 250 до 1000 слов. но это не точно )))
2. Анализ Гугло слива изменил понимание того, как Google определяет Thin Content - он оценивается не по длине текста, а по его оригинальности. Это означает, что короткий, но уникальный и ценный контент будет ранжироваться выше длинного, но шаблонного текста. Гугл оценивает не количество слов, а логическую структуру изложения, связность идей и прямоту ответа на запрос.
3. Принцип достаточности. Современный подход к определению оптимальной длины контента кардинально отличается от традиционных представлений о том, что "больше значит лучше". Исследования показывают, что контент должен быть настолько длинным, насколько это необходимо для полного ответа на вопрос пользователя, будь то 200 или 2000 слов. Ключевым фактором становится минимизация количества "переходов" в логической структуре контента. Чем меньше логических "скачков" между идеями, тем легче Google понимать связи между утверждениями и определять фокус контента. Отсюда вывод: некоторые темы лучше раскрывать через FAQ-секции, маркированные списки или другие структурированные форматы, а не традиционные длинные статьи.
Ставьте Клариту от Микрософта и смотрите как посетители лазают по сайту, как читают контент, как кликают по ссылкам. Собственно универсальной длины контента не существует, но стало понятно, что простыни нафиг не нужны: чем компактней и точней контент - тем лучше.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Согласно прошлогоднему исследованию по zero-click search в США 58.5% поисков в Google не ведут к кликам на органику или рекламу, в ЕС – 59.7%. На сайты из 1000 запросов в 2024 году в США приходилось 360 кликов, в ЕС – 374. Почти 30% всех кликов в США уходили на сервисы Google.
После введения AI Overviews, данные показатели еще ухудшились.
Как бороться:
1. Необходимо пролезать в AI Overviews, Featured Snippets и PAA. Для этого используйте четкую структуру вопрос-ответ, списки, таблицы.
Пример: для запроса "регламент замены масла" создайте краткую инструкцию (с микроразметкой), которая может попасть в snippet, повышая узнаваемость бренда.
2. Schema Markup: Максимально используйте разметку (FAQ, HowTo, Product, Event). Это увеличивает видимость и информативность сниппета и помогает пролезть в LLM модели.
3. Дальнейшее "прилипание" к экосистеме Google (Barnacle SEO 2.0):
3.1. YouTube: Для информационных и how-to запросов видео часто занимают топовые позиции и дают прямой ответ.
3.2. Google Business Profile (GBP): Полностью заполненный профиль, регулярные посты, ответы на вопросы пользователей – прямая дорога к клиенту с SERP.
Пример: ресторан должен регулярно обновлять меню в GBP и публиковать акции.
3.3. Google Images/Shopping: Оптимизированные изображения (alt-теги, имена файлов, качество) и фиды для Merchant Center – дополнительные точки касания.
4. Контент-стратегия 2025:
4.1. Двойная цель контента: Предоставляйте быстрый ответ (для SERP-фич), но создавайте стимул для клика (уникальные данные, калькуляторы, углубленный анализ). Пример: статья "сколько стоит построить дом" может дать диапазон цен в snippet, но полный расчет сметы или конфигуратор доступны на сайте.
4.2. Брендинг через SERP: Даже zero-click показы работают на узнаваемость, если ваш бренд виден в ответах и расширенных сниппетах.
Раз кликов меньше, конверсия каждого посетителя становится критически важной. Аудит и оптимизация посадочных страниц, UX, скорости загрузки – постоянная работа.
Необходим высококачественный, экспертный, авторитетный и достоверный контент с четкой структурой, использующий семантически связанные сущности.
Оптимизируйте не только под ключевые слова, но и под темы и объекты (entities), которые Google понимает.
#DrMax #SEO #Google
ps
само исследование
Please open Telegram to view this post
VIEW IN TELEGRAM
Примерно со 2-3 июня начал бушевать могучий и необъявленный Гугл Ап. Трясет не только выдачу, но и сами сайты: страницы вылетают из индекса и опять стремительно залетают обратно ))) При этом в панели мониторинга апов - молчок.
Перед вылетом (помещением в раздел просканировано - не проиндексировано), страницы проходят несколько этапов:
1. На странице достаточно резко падает трафик. Бог с ним с трафиком (это от ссылочного зависит). На странице резко падает количество просмотров, вплоть до 0.
2. Страница перестает переобходиться Гуглом.
3. Как закономерный итог - страница признается некачественной и помещается в "Просканировано - не проиндексировано". Это финал и полное фиаско.
Чем больше у вас страниц (признанных некачественными) в этом разделе - тем проблемней и хуже ваш сайт (в глазах Гугла). Да, есть множество причин, почему страницы туда попадают, но ежели они признаются некачественными (прошли все указанные этапы) - дело плохо.
Посему доводить до вылета страниц из индекса - категорически не нужно. Периодически сверяйтесь в GSC (эффективность - сравнение периодов), не припал ли траф. Периодически прогоняйте сайт лягушкой с подключенной API GSC и смотрите сколь дней прошло с момента переобхода страницы. И наиболее критические страницы переделывайте.
Напомню, у гугла есть метрика общего качества сайта (пресловутый траст сайта) - SiteAuthority, которая оценивает авторитетность всего домена и явно участвует в ранжировании. Поэтому доводить проект до восприятия его Гуглом, как не качественный - явно плохая затея.
Хорошего апа. И да, посмотреть на лютость изменений можно вот тут.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Вычитал офигенскую статью про то как работает AI Search. Статья основана на анализе патентов Гугла. Я приведу основные мысли статьи со своими комментариями. Итак, детерминированный поиск уступает место вероятностному. LLM не просто ранжируют – они интерпретируют, синтезируют и персонализируют ответы.
Query Fan-Out: Запрос пользователя – лишь триггер. LLM генерирует "веер" синтетических запросов (связанных, неявных, сравнительных, на основе истории). Ваш контент оценивается по релевантности всему этому "облаку" интентов.
Внедрение: Расширяйте семантическое ядро за пределы прямых вхождений. Прорабатывайте коконцы (тематические кластеры), отвечая на смежные и подразумеваемые вопросы.
Пример: для "лучший смартфон до 50000" готовьте контент по "сравнение камер смартфонов среднего сегмента", "автономность телефонов в категории Х", "смартфоны с NFC и беспроводной зарядкой".
Passage-Level Optimization & Pairwise Ranking: LLM оперируют не страницами, а пассажами (абзацами, блоками). Происходит попарное сравнение пассажей ("pairwise ranking prompting") на релевантность синтезированному запросу. Побеждает не страница, а самый точный и полезный фрагмент.
Внедрение: Структурируйте контент на атомарные, самодостаточные блоки. Каждый пассаж должен четко отвечать на микро-интент, быть фактологически выверенным и легко извлекаемым. Используйте семантические триплеты (субъект-предикат-объект).
Пример: Вместо общего раздела "Преимущества", создайте подзаголовки "Скорость доставки: 24 часа по МСК", "Гарантия: 2 года на все модели".
Reasoning Chains & Content Support: LLM строят "цепочки рассуждений" (reasoning traces). Контент оценивается по его способности поддерживать эти логические шаги.
Внедрение: Создавайте контент, который не просто отвечает, а объясняет, сравнивает, предоставляет данные для выводов. Важна не только фактура, но и логическая структура изложения.
Пример: Статья о выборе CRM должна не просто перечислять функции, а показывать, как функция А решает проблему Б для сегмента В, что приводит к результату Г.
Персонализация через User Embeddings: Контекст пользователя (история поиска, геолокация, взаимодействия с сервисами Google) преобразуется в эмбеддинги, влияющие на интерпретацию запроса и генерацию ответа. Ранжирование становится гипер-персональным. Разрабатывайте контент под разные пользовательские персоны и их пути (user journeys). Учитывайте разнообразие информационных потребностей и стилей потребления контента.
#DrMax #SEO #AIOverviews
Please open Telegram to view this post
VIEW IN TELEGRAM
Это самое интересное в статье, что разбирали выше.
1. Исходный запрос + Контекст: Система получает запрос пользователя и обогащает его контекстом: предыдущие сессии, геолокация, история взаимодействий с сервисами Google, данные из пользовательских эмбеддингов (для AI Mode).
2. Генерация Синтетических Запросов: На основе этой информации LLM генерирует множество синтетических запросов. Это не просто синонимы, а целый спектр связанных интентов:
2.1. Связанные (Related): К "ремонт iPhone X" -> "замена экрана iPhone X цена", "сервисы Apple Москва".
2.2. Неявные (Implied): К "симптомы простуды" -> "чем лечить насморк дома", "когда сбивать температуру взрослому".
2.3. Сравнительные (Comparative): К "выбрать робот-пылесос" -> "сравнение Xiaomi Roborock и Dreame", "лучший робот-пылесос для шерсти животных".
2.4. Уточняющие/На основе истории: Если ранее искали "рецепт борща", новый запрос "капуста" может быть интерпретирован как "какая капуста для борща".
3. Формирование "Кастомного Корпуса": Документы из индекса извлекаются не только под исходный, но и под весь "веер" синтетических запросов. Создается кастомный набор релевантного контента.
4. Синтез Ответа: Из этого корпуса LLM выбирает наиболее подходящие пассажи для генерации ответа в AI Overview или AI Mode.
Что это значит для SEO и что делать:
1. Стратегия "Тематического Охвата": Контент должен покрывать не единичные ключи, а весь спектр связанных подтем, вопросов и проблем пользователя вокруг основного интента.
Пример: Статья о "выборе CRM" должна затрагивать "интеграция CRM с 1С", "стоимость внедрения CRM", "сравнение облачных и коробочных CRM".
2. Глубокая Проработка Семантики: Расширяйте СЯ за счет LSI, вопросов, разговорных формулировок, которые LLM может сгенерировать. Анализируйте "Люди также спрашивают" и связанные запросы.
3. Контент, Предвосхищающий Вопросы: Создавайте материалы, которые отвечают на последующие, неявные запросы пользователя в рамках его информационной потребности.
4. Структура для LLM: Четкие подзаголовки, списки, таблицы, FAQ-блоки помогают LLM легче "понять" и использовать ваш контент для разных синтетических запросов.
Выводы: Чтобы ваш контент был замечен и использован AI-системами Google, он должен быть релевантен не только прямому запросу, но и десяткам его вероятностных интерпретаций, генерируемых через Query Fan-Out. В апреле я много публиковал статей на эту тему, в том числе и как делать многоэтапные промты для генерации контента.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
В эпоху мультиформатного потребления информации и AI-driven поиска, ручной репурпосинг контента – непозволительная роскошь. Автоматизация этого процесса становится ключевым фактором масштабирования SEO-усилий и укрепления топикальной авторитетности.
Суть подхода: Использование AI (ChatGPT API, Claude API и др.) и платформ автоматизации (Make.com, Zapier) для трансформации одного качественного "материнского" контента (лонгрид, исследование) в множество производных форматов.
Практическая реализация:
Исходный актив: Глубокая статья, вебинар, расшифровка подкаста. Качество первоисточника – критично.
AI-обработка: Генерация саммари, ключевых тезисов, уникальных выводов, сценариев для коротких видео/аудио, постов для соцсетей (LinkedIn, Telegram, X), FAQ на основе контента.
Пример реализации:
Триггер: Публикация нового поста в блоге (через RSS или webhook).
Действие 1: Отправка URL или текста в AI-сервис (например, через API) для создания 5-7 ключевых выводов и короткого скрипта для видео/аудио.
Действие 2: Передача сгенерированных текстов в сервисы синтеза речи (для аудиоверсии) или API видеогенераторов (если доступны, например, для создания тизерных роликов из текста и стоковых медиа).
Действие 3: Автоматическое создание черновиков постов в Buffer, Hootsuite или напрямую в CMS с уникальными подводками для каждого канала и ссылками на основной материал и другие производные.
Человеческий контроль: Финальная вычитка, фактчекинг, добавление экспертного мнения.
SEO-преимущества:
1. Расширение охвата и точек входа: Присутствие на разных платформах (блог, YouTube, подкаст-платформы, соцсети) и в разных форматах, удовлетворяя предпочтения разнообразной аудитории.
2. Укрепление топикальной авторитетности: Множественные взаимосвязанные единицы контента по узкой теме формируют мощный семантический кластер, сигнализируя поисковым системам о вашей глубокой экспертизе.
3. Усиление E-E-A-T сигналов
4. Генерация естественных ссылок и упоминаний: Качественный репурпосед контент охотнее распространяется пользователями на разных площадках.
5. Повышение вовлеченности: Разнообразие форматов удерживает внимание аудитории и стимулирует взаимодействие.
Внедрение даже частичной автоматизации репурпосинга – это стратегическая инвестиция в долгосрочную видимость, авторитет и конверсионный потенциал вашего проекта.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Ключевые цифры (и мысли) по AIO на сегодня:
1. Доминирование инфозапросов: Почти 100% AIO триггерятся информационными запросами. Коммерческие и транзакционные пока затронуты слабо (около 10% случаев). Фокусируйтесь на создании исчерпывающего контента, отвечающего на "как", "что", "почему".
2. Длинный хвост (Long-tail) рулит: Запросы из 8+ слов в 7 раз чаще получают AIO. Детализированные long-tail KWs – путь в AIO.
Пример: не "ремонт смартфона", а "как заменить аккумулятор на iphone 13 pro самому инструкция".
3. Шанс не только для топ-10: 40% источников в AIO находятся за пределами топ-10 органики (позиции 11-20). Это окно возможностей для качественных сайтов, еще не пробившихся в самый топ. Усиливайте E-E-A-T, работайте над глубиной контента.
4. Заметность и CTR: AIO занимают до 48% экрана на мобильных. Хотя некоторые исследования указывают на снижение CTR до 35% для топовых страниц, другие данные говорят, что 63% бизнесов видят позитивное влияние AIO на трафик и видимость. Брендированные упоминания в AIO могут увеличивать CTR бренда.
5. Структура контента для AIO: 7 из 10 пользователей читают лишь первые строки AIO. Важно структурировать контент так, чтобы ключевая информация была в начале (принцип перевернутой пирамиды). Используйте четкие подзаголовки (H2-H4), списки, таблицы – все, что помогает быстро извлечь суть.
6. Технические и сложные ниши: Запросы с технической терминологией на 48% чаще получают AIO. Если ваша ниша – B2B tech, инженерия, медицина (где важна точность) – оптимизация под AIO критична.
7. E-com и Local SEO пока в стороне: AIO редко показываются по e-commerce запросам (4%) и локальным (7%). Для интернет-магазинов и локального бизнеса прямая угроза пока ниже, но следить за трендами необходимо.
Выводы:
1. Структурированные данные: Внедряйте все релевантные типы Schema.org (FAQPage, HowTo, Article, VideoObject). Это помогает Google лучше понимать контент и потенциально использовать его в AIO.
2. Оптимизация под "People Also Ask" (PAA): 81% SERP с AIO также содержат блоки PAA. Ответы на вопросы из PAA могут стать источником для AIO. Интегрируйте эти вопросы и краткие, емкие ответы на них в свой контент (юзайте FAQ).
3. Авторитетность и ссылки: Хотя страницы не из топ-10 могут попасть в AIO, общая авторитетность домена и качественный ссылочный профиль остаются важнейшим фактором ранжирования.
4. UGC-платформы как источник: Reddit и Quora – популярные источники для AIO. Это сигнал к необходимости мониторинга упоминаний бренда на этих платформах и, возможно, к стратегическому присутствию там (например, экспертные ответы от имени компании).
5. Адаптация под голосовой поиск: Длинные, естественно звучащие запросы, характерные для голосового поиска, пересекаются с типами запросов, триггерящих AIO. Оптимизация под voice search может косвенно помочь попасть в AIO.
#DrMax #AIOverviews #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Итак, внедрение Google AI Mode (SGE / AI Overviews) привело к тому, что традиционное ранжирование полной страницы уступает место включению отдельных чанков (пассажей) контента непосредственно в AI-ответы. Как один из вариантов SEO продвижения - забыть о топ-1 страницы, как о самоцели. Теперь главная метрика – попадание в синтезированный ответ AI.
Теория:
1. AI генерирует ответы из множества подзапросов: Google не просто отвечает на ваш запрос, а выполняет серию связанных внутренних запросов. AI-ответ – это сборка лучших фрагментов контента по каждому из них.
Действие: Дробите контент на атомарные, самодостаточные блоки, каждый из которых отвечает на один узкий вопрос или аспект темы. Вместо общей статьи «Преимущества CRM» – отдельные H2/H3 для «CRM для отдела продаж», «Автоматизация маркетинга с CRM», «Интеграции CRM с X».
2. Гиперрелевантные пассажи > общая релевантность страницы: Страница может не быть в топе по основному запросу, но ее отдельный абзац – лучший ответ на один из подзапросов AI – попадет в сводку. Это «неявное ранжирование».
Действие: Насыщайте каждый чанк семантикой и связанными сущностями. Используйте синонимы, LSI, отвечайте на потенциальные вопросы (из PAA, "Related searches").
Пример: в блоке «Стоимость HubSpot для стартапов» упомяните «бесплатный тариф», «начальные пакеты», «ежемесячная оплата», «лимиты пользователей», «ключевые функции».
3. Цель – быть частью ответа, а не просто получить клик: AI-системы стремятся дать готовый ответ, минимизируя необходимость перехода на сайт.
Действие: Создавайте контент, который легко цитируется и используется в качестве источника. Точность, ясность и E-E-A-T на уровне каждого чанка критичны.
Руками это проделать - рехнешся. Поэтому вовсю можно и нужно использовать LLM для генерации контента нужной формации. К примеру у меня промпты давно перевалили за 3000 слов и включают несколько десятков требований, разбитых на 3-4 этапа, каждый из последующих этапов проверяет предыдущий и корректирует его.
Итак, практика:
1. Гранулярное структурирование контента: Четкие заголовки (H2-H6), списки, таблицы, определения. Каждый смысловой блок должен быть легко идентифицируемым для парсера.
2. Микроразметка для чанков: Используйте Schema.org не только для FAQPage. Внедряйте HowTo для инструкций, QAPage для вопросов-ответов, размечайте определения (DefinedTerm), выделяйте ключевые тезисы.
Пример: Для инструкции «Как настроить Google Analytics 4» – HowToStep для каждого шага. Для важного определения в статье – DefinedTerm внутри Article с termCode и name.
3. Внутренняя перелинковка на якоря (#): Ссылайтесь на конкретные разделы (id атрибуты у заголовков/блоков) страниц. Это усиливает релевантность чанка для специфического контекста и помогает AI навигации.
4. Анализ PAA и интентов: Идентифицируйте «микро-моменты» и вопросы пользователей (Google PAA, "Related searches", форумы, комментарии) и создавайте под них контентные блоки, оптимизированные как микро-ответы.
Пример: Если PAA по запросу "лучший смартфон" включает "какой смартфон лучше для фото", создайте чанк, детально отвечающий именно на это.
5. Краткость, ясность, самодостаточность: Каждый чанк должен быть понятен и давать ценность даже в отрыве от остального контента. Прямые ответы, минимум «воды».
Мониторьте появление вашего контента в AI Overviews (SGE) по целевым запросам. Инструменты для трекинга позиций в SGE становятся маст-хэв. Анализируйте отчеты GSC по показам и кликам для очень длинных, вопросительных запросов – это могут быть те самые скрытые подзапросы AI.
#DrMax #AIOverviews #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM