Ключевые цифры (и мысли) по AIO на сегодня:
1. Доминирование инфозапросов: Почти 100% AIO триггерятся информационными запросами. Коммерческие и транзакционные пока затронуты слабо (около 10% случаев). Фокусируйтесь на создании исчерпывающего контента, отвечающего на "как", "что", "почему".
2. Длинный хвост (Long-tail) рулит: Запросы из 8+ слов в 7 раз чаще получают AIO. Детализированные long-tail KWs – путь в AIO.
Пример: не "ремонт смартфона", а "как заменить аккумулятор на iphone 13 pro самому инструкция".
3. Шанс не только для топ-10: 40% источников в AIO находятся за пределами топ-10 органики (позиции 11-20). Это окно возможностей для качественных сайтов, еще не пробившихся в самый топ. Усиливайте E-E-A-T, работайте над глубиной контента.
4. Заметность и CTR: AIO занимают до 48% экрана на мобильных. Хотя некоторые исследования указывают на снижение CTR до 35% для топовых страниц, другие данные говорят, что 63% бизнесов видят позитивное влияние AIO на трафик и видимость. Брендированные упоминания в AIO могут увеличивать CTR бренда.
5. Структура контента для AIO: 7 из 10 пользователей читают лишь первые строки AIO. Важно структурировать контент так, чтобы ключевая информация была в начале (принцип перевернутой пирамиды). Используйте четкие подзаголовки (H2-H4), списки, таблицы – все, что помогает быстро извлечь суть.
6. Технические и сложные ниши: Запросы с технической терминологией на 48% чаще получают AIO. Если ваша ниша – B2B tech, инженерия, медицина (где важна точность) – оптимизация под AIO критична.
7. E-com и Local SEO пока в стороне: AIO редко показываются по e-commerce запросам (4%) и локальным (7%). Для интернет-магазинов и локального бизнеса прямая угроза пока ниже, но следить за трендами необходимо.
Выводы:
1. Структурированные данные: Внедряйте все релевантные типы Schema.org (FAQPage, HowTo, Article, VideoObject). Это помогает Google лучше понимать контент и потенциально использовать его в AIO.
2. Оптимизация под "People Also Ask" (PAA): 81% SERP с AIO также содержат блоки PAA. Ответы на вопросы из PAA могут стать источником для AIO. Интегрируйте эти вопросы и краткие, емкие ответы на них в свой контент (юзайте FAQ).
3. Авторитетность и ссылки: Хотя страницы не из топ-10 могут попасть в AIO, общая авторитетность домена и качественный ссылочный профиль остаются важнейшим фактором ранжирования.
4. UGC-платформы как источник: Reddit и Quora – популярные источники для AIO. Это сигнал к необходимости мониторинга упоминаний бренда на этих платформах и, возможно, к стратегическому присутствию там (например, экспертные ответы от имени компании).
5. Адаптация под голосовой поиск: Длинные, естественно звучащие запросы, характерные для голосового поиска, пересекаются с типами запросов, триггерящих AIO. Оптимизация под voice search может косвенно помочь попасть в AIO.
#DrMax #AIOverviews #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
3❤12👍2👏2🤔1
Итак, внедрение Google AI Mode (SGE / AI Overviews) привело к тому, что традиционное ранжирование полной страницы уступает место включению отдельных чанков (пассажей) контента непосредственно в AI-ответы. Как один из вариантов SEO продвижения - забыть о топ-1 страницы, как о самоцели. Теперь главная метрика – попадание в синтезированный ответ AI.
Теория:
1. AI генерирует ответы из множества подзапросов: Google не просто отвечает на ваш запрос, а выполняет серию связанных внутренних запросов. AI-ответ – это сборка лучших фрагментов контента по каждому из них.
Действие: Дробите контент на атомарные, самодостаточные блоки, каждый из которых отвечает на один узкий вопрос или аспект темы. Вместо общей статьи «Преимущества CRM» – отдельные H2/H3 для «CRM для отдела продаж», «Автоматизация маркетинга с CRM», «Интеграции CRM с X».
2. Гиперрелевантные пассажи > общая релевантность страницы: Страница может не быть в топе по основному запросу, но ее отдельный абзац – лучший ответ на один из подзапросов AI – попадет в сводку. Это «неявное ранжирование».
Действие: Насыщайте каждый чанк семантикой и связанными сущностями. Используйте синонимы, LSI, отвечайте на потенциальные вопросы (из PAA, "Related searches").
Пример: в блоке «Стоимость HubSpot для стартапов» упомяните «бесплатный тариф», «начальные пакеты», «ежемесячная оплата», «лимиты пользователей», «ключевые функции».
3. Цель – быть частью ответа, а не просто получить клик: AI-системы стремятся дать готовый ответ, минимизируя необходимость перехода на сайт.
Действие: Создавайте контент, который легко цитируется и используется в качестве источника. Точность, ясность и E-E-A-T на уровне каждого чанка критичны.
Руками это проделать - рехнешся. Поэтому вовсю можно и нужно использовать LLM для генерации контента нужной формации. К примеру у меня промпты давно перевалили за 3000 слов и включают несколько десятков требований, разбитых на 3-4 этапа, каждый из последующих этапов проверяет предыдущий и корректирует его.
Итак, практика:
1. Гранулярное структурирование контента: Четкие заголовки (H2-H6), списки, таблицы, определения. Каждый смысловой блок должен быть легко идентифицируемым для парсера.
2. Микроразметка для чанков: Используйте Schema.org не только для FAQPage. Внедряйте HowTo для инструкций, QAPage для вопросов-ответов, размечайте определения (DefinedTerm), выделяйте ключевые тезисы.
Пример: Для инструкции «Как настроить Google Analytics 4» – HowToStep для каждого шага. Для важного определения в статье – DefinedTerm внутри Article с termCode и name.
3. Внутренняя перелинковка на якоря (#): Ссылайтесь на конкретные разделы (id атрибуты у заголовков/блоков) страниц. Это усиливает релевантность чанка для специфического контекста и помогает AI навигации.
4. Анализ PAA и интентов: Идентифицируйте «микро-моменты» и вопросы пользователей (Google PAA, "Related searches", форумы, комментарии) и создавайте под них контентные блоки, оптимизированные как микро-ответы.
Пример: Если PAA по запросу "лучший смартфон" включает "какой смартфон лучше для фото", создайте чанк, детально отвечающий именно на это.
5. Краткость, ясность, самодостаточность: Каждый чанк должен быть понятен и давать ценность даже в отрыве от остального контента. Прямые ответы, минимум «воды».
Мониторьте появление вашего контента в AI Overviews (SGE) по целевым запросам. Инструменты для трекинга позиций в SGE становятся маст-хэв. Анализируйте отчеты GSC по показам и кликам для очень длинных, вопросительных запросов – это могут быть те самые скрытые подзапросы AI.
#DrMax #AIOverviews #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍15❤5🗿1🆒1
За долгие годы - это первая толковая статья от Backlinko, особенно после того как он продал блог Semrush. Суть статьи в том, что нужно быть лидером там, где присутствует ЦА (целевая аудитория). Оптимизация только под Google SERP устарела, клиентский путь фрагментирован: Amazon, YouTube, TikTok, Reddit, LinkedIn, маркетплейсы, и AI-ассистенты – это новые точки поиска и принятия решений.
Кратко перескажу отдельные мысли, а детально читайте у него в блоге.
Первым делом необходим анализ пути пользователя (Customer Journey Mapping): детально картируйте, где ЦА ищет информацию на этапах Awareness, Consideration, Decision. Какие платформы? Какой контент?
Пример: Для e-commerce: поиск "обзор [товар]" на YouTube, "отзывы [товар] Reddit", сравнение цен на маркетплейсах, финальный поиск бренда + "купить" в Google.
Далее идет оптимизация управляемых каналов (Managed Touchpoints):
Сайт: Не только техничка и контент. Внедряйте максимальное количество релевантных Schema.org типов (Product, Review, FAQPage, HowTo, Article, VideoObject). Это улучшает представленность не только в Google, но и косвенно влияет на парсинг другими платформами.
Продуктовые фиды: Для e-com – критично. Детализированные и корректные фиды для Google Merchant Center, Яндекс.Вебмастер (Товары и цены), Amazon, Ozon, WB. Каждый атрибут важен.
Карточки компании: Google Business Profile, Яндекс.Бизнес, 2GIS – максимальная полнота, регулярные обновления, работа с Q&A и отзывами.
Социальные профили: Оптимизация под поиск внутри платформ (ключи в описаниях, названиях). Используйте pinned posts для важного контента.
Третье - это влияние на неуправляемые каналы (Influenced Touchpoints):
ORM/SERM: Активно управляйте репутацией. Стимулируйте отзывы на всех значимых площадках (отзовики, геосервисы, маркетплейсы). Отвечайте на позитив и негатив.
Digital PR и инфлюенс-маркетинг: Фокус на публикации и упоминания на авторитетных ресурсах и у лидеров мнений, которые сами ранжируются по релевантным запросам ("лучший [продукт/услуга]", "[продукт А] vs [продукт Б]"). Это прямые касания и траст.
Комьюнити-менеджмент: Присутствие на Reddit, Quora, тематических форумах, в комментариях под видео на YouTube. Экспертные ответы часто попадают в SERP и формируют доверие.
UGC: Поощряйте создание контента пользователями. Обзоры, фото, видео – мощный социальный пруф.
Потом, самое мое любимое в последнее время - подготовка к AI-поиску (SGE, Perplexity и т.д.): контент должен быть структурирован для прямого ответа (how-to, списки, FAQ). Подкрепляйте факты ссылками на авторитетные источники (E-E-A-T). Ваш бренд должен быть представлен на множестве площадок с позитивным или нейтральным контекстом, чтобы AI считал его надежным источником.
Расширенная аналитика - отслеживайте не только позиции и трафик из Google. Анализируйте охваты и вовлеченность на YouTube/TikTok, видимость на Amazon/маркетплейсах, прямые заходы после упоминаний, брендовый трафик с различных платформ.
Причины для внедрения "Search Everywhere" таковы:
1. Диверсификация источников трафика: Снижение зависимости от одного поисковика.
2. Увеличение точек касания: Присутствие на всех этапах воронки повышает вероятность конверсии.
3. Рост доверия (Trust): Видимость на разных платформах, подкрепленная отзывами и UGC, строит доверие эффективнее, чем просто сайт.
4. Конкурентное преимущество: Пока конкуренты фокусируются только на Google, вы занимаете все релевантное инфополе.
5. Адаптация к изменениям: Поисковые привычки меняются, особенно у молодой аудитории. Важно быть там, где они.
6. Наличие лишнего бабла и времени на вот всё это ))))
В общем почитайте статью - довольно интересно.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍12 6❤4😁3
Давно я не писал про локальное SEO. Давайте, опустив базу, разберем, на что можно сделать упор.
1️⃣ Контент
Забываем о SEO-текстах ради объема; Google не всегда их индексирует, а контент со временем "протухает". Реальные кейсы клиентов, детальные разборы проектов (фото "до/после", цены, сроки, процесс) кратно бустят конверсии и видимость в Local Pack. Расширяйте семантику не только "услуга + город", но и создавайте тематические хабы вокруг ключевых сервисов. Раскрывайте подтемы, LSI-ключи, пользовательские интенты, FAQ, демонстрируя E-E-A-T. Внедряйте расширенную разметку: LocalBusiness (со всеми подтипами), Service, Product, Review, FAQPage, Article и, критически важно, areaServed для сервисных бизнесов.
2️⃣ GBP
GBP Посты: Применяйте разные типы (Акции, Новости, События), с четкими CTA, UTM-метками для отслеживания и ссылками на релевантные посадочные. Анализируйте эффективность постов.
Q&A: "Забивайте" секцию популярными вопросами с SEO-оптимизированными, исчерпывающими ответами. Мониторьте и отвечайте на новые вопросы. Голосуйте за самые полезные ответы.
Услуги/Товары: Максимально детализируйте описания, включая цены (где уместно) и прямые ссылки на страницы сайта. Регулярно актуализируйте. Геотегинг фото/видео перед загрузкой.
3️⃣ Ссылочное
Если есть бюджеты - закупаемся региональными ссылками. Пробуем юзать коллаборации, предлагая комментарии, исследования или статьи для сайтов смежных (неконкурирующих) локальных бизнесов. Вот пример:
Риэлтор + Дизайнер интерьеров: Риэлтор на сайте размещает статью "Топ-5 трендов в дизайне квартир от [Имя Дизайнера]" с ссылкой на сайт дизайнера. Дизайнер публикует гид "Как подготовить квартиру к продаже: советы от риэлтора [Имя Риэлтора]" с ссылкой.
Упоминания: Регулярно мониторьте упоминания вашего бренда/компании на локальных новостных порталах, в блогах, на форумах. При обнаружении – обращайтесь с просьбой добавить активную ссылку.
4️⃣ Отзывы & E-E-A-T
Свежесть и объем отзывов: Google учитывает и количество, и регулярность появления новых отзывов. Автоматизируйте сбор (Podium, GatherUp, Trustpilot), используйте NFC-карты на месте, QR-коды. Мотивируйте команду (например, бонусы за упоминание имени сотрудника в положительном отзыве). Можно и нужно просить отзывы у всех, кому вы оказали качественную услугу или даже бесплатную консультацию.
Демонстрация E-E-A-T: Не только для GBP, но и на сайте. Четкие авторские блоки для статей с регалиями, подробная страница "О нас" с фото команды, их опытом, сертификатами. Публикуйте кейсы и отзывы клиентов на сайте (с обязательной schema Review и aggregateRating).
6️⃣ Reddit
Поиск Релевантных Сабреддитов (города, района, а также тематические локальные комьюнити).
Стратегия "Value First": Не спамьте ссылками. Участвуйте в обсуждениях, отвечайте на вопросы, cтаньте активным и полезным членом сообщества.
Мониторинг Бренда/Конкурентов: Используйте поиск для отслеживания, что говорят о вас и ваших конкурентах. Это источник инсайтов и возможность отработать негатив или поблагодарить за позитив.
AMA (Ask Me Anything): Если у вас есть интересный локальный бизнес, можно (с разрешения модераторов) провести сессию "Вопрос-Ответ". Это работает на бренд.
Вывод: необходима глубокая проработка аутентичности (реальные истории, лица), демонстрация экспертизы в нише и активное, осмысленное взаимодействие с локальным онлайн- и офлайн-сообществом. Это, помноженное на безупречную техничку, обеспечит лютый прорыв в локальном SEO.
#DrMax #LocalSEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥8❤5 2😱1
Начали массово появляться инструменты для оптимизации контента под AI Overviews. Конечно, до нашей софтинки SEO Релевантность им еще далеко )))), но рекомендую изучить новый AI Overviews Visualizer от Market Brew. Кстати, у них есть блог, посвященный их сервисам - там я вычитал в свое время немало полезного.
Итак, оный AI Overviews Visualizer моделирует, как Google AI может оценивать ваш контент через эмбеддинги. По сути, это анализ семантической близости (юзает несколько устаревшее косинусное сходство) отдельных фрагментов текста к различным формулировкам запросов (от корневых до long-tail). Вы вводите URL и промпты (запросы), а система показывает косинусное сходство между эмбеддингами контента (фиксированные по длине чанки по ~700 символов) и эмбеддингами запросов.
Ключевые возможности инструмента:
1️⃣ Анализ покрытия семантического кластера (AI Mode Visualizer):
Задайте основной запрос (master prompt), и инструмент сгенерирует "веер" уточняющих, исследовательских запросов (fan-out). Это симулирует, как AI может дробить и расширять пользовательский интент. Вы увидите матрицу (heatmap), какие секции страницы лучше всего отвечают на каждый из этих подзапросов.
Применение: Идентифицируйте пробелы в контенте. Если по важному подзапросу нет релевантных пассажей, AI не сможет эффективно использовать ваш контент.
Пример: страница о "маркетинговых стратегиях" может слабо отвечать на "B2B SaaS маркетинг для стартапов". Дополните контент.
2️⃣ Детализированный анализ пассажей (AI Overviews Visualizer):
Углубитесь в конкретный URL-запрос. Инструмент покажет максимальное, среднее и топовое кластерное сходство. Важно, что он подсвечивает конкретные пассажи, наиболее релевантные запросу.
Применение: Оптимизируйте именно эти "выигрышные" пассажи. Убедитесь, что они самодостаточны, четко сформулированы и содержат ключевые сущности. Это ваши "кандидаты" на включение в AI Overview.
Пример: если лучший пассаж по "цене iPhone 16 Pro" размыт, уточните его цифрами и условиями.
3️⃣ Оценка заголовков (H1-Hn) и META Title:
Инструмент позволяет оценить семантическое сходство векторов заголовков и тайтла с эмбеддингом запроса.
Применение: Убедитесь, что заголовки не только содержат ключи, но и семантически точно отражают суть последующего блока контента для AI. Это критично для правильной сегментации и интерпретации страницы.
Пример: заголовок "Преимущества нашего ПО" может быть улучшен до "Ключевые преимущества CRM X для автоматизации продаж".
Каждый значимый блок контента должен быть потенциальным, лаконичным ответом на конкретный вопрос пользователя. Структурируйте текст так, чтобы AI легко "выхватывал" эти блоки. Не ограничивайтесь одним аспектом. Если страница о "выборе ноутбука", она должна затрагивать критерии, типы, бюджеты, бренды. Чем полнее раскрыт интент в рамках одного URL, тем выше его ценность для AI.
Явная структура документа (DOM): Хотя инструмент анализирует и DOM-сходство, общая рекомендация – используйте четкую и логичную структуру HTML (H1-Hn, списки, таблицы). Это помогает AI корректно парсить и понимать иерархию контента.
EEAT-сигналы в контенте: Вплетайте в текст маркеры экспертности, авторитетности и достоверности. Ссылайтесь на исследования, указывайте авторов с регалиями, приводите реальные кейсы. Это косвенно влияет на "доверие" AI к контенту.
В целом -занятная и может быть даже полезная софтинка для анализа отдельных страниц.
Но мой вам совет - юзайте "Длинные фразы" в софтинке "SEO релевантность", выдранные из конкурентов - оно понадежней будет для оптимизации )))
#DrMax #AIOverviews #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤5👏4🗿1
Почитал давешний патент Гугла (насколько осилил) и мороз по коже. Анализ патента показывает, что AI-модель будет вести с пользователем диалог, сохраняя контекст (Stateful Search), и самостоятельно генерировать множество уточнений (Query Fan-Out), чтобы дать один исчерпывающий ответ. Вот основные мысли:
1. Окончательный отход от ключей к коконам 2.0
Механизм "Query Fan-Out" означает, что Google на один запрос пользователя будет в фоновом режиме генерировать десятки связанных запросов, чтобы собрать полную картину. Оптимизация страницы под один ключ окончательно теряет смысл.
Что внедрять: Проектировать контентные хабы (топик кластеры), которые полностью закрывают задачу пользователя. Если ваша Pillar Page — «Ипотека для IT-специалистов», от неё должны идти детальные статьи-ответы на все возможные подзапросы, которые сгенерирует AI: «условия банков для IT-ипотеки», «как IT-специалисту подтвердить доход», «рефинансирование IT-ипотеки», «список аккредитованных IT-компаний». Ваша цель — предоставить AI готовый, взаимосвязанный набор данных по всей теме.
2. Контент, оптимизированный под цитирование AI
AI будет собирать свои ответы из фрагментов разных источников и ссылаться на них. Чтобы стать таким источником, контент должен быть «атомарным» и легко цитируемым.
Что внедрять: Структурировать текст по принципу «вопрос-ответ». Каждый H2/H3 — это конкретный вопрос. Первый абзац под ним — максимально сжатый, прямой ответ на 1-3 предложения, пригодный для цитирования. Дальше — раскрытие темы.
Пример: H2: «Можно ли использовать материнский капитал как первоначальный взнос?» Сразу под ним: «Да, закон позволяет использовать материнский капитал в качестве первоначального взноса по ипотеке полностью или частично. Для этого необходимо получить справку из ПФР и предоставить ее в банк». А далее расписываем подробней.
3. Захват Post-Transactional трафика
Патент описывает способность системы определять стадию пользователя, включая этап после покупки. Это открывает доступ к трафику, который многие игнорируют.
Что внедрять: Срочно развивать раздел поддержки (/help, /support). Оптимизировать контент под запросы, возникающие после покупки.
Пример: Для страницы товара "Кофемашина Breville Barista Express" создайте отдельную вкладку или страницу "/support" с контентом под запросы «breville barista express чистка», «ошибка E05 breville», «как настроить помол breville». Размечайте всё схемами FAQPage и HowTo. Это захват трафика, который конкуренты игнорируют, и мощный сигнал лояльности для Google.
4. Мультимодальные сигналы для верификации
AI верифицирует информацию, сопоставляя данные из разных форматов. Страница, где есть только текст, проигрывает странице с текстом, изображениями, схемами и видео.
Что внедрять: Обогащать контент. В статью о замене тормозных колодок добавляйте не только текст, но и пронумерованную схему тормозного суппорта, качественные фото каждого этапа и встраивайте видео с процессом. Это предоставляет AI больше точек для анализа и подтверждения фактов, повышая доверие к вашему контенту как к источнику.
Вывод: Стратегия смещается от "keyword matching" к "user journey mapping". Наша задача — не просто попасть в топ-10, а стать самым полезным ресурсом на каждом шаге пользователя, от первого запроса до решения проблемы с уже купленным товаром.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41❤12😱1
Знаете ли вы, что ваш Telegram Premium открывает не только вам новые горизонты, но и вашим любимым каналам? Ваш голос — это возможность напрямую повлиять на развитие нашего канала и сделать его еще круче!
🚀 Что дает ваш голос?
Каждый голос от Premium-подписчика помогает нам открывать новые функции Telegram: сторис для канала, больше реакций, кастомные эмодзи и другие полезные инструменты. А это значит — больше качественного, интересного и эксклюзивного контента для вас!
💡 Хотите видеть @DrMaxSEO еще более продвинутым и полезным?
Если наш контент вам ценен, и вы хотите, чтобы канал развивался, предлагая новые форматы и возможности, ваш голос — лучший способ это поддержать. Это не просто "клик", это ваш вклад в то, чтобы мы могли радовать вас еще больше!
👇 Поддержите развитие @DrMaxSEO своим голосом (если у вас Premium):
https://www.tg-me.com/boost/drmaxseo
Спасибо, что вы с нами и помогаете делать канал лучше!
#DrMax
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿3
1️⃣ Переранжирование и сжатие чанков для доминации в эпоху AI-поиска
Это первая статья из запланированного цикла о современных методах оптимизации. Хочу поделиться с вами, так как часть старых приемов оптимизации уже перестала или перестает работать. Параллельно, эти методы я внедряю и проверяю на своих проектах. Итак погнали.
Сегодня пойдет речь о переранжировании и сжатии информационных чанков – не просто для LLM, а для оптимизации контента. Google уже давно ранжирует не только страницы, но и отдельные пассажи (чанки). Оптимизируя чанки, мы напрямую влияем на этот механизм.
1. Переранжирование чанков на странице
Ставим "самое важное" вверх: структурируем контент так, чтобы поисковый робот, анализируя страницу, мог эффективно выделить ключевые чанки-ответы для потенциального включения в свои обобщенные результаты.
🔴 Главный интент – первым: Основной ответ на предполагаемый запрос пользователя должен быть в первых чанках (часто в первом-втором экране). Это снижает риск "потери в середине" при сканировании. Например, в статье "Как выбрать X?" – первыми идут ключевые критерии выбора или топ-3 модели, а не история X.
🔴 MMR-логика (Maximal Marginal Relevance) для SEO: После основного ответа предоставляйте чанки, раскрывающие разные аспекты темы, минимизируя повторы. Это увеличивает шанс страницы ответить на более широкий спектр связанных запросов.
🔴 Cross-Encoders как ментальная модель: Думайте, как поисковик может "склеивать" ваш запрос и чанк для оценки релевантности. Каждый чанк должен быть самодостаточным ответом на свой под-интент, но при этом явно связанным с основным запросом страницы.
2. Сжатие Контента: Информационная Плотность без воды
Необходимо провести удаление "словесного мусора" для повышения информационной плотности каждого чанка. Чем концентрированнее информация, тем выше ее "вес" для поисковика:
🔴 LLMLingua-подход (вручную): Перечитывайте каждый чанк с вопросом: "Можно ли сказать то же самое короче, не потеряв смысл для ответа на запрос?". Удаляйте вводные слова, избыточные примеры, перефразируйте для лаконичности. Пример: Вместо "Многие эксперты в области цифрового маркетинга придерживаются мнения о том, что..." пишите "Эксперты по маркетингу считают...".
🔴 Экстрактивное сжатие: Убедитесь, что ключевые предложения, несущие основную семантическую нагрузку, четко выделены и не затеряны. Возможно, это будут подзаголовки или первые предложения абзацев.
🔴 Фокус на "answerability": Каждый сжатый чанк должен быть готов стать идеальным сниппетом или частью ответа в SGE.
Внедряем так:
🔴 Аудит контента: Разбиваем существующие страницы на логические чанки.
🔴 Оценка каждого чанка: Насколько он релевантен основному интенту? Насколько он информационно плотен? Нет ли избыточности?
🔴 Переработка: Переписываем, сокращаем, меняем местами чанки, усиливаем их структурированными данными.
🔴 Структурированные данные (Schema.org): Это форма "предварительного сжатия" и явного указания смысла чанков для поисковика. FAQPage, HowTo, Article schema помогают выделить ключевые информационные блоки.
🔴 E-E-A-T на уровне чанка: Каждый чанк должен быть точным, достоверным и подкреплен (где возможно) ссылками на авторитетные источники или внутренние релевантные страницы.
🔴 Внутренняя перелинковка: Используйте ссылки между релевантными чанками (или страницами, где эти чанки – ключевые), чтобы усилить их семантический вес и помочь краулерам понять связи (см пост про поиск релевантных страниц с помощью нашего софта).
🔴 Анализ SERP: Изучайте, какие чанки конкурентов попадают в топ и в SGE-ответы.
#DrMax #AIOverviews #SEO #SGE
Это первая статья из запланированного цикла о современных методах оптимизации. Хочу поделиться с вами, так как часть старых приемов оптимизации уже перестала или перестает работать. Параллельно, эти методы я внедряю и проверяю на своих проектах. Итак погнали.
Сегодня пойдет речь о переранжировании и сжатии информационных чанков – не просто для LLM, а для оптимизации контента. Google уже давно ранжирует не только страницы, но и отдельные пассажи (чанки). Оптимизируя чанки, мы напрямую влияем на этот механизм.
1. Переранжирование чанков на странице
Ставим "самое важное" вверх: структурируем контент так, чтобы поисковый робот, анализируя страницу, мог эффективно выделить ключевые чанки-ответы для потенциального включения в свои обобщенные результаты.
2. Сжатие Контента: Информационная Плотность без воды
Необходимо провести удаление "словесного мусора" для повышения информационной плотности каждого чанка. Чем концентрированнее информация, тем выше ее "вес" для поисковика:
Внедряем так:
#DrMax #AIOverviews #SEO #SGE
Please open Telegram to view this post
VIEW IN TELEGRAM
4❤33👍17🔥7 4💯3
2️⃣ Заголовки H1-H6: Программируем контент
Вторая статья из цикла о современном SEO.
С развитием LLM и SGE, заголовки становятся ключевыми маркерами для AI, определяющие, как контент будет понят, сегментирован и использован в ответах. Основная задача – сделать их максимально "машиночитаемыми" и "цитируемыми".
H1 - ядро интента
Что было ранее: один H1 и в нем главный ключ. Сегодня это не прокатит. Сейчас H1 – это декларация основного пользовательского интента, который закрывает страница. Он должен быть максимально точным и всеобъемлющим для тематики страницы.
По прежнему, H1 должен четко коррелировать с Title и основным содержанием первого экрана (Above The Fold).
H2 - основа для цитирования и Query Fan-Out
Ранее в H2 просто пихали подзаголовки с ключами. Сегодня, каждый H2 должен быть ответом на потенциальный подзапрос из "Query Fan-Out" (как в патенте) или логический шаг/аспект основной темы. Структурируйте H2 как вопросы или утверждения, на которые первый абзац под ними дает сжатый, готовый к цитированию ответ.
Используйте номерные H2 для пошаговых инструкций (например, "Шаг 1: Подготовка документов", "Шаг 2: Подача заявки"). Это использует HowTo schema и LLM для генерации инструкций.
H3-H6: Гранулярная детализация и семантика
H3-H6 раскрывают нюансы под каждым H2. Это углубление в детали, рассмотрение частных случаев, сравнение опций. LLM будут использовать эти фрагменты для уточняющих ответов.
Это позволяет охватить низкочастотные, но высококонверсионные запросы. Каждый заголовок – потенциальный API-endpoint для LLM.
Связь заголовков и микроразметки
Разметка FAQPage: Вопросы в разметке должны дублировать или быть семантически эквивалентны вашим H2/H3. Ответы в разметке – это те самые сжатые абзацы под заголовками.
Разметка HowTo: Названия шагов (HowToStep) должны соответствовать формулировкам в H2/H3, описывающим эти шаги.
"Разговорные" и вопросительные формулировки
LLM обучаются на огромных массивах диалоговых данных. Заголовки, сформулированные как естественные вопросы или фразы, которые люди используют в поиске (особенно голосовом), будут иметь преимущество.
Структура H1-H6 должна быть логичной и последовательной. Не должно быть H3 без родительского H2. Это помогает LLM понять вложенность и взаимосвязи тем.
Внедряем так:
⏺ Аудит текущей структуры заголовков: Насколько она соответствует интентам и логике LLM?
⏺ Переработка заголовков: Сделать их вопросительными, ориентированными на прямой ответ, отражающими Query Fan-Out.
⏺ Синхронизация с Schema.org: Убедиться, что разметка и заголовки "говорят об одном".
⏺ Анализ SERP и SGE: Смотреть, какие вопросы и подтемы подсвечивает Google в блоках "Люди также спрашивают" и в SGE – это прямые подсказки для ваших H2/H3.
Проектируйте заголовки не для пользователя или поисковика, а для пользователя через поисковик (LLM). Каждый заголовок – это "крючок" для AI.
#DrMax #SEO #LLM #SGE
Вторая статья из цикла о современном SEO.
С развитием LLM и SGE, заголовки становятся ключевыми маркерами для AI, определяющие, как контент будет понят, сегментирован и использован в ответах. Основная задача – сделать их максимально "машиночитаемыми" и "цитируемыми".
H1 - ядро интента
Что было ранее: один H1 и в нем главный ключ. Сегодня это не прокатит. Сейчас H1 – это декларация основного пользовательского интента, который закрывает страница. Он должен быть максимально точным и всеобъемлющим для тематики страницы.
Пример: Вместо "Ремонт iPhone" -> "Профессиональный ремонт iPhone всех моделей в Москве: цены, сроки, гарантия". Это задает контекст для LLM о географии, типах услуг и важных атрибутах.
По прежнему, H1 должен четко коррелировать с Title и основным содержанием первого экрана (Above The Fold).
H2 - основа для цитирования и Query Fan-Out
Ранее в H2 просто пихали подзаголовки с ключами. Сегодня, каждый H2 должен быть ответом на потенциальный подзапрос из "Query Fan-Out" (как в патенте) или логический шаг/аспект основной темы. Структурируйте H2 как вопросы или утверждения, на которые первый абзац под ними дает сжатый, готовый к цитированию ответ.
Пример (страница "IT-ипотека"):
H2: "Какие требования предъявляются к IT-специалисту для получения ипотеки?" (Прямой ответ в первом абзаце).
H2: "Список банков, участвующих в программе IT-ипотеки в 2024 году".
H2: "Можно ли использовать материнский капитал с IT-ипотекой?"
Используйте номерные H2 для пошаговых инструкций (например, "Шаг 1: Подготовка документов", "Шаг 2: Подача заявки"). Это использует HowTo schema и LLM для генерации инструкций.
H3-H6: Гранулярная детализация и семантика
H3-H6 раскрывают нюансы под каждым H2. Это углубление в детали, рассмотрение частных случаев, сравнение опций. LLM будут использовать эти фрагменты для уточняющих ответов.
Пример (под H2 "Список банков..."):
H3: "Условия IT-ипотеки в Сбербанке".
H3: "Особенности программы IT-ипотеки от ВТБ для ИП".
Это позволяет охватить низкочастотные, но высококонверсионные запросы. Каждый заголовок – потенциальный API-endpoint для LLM.
Связь заголовков и микроразметки
Разметка FAQPage: Вопросы в разметке должны дублировать или быть семантически эквивалентны вашим H2/H3. Ответы в разметке – это те самые сжатые абзацы под заголовками.
Разметка HowTo: Названия шагов (HowToStep) должны соответствовать формулировкам в H2/H3, описывающим эти шаги.
Пример: H2: "Как самостоятельно заменить фильтр в кофемашине?" -> HowToStep name: "Как самостоятельно заменить фильтр в кофемашине?".
"Разговорные" и вопросительные формулировки
LLM обучаются на огромных массивах диалоговых данных. Заголовки, сформулированные как естественные вопросы или фразы, которые люди используют в поиске (особенно голосовом), будут иметь преимущество.
Пример: Вместо "Преимущества модели X" -> "Чем хороша модель X?" или "Почему стоит выбрать модель X?".
Структура H1-H6 должна быть логичной и последовательной. Не должно быть H3 без родительского H2. Это помогает LLM понять вложенность и взаимосвязи тем.
Внедряем так:
Проектируйте заголовки не для пользователя или поисковика, а для пользователя через поисковик (LLM). Каждый заголовок – это "крючок" для AI.
#DrMax #SEO #LLM #SGE
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍46❤12 3😁2👀1
Вычитал тут на Search Engine Land: Google AI Overviews (AIO) теперь не всегда занимают первую позицию в SERP. В 12.4% случаев на десктопах в США они отображаются НИЖЕ органических результатов. Месяц назад таких случаев было <2%. Кажется, Google прислушивается к пользовательскому поведению.
Цифры таковы:
Частота появления AIO: 19% всех десктопных запросов в США.
Распределение позиций AIO (когда они есть):
Интент запросов, триггерящих AIO:
Google, похоже, тестирует и адаптирует размещение AIO, ориентируясь на то, куда кликают пользователи. Если юзеры массово скроллят мимо AIO к органике, Google может понизить блок AIO для данного запроса.
Особенно интересно про транзакционные запросы: Когда AIO съезжают ниже первой позиции, это чаще происходит на транзакционных запросах. Для AIO на 4-й позиции и ниже доля транзакционного интента возрастает с 12.38% до 22.7%.
Пример из статьи: Запрос [games on a Nintendo Switch]. AIO уступил двум категорийным страницам Nintendo и карусели "Popular Products". Это четкий маркер, что для коммерческих запросов сильные, хорошо оптимизированные страницы категорий и товаров могут перебить AIO.
Традиционное SEO все еще трепыхается ))) Отсюда вывод, что необходим фокус на CTR сниппета в органике:
Заголовки (Title) и описания (Description): Делаем их мега-кликабельными. Используем цифры, вопросы, призывы к действию, специальные символы (где уместно).
Favicon: Не забываем про качественную, узнаваемую иконку.
Хлебные крошки (Breadcrumbs) с разметкой: Улучшают навигацию и вид сниппета.
Структурированные данные: Product, Offer, AggregateRating, Review: Обязательно для e-commerce. Расширенные сниппеты с ценами, рейтингами, наличием – это прямой путь к повышению CTR.
FAQPage: Если AIO не полностью закрывает все подвопросы, расширенный сниппет с FAQ может стать следующей точкой клика.
HowTo: Для инструкций и гайдов.
Контент должен покрывать не только основной интент, но и связанные вопросы, которые могут быть в PAA. Если ваш ответ там – шанс получить клик, даже если AIO выше. AIO – это суммаризация. Если контент предлагает уникальные данные, экспертные инсайты, интерактивные элементы (калькуляторы, конфигураторы), которых нет в AIO, у продвигаемого проекта есть преимущество.
Необходимо регулярно мониторить ключевые запросы в органике. Если AIO начинает "сползать" – это шанс усилить оптимизацию и занять ТОП.
Выводы: SEO не окончательно померло с приходом AIO. Качественный, хорошо оптимизированный контент с высоким потенциалом CTR может заставить Google "подвинуть" AIO (а может и не заставить).
#DrMax #SEO #Gogle #AIOverviews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤4🤔4
3️⃣ Мультимодальный контент: больше чем текст
Третья часть из цикла "Доминация в LLM".
Итак, если заголовки H1-H6 – это скелет контента для AI, то таблицы, изображения и другие медиа-элементы – это доказательство контента. LLM-системы верифицируют информацию, сопоставляя данные из разных форматов. Страница, где есть только текст, заведомо проигрывает странице, предоставляющей контент в разных модальностях.
1. Таблицы
LLM любят таблицы, потому что это уже предварительно обработанные, структурированные данные. Что размещать:
Сравнительные таблицы: Характеристики товаров, условия по вкладам/кредитам, тарифные планы. Это лучший формат для ответа на запросы типа "что лучше X или Y".
Таблицы спецификаций: Технические параметры, состав продукта, размеры.
Прайс-листы: Цены на услуги в зависимости от опций.
Обязательно используйте корректные HTML-теги: <table>, <thead> (для заголовков колонок), <tbody>, <tr>, <th>, <td>. Не делайте таблицы из div-ов. Добавляйте тег <caption> к таблице. Это ее заголовок, который явно описывает ее содержимое для поисковика. Избегайте сложных объединенных ячеек (colspan/rowspan), если это не критично. Чем проще структура, тем легче парсинг.
2. Изображения
Нужны ли они - обязательно. Это не декор, а инструмент верификации. Текст "открутите три винта" + фото, где эти три винта обведены, – это для AI сигнал подтверждения факта.
Сколько нужно: Качество > количество. Каждое изображение должно иметь цель: проиллюстрировать шаг, показать товар с важного ракурса, представить схему.
Именование файлов критически важно. IMG_5432.jpg – хрень. shema-podklyucheniya-boilera-kosvennogo-nagreva.jpg – четкий сигнал. Используйте транслит и дефисы.
Alt и подписи (caption): нужны ли они, если LLM "видит, что на картинке"? Да, и вот почему. Alt-тег – это явное указание. LLM может распознать объект, но alt дает ему точный контекст и название.
Подпись (figcaption) – это расширенный контекст: Alt говорит, что на фото. Подпись объясняет, почему это фото здесь.
3. Что еще размещать в контенте:
Видео: Встроенные с YouTube релевантные видео (особенно собственного производства) – мощнейший сигнал. Они увеличивают время на странице и дают AI еще один слой информации для анализа (транскрипты, описание, название).
Инфографика и схемы: Это концентрированная, визуально упакованная информация. LLM могут считывать текст с таких изображений и понимать их структуру.
Интерактивные элементы: Калькуляторы (ипотеки, калорий), квизы, конфигураторы. Это не только сигнал вовлеченности пользователя, но и демонстрация экспертности. AI понимает назначение этих инструментов и может ссылаться на страницу как на "инструмент для расчета...".
Цитаты и выноски (<blockquote>): Используйте для выделения ключевых мыслей, мнений экспертов, важных определений. Это готовые "чанки" для цитирования, которые легко парсятся.
Вывод: Страница должна быть не просто текстом, а мультимодальным дата-хабом по теме. Каждый элемент должен не украшать, а служить дополнительным источником структурированных данных и механизмом верификации для AI. Это прямой путь к повышению доверия (E-E-A-T) на машинном уровне и доминации в новой AI-выдаче.
#DrMax #SEO #SGE #Мультимодальность #EEAT
Третья часть из цикла "Доминация в LLM".
Итак, если заголовки H1-H6 – это скелет контента для AI, то таблицы, изображения и другие медиа-элементы – это доказательство контента. LLM-системы верифицируют информацию, сопоставляя данные из разных форматов. Страница, где есть только текст, заведомо проигрывает странице, предоставляющей контент в разных модальностях.
1. Таблицы
LLM любят таблицы, потому что это уже предварительно обработанные, структурированные данные. Что размещать:
Сравнительные таблицы: Характеристики товаров, условия по вкладам/кредитам, тарифные планы. Это лучший формат для ответа на запросы типа "что лучше X или Y".
Таблицы спецификаций: Технические параметры, состав продукта, размеры.
Прайс-листы: Цены на услуги в зависимости от опций.
На странице обзора смартфонов таблица с колонками "Модель", "Процессор", "Камера (Мп)", "Аккумулятор (мАч)", "Цена" будет для LLM более ценным источником, чем те же данные, размазанные по тексту.
Обязательно используйте корректные HTML-теги: <table>, <thead> (для заголовков колонок), <tbody>, <tr>, <th>, <td>. Не делайте таблицы из div-ов. Добавляйте тег <caption> к таблице. Это ее заголовок, который явно описывает ее содержимое для поисковика. Избегайте сложных объединенных ячеек (colspan/rowspan), если это не критично. Чем проще структура, тем легче парсинг.
2. Изображения
Нужны ли они - обязательно. Это не декор, а инструмент верификации. Текст "открутите три винта" + фото, где эти три винта обведены, – это для AI сигнал подтверждения факта.
Сколько нужно: Качество > количество. Каждое изображение должно иметь цель: проиллюстрировать шаг, показать товар с важного ракурса, представить схему.
Именование файлов критически важно. IMG_5432.jpg – хрень. shema-podklyucheniya-boilera-kosvennogo-nagreva.jpg – четкий сигнал. Используйте транслит и дефисы.
Alt и подписи (caption): нужны ли они, если LLM "видит, что на картинке"? Да, и вот почему. Alt-тег – это явное указание. LLM может распознать объект, но alt дает ему точный контекст и название.
AI видит "мужик в каске смотрит на щиток", а alt="Электрик проверяет УЗО в распределительном щите" дает однозначную трактовку. Это сигнал для кросс-валидации.
Подпись (figcaption) – это расширенный контекст: Alt говорит, что на фото. Подпись объясняет, почему это фото здесь.
Пример: Подпись: Индикатор на УЗО должен быть в положении "Вкл" после проверки. Эта информация напрямую используется для формирования ответов.
3. Что еще размещать в контенте:
Видео: Встроенные с YouTube релевантные видео (особенно собственного производства) – мощнейший сигнал. Они увеличивают время на странице и дают AI еще один слой информации для анализа (транскрипты, описание, название).
Инфографика и схемы: Это концентрированная, визуально упакованная информация. LLM могут считывать текст с таких изображений и понимать их структуру.
Интерактивные элементы: Калькуляторы (ипотеки, калорий), квизы, конфигураторы. Это не только сигнал вовлеченности пользователя, но и демонстрация экспертности. AI понимает назначение этих инструментов и может ссылаться на страницу как на "инструмент для расчета...".
Цитаты и выноски (<blockquote>): Используйте для выделения ключевых мыслей, мнений экспертов, важных определений. Это готовые "чанки" для цитирования, которые легко парсятся.
Вывод: Страница должна быть не просто текстом, а мультимодальным дата-хабом по теме. Каждый элемент должен не украшать, а служить дополнительным источником структурированных данных и механизмом верификации для AI. Это прямой путь к повышению доверия (E-E-A-T) на машинном уровне и доминации в новой AI-выдаче.
#DrMax #SEO #SGE #Мультимодальность #EEAT
👍35❤4😁3🔥2 2
4️⃣ Семантический кокон 2.0: Проектируем структуру
Это четвертый пост серии.
Классический "семантический кокон" – лучшая структура для удовлетворения логики работы LLM, особенно механизма "Query Fan-Out" из патента Google. Нужно не просто писать статьи, а строить для AI готовую, связанную базу знаний, так как AI-системы мыслят сущностями и связями, а кокон – это и есть предоставление им готовой карты сущностей по теме.
1. Архитектура Кокона: Pillar Page + Child Pages
Pillar Page (Страница-хаб/столп): Это ядро кокона. Страница, нацеленная на самый широкий, высокочастотный интент. Например, "IT-ипотека". Ее задача – дать общий обзор темы и служить навигационным центром.
Child Pages (Страницы-сателлиты): Это детальные статьи, каждая из которых полностью закрывает один узкий под-интент (один "луч" из Query Fan-Out). Например: "условия Сбербанка по IT-ипотеке", "как подтвердить доход самозанятому IT-специалисту".
2. Правила Перелинковки: Строгая иерархия
Это самый важный пункт. Хаотичные ссылки убивают кокон.
Top-Down: Pillar Page ОБЯЗАТЕЛЬНО ссылается на все свои Child Pages. Общий обзор ведет к деталям.
Bottom-Up: Каждая Child Page ОБЯЗАТЕЛЬНО ссылается на свою материнскую Pillar Page. Это замыкает цикл и концентрирует семантический вес на хабе.
Sibling Links (Связи между "братьями"): Ссылки между Child Pages одного кокона ставим при логической необходимости. Например, со страницы "требования к заемщику" можно сослаться на "список необходимых документов". Не нужно ссылаться на все подряд.
Изоляция: Страницы одного кокона НЕ должны ссылаться на страницы другого кокона. Есть несколько исключений, например ссылка с Child Page на Pillar Page другого кокона, если это крайне релевантно. Это помогает создавать изолированные, экспертные коконы.
3. Откуда и сколько ставить ссылок?
Из каких чанков ставить ссылки: Ссылка должна стоять в информационном чанке, семантика которого максимально близка к теме целевой страницы. На Pillar-странице в абзаце про первоначальный взнос должна стоять ссылка на Child-страницу "Использование маткапитала как первоначальный взнос". Контекст вокруг ссылки критичен для LLM.
Сколько ссылок: Качество > количество. На Pillar Page может быть 15-30 ссылок на все ее дочерние страницы. На Child Page достаточно 1-5 ссылок: одна обязательная на Pillar и, возможно, 1-4 на релевантных "братьев".
4. Сколько страниц в коконе?
Столько, сколько нужно для полного и исчерпывающего раскрытия темы. Главный критерий – полнота. Нужно ответить на ВСЕ возможные вопросы пользователя (и AI) в рамках темы кокона.
5. Особенности коконов 2.0
Анкоры-вопросы: Вместо анкора "условия банков" юзаем "какие банки выдают IT-ипотеку?". Это соответствует потенциальным запросам и тому, как LLM формирует ответы.
Ссылки на чанки (Jump Links): С Pillar ссылаемся на Child-страницу, на конкретный ее раздел с помощью якоря (#).
Перелинковка сущностей: Связываем не просто страницы, а сущности. Если на Child-странице упоминается конкретный документ, например, "справка о доходах", а на сайте есть страница-инструкция по ее получению (даже в другом коконе), нужно поставить ссылку. Это показывает AI глубину вашей проработки.
Визуализация кокона: Делаем на Pillar-странице навигационный блок (TOC или "Содержание темы") со ссылками на все Child-страницы. Это удобно для пользователя и является картой кокона для краулера.
Вывод: нужно спроектировать и предоставить поисковой системе готовую, верифицированную, взаимосвязанную и полную базу знаний по теме. Кокон – это не просто набор статей, это внутренний "Вики-ресурс", который LLM может безопасно и эффективно использовать для построения своих ответов, цитируя сайт как первоисточник.
#DrMax #SEO #SGE #Перелинковка #СемантическийКокон
Это четвертый пост серии.
Классический "семантический кокон" – лучшая структура для удовлетворения логики работы LLM, особенно механизма "Query Fan-Out" из патента Google. Нужно не просто писать статьи, а строить для AI готовую, связанную базу знаний, так как AI-системы мыслят сущностями и связями, а кокон – это и есть предоставление им готовой карты сущностей по теме.
1. Архитектура Кокона: Pillar Page + Child Pages
Pillar Page (Страница-хаб/столп): Это ядро кокона. Страница, нацеленная на самый широкий, высокочастотный интент. Например, "IT-ипотека". Ее задача – дать общий обзор темы и служить навигационным центром.
Child Pages (Страницы-сателлиты): Это детальные статьи, каждая из которых полностью закрывает один узкий под-интент (один "луч" из Query Fan-Out). Например: "условия Сбербанка по IT-ипотеке", "как подтвердить доход самозанятому IT-специалисту".
2. Правила Перелинковки: Строгая иерархия
Это самый важный пункт. Хаотичные ссылки убивают кокон.
Top-Down: Pillar Page ОБЯЗАТЕЛЬНО ссылается на все свои Child Pages. Общий обзор ведет к деталям.
Bottom-Up: Каждая Child Page ОБЯЗАТЕЛЬНО ссылается на свою материнскую Pillar Page. Это замыкает цикл и концентрирует семантический вес на хабе.
Sibling Links (Связи между "братьями"): Ссылки между Child Pages одного кокона ставим при логической необходимости. Например, со страницы "требования к заемщику" можно сослаться на "список необходимых документов". Не нужно ссылаться на все подряд.
Изоляция: Страницы одного кокона НЕ должны ссылаться на страницы другого кокона. Есть несколько исключений, например ссылка с Child Page на Pillar Page другого кокона, если это крайне релевантно. Это помогает создавать изолированные, экспертные коконы.
3. Откуда и сколько ставить ссылок?
Из каких чанков ставить ссылки: Ссылка должна стоять в информационном чанке, семантика которого максимально близка к теме целевой страницы. На Pillar-странице в абзаце про первоначальный взнос должна стоять ссылка на Child-страницу "Использование маткапитала как первоначальный взнос". Контекст вокруг ссылки критичен для LLM.
Сколько ссылок: Качество > количество. На Pillar Page может быть 15-30 ссылок на все ее дочерние страницы. На Child Page достаточно 1-5 ссылок: одна обязательная на Pillar и, возможно, 1-4 на релевантных "братьев".
4. Сколько страниц в коконе?
Столько, сколько нужно для полного и исчерпывающего раскрытия темы. Главный критерий – полнота. Нужно ответить на ВСЕ возможные вопросы пользователя (и AI) в рамках темы кокона.
5. Особенности коконов 2.0
Анкоры-вопросы: Вместо анкора "условия банков" юзаем "какие банки выдают IT-ипотеку?". Это соответствует потенциальным запросам и тому, как LLM формирует ответы.
Ссылки на чанки (Jump Links): С Pillar ссылаемся на Child-страницу, на конкретный ее раздел с помощью якоря (#).
Перелинковка сущностей: Связываем не просто страницы, а сущности. Если на Child-странице упоминается конкретный документ, например, "справка о доходах", а на сайте есть страница-инструкция по ее получению (даже в другом коконе), нужно поставить ссылку. Это показывает AI глубину вашей проработки.
Визуализация кокона: Делаем на Pillar-странице навигационный блок (TOC или "Содержание темы") со ссылками на все Child-страницы. Это удобно для пользователя и является картой кокона для краулера.
Вывод: нужно спроектировать и предоставить поисковой системе готовую, верифицированную, взаимосвязанную и полную базу знаний по теме. Кокон – это не просто набор статей, это внутренний "Вики-ресурс", который LLM может безопасно и эффективно использовать для построения своих ответов, цитируя сайт как первоисточник.
#DrMax #SEO #SGE #Перелинковка #СемантическийКокон
👍23❤6🔥5 5😁1
(часть 1 из 17)
За годы внедрения кокОнцев на реальные сайты накопилось видЕние и решения множества проблем. Постараюсь постепенно расписать как избежать оных проблем.
Проблема 1: Как найти все страницы для кокона на существующем сайте?
Вы определили Pillar Page, например, "инвестиции в акции". Как найти все существующие на сайте страницы, которые могут стать ее сателлитами ("как выбрать брокера", "что такое дивиденды", "налогообложение акций")?
Операторы Google
Используем запрос: site:vashdomen.ru "инвестиции в акции". Google покажет страницы из своего индекса, которые он считает наиболее релевантными этому интенту. Это быстрый, но не полный метод.
Google Search Console
Зайдите в GSC -> Эффективность. В фильтре по запросам укажите ядро вашей темы (например, запросы, содержащие "it ипотека"). Затем переключитесь на вкладку "Страницы". Здесь будет список URL, которые получают показы и клики по этой теме, с точки зрения Google. Это достаточно надежный, но не полный метод.
Краулеры
Запускаем лягушку (Screaming Frog). В режиме "Spider" используем внутренний поиск по всему контенту сайта (HTML). Ищем не только главный интент, но и все его семантические производные: "брокерский счет", "дивидендные аристократы", "фондовый рынок". Это даст полный список страниц-кандидатов, но не факт что они принадлежат кокону. Нужен ручной анализ.
Используем мой софт "SEO релевантность" (выкладывал ранее). Запихиваем все нужные URL для анализа, основной интент и под-интенты. Запускаем анализ. Используем список страниц с наибольшей косинусной близостью. Из найденных "длинных" фраз для основной страницы ставим ссылки на Pilar страницы. Это самый надежный и правильный путь.
Проблема 2: "Полигамная" страница — подходит для нескольких коконов.
Например, карточка товара "Игровой монитор 27 дюймов" релевантна и для кокона "мониторы для геймеров", и для "мониторы 27 дюймов". Что делать?
Решение: Принцип "Канонического Кокона".
Страница должна физически принадлежать только ОДНОМУ, самому специфичному кокону. "Игровой монитор" в первую очередь сущность игрового мира. Значит, его Pillar Page — "Игровые мониторы". Именно с этой страницы должна идти основная структурная ссылка.
Из Pillar Page "Мониторы 27 дюймов" может быть контекстная ссылка на этот товар, но он не является структурной частью этого кокона. Для AI важно видеть строгую, основную иерархию. Размывание границ — худшее, что можно сделать. Вы должны сами принять волевое решение, где "дом" страницы, исходя из доминантного интента.
Проблема 3: Страницы-"сироты" и "зомби" в процессе кластеризации.
При аудите вы неизбежно найдете страницы, которые:
а) Не вписываются ни в один планируемый кокон (сироты).
б) Имеют мало контента, низкую ценность и нулевой трафик (зомби).
Решение: Аудит и безжалостная утилизация.
Проверяем каждую такую страницу на наличие трафика и бэклинков (через GSC, Analytics).
Сценарий 1 (Нет ценности): Если страница — мусор без трафика и ссылок, не бойтесь удалять ее с ответом сервера 410 Gone. Это четкий сигнал для Google, что страница удалена навсегда, и ускоряет ее исключение из индекса.
Сценарий 2 (Есть ценность): Если у страницы есть трафик/ссылки, но она слабая, ее контент нужно "пересадить". Переносим полезные абзацы на более релевантную Child или Pillar-страницу, а со старого URL ставим 301 редирект на страницу-реципиент. Так мы сохраняем ссылочный вес и консолидируем тематическую релевантность.
Вывод: Внедрение коконов — это не столько творчество, сколько архитектурная дисциплина. Ваша цель — создать для LLM кристально чистую, однозначную карту связей по каждой теме на вашем сайте. Любая двусмысленность будет трактоваться не в вашу пользу.
#DrMax #SEO #СемантическийКокон
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17👍12🔥9😁1
(часть 2 из 17)
Проблема 4: "Слепые зоны" кокона
Исторически коконы проектируют на основе анализа семантики, но Query Fan-Out из патента Google генерирует подзапросы, о которых вы и знать не можете. AI увидит пробел и пойдет за фрагментом ответа к конкуренту.
Решение: Проактивный поиск "слепых зон".
Парсинг SERP-фич: Систематически собирайте вопросы из блоков "People Also Ask" (Люди также спрашивают) и запросы из "Related Searches" для вашей основной темы. Это прямые подсказки от Google о том, какие сущности он связывает.
LLM: Используйте LLM (Gemeni/GPT-4/Claude/Perplexity) для генерации подтем. Промпт:
"Я пишу экспертную статью-хаб на тему [Pillar-тема]. Какие 20 неочевидных, но важных вопросов может задать пользователь по этой теме? Разбей по категориям: для новичков, для профессионалов, для тех, кто ищет сравнение."
Вы получите структуру для новых Child-страниц, о которых не думали.
Анализ конкурентов в SGE: Изучайте, из каких источников и по каким подтемам SGE генерирует ответы. Если в ответе по вашей теме постоянно цитируется конкурент с темой "X", а у вас ее нет, — это "слепая зона", которую надо закрыть.
Проблема 5: Конфликт E-E-A-T и "герметичности" кокона.
Старая, суровая школа SEO учила минимизировать исходящие ссылки, чтобы "не размывать вес". Но для LLM-систем и E-E-A-T страница, не ссылающаяся на авторитетные внешние источники, выглядит крайне подозрительно. Она существует в вакууме.
Решение: Стратегические исходящие ссылки (Outbound Links).
Внутри Child-страниц обязательно ссылайтесь на авторитетные, неконкурирующие первоисточники. На странице о налоговых вычетах в коконе "Инвестиции" дайте ссылку на соответствующий закон или страницу на nalog.gov.ru. На странице с медицинскими советами — на исследования с PubMed. Для AI это мощный сигнал верификации: вы не просто декларируете факты, а подтверждаете их данными из доверенных узлов в глобальном графе знаний.
Проблема 6: Ригидность кокона против "текучести" диалога (Stateful Search)
Классический кокон изолирован. Но патент описывает диалоговый, сохраняющий контекст поиск. Пользователь может начать в одном коконе ("IT-ипотека"), а его следующий логичный вопрос приведет в другой ("оценка недвижимости для банка"). Жесткая изоляция коконов мешает AI проследить этот путь.
Решение: Контролируемые "логические мосты"
Мы сохраняем базовую изоляцию, но сознательно строим мосты там, где этого требует пользовательский путь. Это не хаотичная перелинковка, а строго регламентированные связи: Child -> Pillar: Допускается ссылка с Child-страницы одного кокона на Pillar-страницу другого, если это следующий логический шаг.
Пример: со страницы "документы для IT-ипотеки" (Кокон 1) можно и нужно сослаться на Pillar-страницу "как сделать оценку квартиры для банка" (Кокон 2).
Анкор такой ссылки должен быть максимально естественным и вопросительным.
#DrMax #SEO #СемантическийКокон
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥12👍5😁3🆒1 1
(часть 3 из 17)
Проблема 7: Конфликт изоляции кокона и необходимости AI в сравнении
Механизм "Query Fan-Out" подразумевает, что AI для ответа на запрос "что лучше: IT-ипотека или семейная" будет искать сравнительную информацию. Но коконы по "IT-ипотеке" и "Семейной ипотеке" намеренно изолированы друг от друга, чтобы нарастить экспертность по каждой теме отдельно.
Решение: Создание "Мета-страниц" или "Хабов-сравнений"
Это страницы более высокого уровня, чем Pillar. Их единственная задача — сравнивать сущности из разных коконов.
Пример: Создаем страницу "Сравнение ипотечных программ: IT-ипотека vs. Семейная vs. Господдержка 2025".
Эта страница содержит сводную сравнительную таблицу (идеально для LLM!) и краткое описание плюсов и минусов каждой программы.
Самое главное: эта мета-страница ссылается на Pillar-страницы каждого сравниваемого кокона ("Подробнее об IT-ипотеке", "Все условия семейной ипотеки"). Так мы даем AI и готовое сравнение, и пути для углубления в каждую тему.
Проблема 8: Размытие авторитета из-за неверной гранулярности.
Что лучше: одна Child-страница "Условия IT-ипотеки в банках" с разделами H2 под Сбер, ВТБ, Альфа-Банк или три отдельные Child-страницы для каждого банка? Неправильный выбор приводит к тому, что AI не видит в вас эксперта по конкретному банку.
Решение: Гранулярность, управляемая SERP (SERP-driven granularity).
Вбиваем в поиск узкий запрос: "IT-ипотека Сбербанк условия".
Анализ топа 1: Если в топе отдельные страницы банков и агрегаторов, посвященные ИСКЛЮЧИТЕЛЬНО IT-ипотеке Сбербанка, — это сигнал, что Google считает это отдельным интентом. Вам нужна отдельная Child-страница.
Анализ топа 2: Если в топе общие страницы "об IT-ипотеке", где Сбербанк лишь один из разделов, — значит, можно обойтись одной общей Child-страницей с подробными разделами H2/H3 под каждый банк. Это решение должно приниматься не интуитивно, а на основе данных о том, как поисковик уже структурировал выдачу. Единственная беда - что через год все это может кардинально измениться. Но тогда и будем думать, как поправить кокон )))
Проблема 9: Неконсистентность данных внутри кокона.
На Pillar-странице "Вклады для физических лиц" указана ставка "до 16%", а на Child-странице "Накопительный счет в банке X" — конкретная ставка 15.5%. AI, верифицируя данные, видит это расхождение и теряет доверие ко всему кокону как к источнику.
Решение: Принцип "Единого источника правды" (Single Source of Truth, SSoT).
Шаблонизация: Для критически важных, часто меняющихся данных (ставки, цены, даты, характеристики) используйте сквозные блоки или шорткоды, которые управляются из одного места в админке. Изменили ставку в одном месте — она обновилась на всех страницах кокона.
Регулярный аудит (один владелец сайта): Хотя бы раз в квартал запускайте лягушку (Screaming Frog) в режиме поиска по HTML для проверки ключевых данных (например, поиск по слову "ставка" или "цена") и сверяйте их вручную или скриптом на предмет расхождений внутри одного кокона.
Внедрение процесса "коконного аудита" (профессиональный портал): Каждый кокон должен иметь "ответственного" и плановую дату аудита (раз в квартал, полгода).
При изменении ключевых данных (например, закон об ипотеке), обновлению подлежат ВСЕ страницы кокона как единое целое.
Активно используем Schema.org dateModified на всех обновленных страницах, чтобы явно сигнализировать поисковику об актуализации всей базы знаний. LLM будет ценить источники, которые демонстрируют поддержание информации в актуальном состоянии.
#DrMax #SEO #СемантическийКокон
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15😁5👍3💯3👻1
(часть 4 из 17)
Проблема 10: Post-Transactional контент не вписывается в коммерческий кокон
Патент ясно говорит об анализе всего пути пользователя, включая этап после покупки. Страницы типа "ошибка E05 в кофемашине" или "как чистить кофемашину" семантически связаны с карточкой товара, но ломают ее коммерческий интент. Включение их в кокон "купить кофемашину" размывает его фокус.
Решение (одно из решений): Построение параллельных "Support-коконов"
Создаем отдельный кокон поддержки. Pillar Page: "Поддержка и ремонт кофемашин [Бренд]". Child Pages: "Инструкция по чистке модели X", "Коды ошибок кофемашин [Бренд]", "Замена фильтра в модели Y".
На странице коммерческого кокона (например, на карточке товара или на Pillar-странице категории) мы ставим одну, но заметную ссылку на Pillar-страницу соответствующего Support-кокона. Например, блок "Владельцам: инструкции, ремонт и обслуживание". Этим мы показываем AI, что покрываем ВЕСЬ жизненный цикл клиента.
Проблема 11: Токсичное внутреннее ссылочное
Старый сайт уже весь пронизан старыми, хаотичными внутренними ссылками. Простое добавление "правильных" ссылок кокона не отменяет старые, которые размывают тематический фокус. Страница про IT-ипотеку, на которую ведут ссылки со страниц про ремонт и дизайн, получает от AI противоречивые сигналы.
Решение: Безжалостное удаление ссылок.
Используйте отчет inlinks в лягушке (Screaming Frog) или там Semrush/Ahrefs для каждой страницы создаваемого кокона.
Проанализируйте все входящие внутренние ссылки. Безжалостно удаляйте ссылки с тематически нерелевантных страниц. Задача — не только создать новые связи, но и разрушить старые, противоречащие логике кокона. Это и есть настоящая "семантическая изоляция".
Проблема 12: Конфликт с основной навигацией и "хлебными крошками"
Вы смастерили кокон и связали страницы кокона внутренними ссылками. Однако основное меню сайта и хлебные крошки отражают старую, не-коконную структуру. AI получает противоречивые сигналы. Контекстные ссылки говорят: "эта страница — часть хаба IT-ипотека". А хлебные крошки: "эта страница лежит в разделе Блог". Эта неоднозначность снижает доверие к вашей структуре.
Решение: Синхронизация. Хлебные крошки должны строго отражать иерархию кокона: Главная -> IT-Ипотека (Pillar) -> Условия банков (Child). Главное меню сайта должно ссылаться на ключевые Pillar Pages ваших коконов, а не на случайные страницы. Единство навигационных сигналов — залог успеха.
ЗЫ.
Наверное на этом закончим с ошибками/проблемами - ибо какой то учебник по коконцам выходит. Если что то непонятно - вопрошайте в комментариях. Если хотите продолжения про коконцы - пишите в комментарии. У меня накиданы заметки на цельный талмуд. Ну или продолжим про LLM разговаривать.
#DrMax #SEO #СемантическийКокон
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥6❤5😁3
Предположим, вы вбили запрос в гугл. Для построения ИИ ответа, он начинает генерировать десятки подзапросов, из ответов на которые и получается окончательный ответ ИИ. Зная, какие подзапросы задавал Гугл, легко построить семантический коконец вокруг основного запроса и таки пролезть в выдачу ИИ.
Сейчас я вас научу, как выдергивать эти подзапросы.
1. Откройте Инструменты разработчика в Хроме (Ctrl + Shift + I) на странице Гугл поиска
2. Перейдите на вкладку "Сеть" (Network).
3. Выполните поиск, генерирующий ответ ИИ.
3.1. Вы увидите, как на вкладке "Network" появляется множество строк — это все ресурсы, которые загружает страница.
3.2. Отфильтруйте запросы. Вам нужно отфильтровать сотни запросов (изображения, стили, скрипты), чтобы найти те, что относятся к генерации ответа ИИ.
3.3. Нажмите на фильтр Fetch/XHR. Этот фильтр показывает только асинхронные запросы, которые страница делает "в фоновом режиме" для получения данных уже после основной загрузки. Ответы ИИ почти всегда подгружаются именно так.
3.4. Ищите нужный запрос. Раньше Гугл все пихал в gen_204 или batchexecute. Сейчас ищите то, что выглядит как запрос данных.В моем примере это search
4. Анализируйте содержимое запроса. Кликните на один из подозрительных запросов. Справа откроется новая панель.
4.1. Перейдите во вкладку "Response" (Ответ) или "Preview" (Предпросмотр). Именно здесь находятся данные, которые сервер прислал в ответ на запрос. см скрин.
5. По правой кнопке сохраняем результат и переходим к п.3.
Важно:
1. На один и тот же запрос ИИ генерирует разные ответы (используя разные подзапросы). Поэтому циклически прогоняем несколько десятков раз один и тот же запрос (или малость его меняя) и используем "усредненные" подзапросы для построения коконца.
2. Это работает здесь и сейчас, возможно через неделю всё это будет прикрыто или произойдет обфускация результатов.
3. Самые сложные "разветвления" могут происходить полностью на серверах Google, и в браузере вы увидите только конечный результат, без следов промежуточных шагов.
#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
6👏24👍12❤8🔥4
🔥Как вывести сайт в конкурентной нише в ТОП-1 Яндекса за 2 недели и стабильно удерживать позиции — без ссылок и волшебства
Если вы занимаетесь SEO или продвигаете сайты, вы знаете: одними текстами и ссылками в 2025 году уже не обойтись.
Конкуренция — высокая, поведенческие факторы — решающий фактор в выдаче.
Когда обычные методы перестают работать, в игру вступает Seopapa — сервис, который продвигает сайты в Яндексе с помощью натуральных поведенческих сценариев, не вызывая подозрений у поисковиков.
"Мы подключили Seopapa к сайту в сложной нише (пластиковые окна) — через 14 дней он вышел в ТОП-1, а количество заявок выросло в 2,7 раза. Никаких фильтров, просадок или скачков — просто ровный, естественный рост трафика и клиентов.”
Почему выбирают Seopapa:
✅ Реальные фингерпринты и белые профили — незаметны даже для Я.Метрики
✅ Индивидуальные поведенческие скрипты для каждого сайта — для интернет-магазинов, услуг, инфосайтов
✅ Собственная прокси-сеть по всей России и СНГ.
✅ Настройка под ключ — если не хочется вникать, всё сделают менеджеры. От подбора ключей до стратегии продвижения – входит в стоимость продвижения.
✅ Глубокая аналитика и доступ к Топвизору бесплатно
📊 Что получите уже через 14 дней продвижения:
🔹 +80–100% целевого трафика с органики
🔹 x2–x3 больше заявок от реальных клиентов
🔹 ТОП-3 по основным целевым запросам
🔹 Полная безопасность — всё выглядит естественно для Яндекса в Я.Метрике
🎁 Seopapa дарит 15 000 ₽ на баланс новым пользователям. Можно запустить продвижение и получить первые результаты бесплатно.
👉 Попробуйте: seopapa.com
#Гостевой_пост
Если вы занимаетесь SEO или продвигаете сайты, вы знаете: одними текстами и ссылками в 2025 году уже не обойтись.
Конкуренция — высокая, поведенческие факторы — решающий фактор в выдаче.
Когда обычные методы перестают работать, в игру вступает Seopapa — сервис, который продвигает сайты в Яндексе с помощью натуральных поведенческих сценариев, не вызывая подозрений у поисковиков.
"Мы подключили Seopapa к сайту в сложной нише (пластиковые окна) — через 14 дней он вышел в ТОП-1, а количество заявок выросло в 2,7 раза. Никаких фильтров, просадок или скачков — просто ровный, естественный рост трафика и клиентов.”
Почему выбирают Seopapa:
✅ Реальные фингерпринты и белые профили — незаметны даже для Я.Метрики
✅ Индивидуальные поведенческие скрипты для каждого сайта — для интернет-магазинов, услуг, инфосайтов
✅ Собственная прокси-сеть по всей России и СНГ.
✅ Настройка под ключ — если не хочется вникать, всё сделают менеджеры. От подбора ключей до стратегии продвижения – входит в стоимость продвижения.
✅ Глубокая аналитика и доступ к Топвизору бесплатно
📊 Что получите уже через 14 дней продвижения:
🔹 +80–100% целевого трафика с органики
🔹 x2–x3 больше заявок от реальных клиентов
🔹 ТОП-3 по основным целевым запросам
🔹 Полная безопасность — всё выглядит естественно для Яндекса в Я.Метрике
🎁 Seopapa дарит 15 000 ₽ на баланс новым пользователям. Можно запустить продвижение и получить первые результаты бесплатно.
👉 Попробуйте: seopapa.com
#Гостевой_пост
😁10🗿7👍6👏1
(часть 5 из 17)
Решил дописать еще пару проблем, не разобранных ранее.
Проблема 13. "Полигамная" страница и выбор "дома"
Карточка товара "Роботизированный пылесос с влажной уборкой и лидаром" одинаково релевантна для коконов "Роботы-пылесосы" и "Техника для умного дома". Куда ее отнести?
Ошибка: Включать страницу как Child в оба кокона. Это создает неоднозначность, размывает тематические силосы и сбивает с толку краулера, который не видит четкой иерархии.
Решение: Принцип "Канонического кокона"
Определите первичный интент: Что ищет пользователь в первую очередь — пылесос или элемент умного дома? В 99% случаев — пылесос. Его функция "умный дом" — вторична.
Назначьте постоянный "дом": Страница становится частью кокона "Роботы-пылесосы". Ее URL, хлебные крошки и основная ссылка "вверх" ведут на Pillar "Роботы-пылесосы".
Используйте контекстные ссылки-гости: Из кокона "Техника для умного дома" вы можете поставить контекстную ссылку на эту карточку товара в абзаце, где перечисляются устройства. Но это будет гостевая ссылка, а не структурная. У страницы должен быть только один "родитель".
Проблема 14. Разрыв в качестве между Pillar и Child
Предположим, что Pillar-страница "Все о SEO-аудите сайта" — это гайд на 30 тысяч символов с видео и таблицами. А дочерние страницы "технический аудит", "аудит ссылочной массы" — это рерайт на 2000 символов, написанный "для галочки".
Ошибка: Считать, что Google оценит только Pillar. LLM-системы и краулеры проходят по ссылкам. Обнаружив, что ссылка с авторитетной страницы ведет на слабый, неубедительный контент, они понизят доверие ко всему кластеру. Кокон силен настолько, насколько сильно его самое слабое звено.
Решение: Единый стандарт качества
Каждая Child-страница — это Pillar для своего микро-интента. Страница "Технический аудит" должна быть лучшим и самым полным ответом в интернете именно на этот узкий вопрос.
Внедрите чек-лист качества: Каждая страница кокона, независимо от ее места в иерархии, должна содержать мультимедиа (где уместно), структурированные данные, экспертные цитаты и быть идеально отформатирована. Только так вы создадите для AI цельную, непротиворечивую и авторитетную базу знаний.
Успешный кокон — это не просто перелинковка, а безупречная логика и равномерное качество. Стратегические компромиссы здесь стоят дороже всего.
#DrMax #SEO #СемантическийКокон
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🆒2❤1😁1😱1