Telegram Web Link
🚀 E-commerce в ТОП: Продающие описания товаров для SEO и конверсий (Часть 2)

Теперь фокус на описаниях товаров – текстовом контенте, который информирует покупателей и предоставляет поисковикам контент для индексации и ранжирования.

Как создавать эффективные описания товаров:

1️⃣ Структура и форматирование:

🟢Логическая иерархия: Используйте заголовки (H2, H3 и т.д. после основного H1 – названия товара) для разделения смысловых блоков.
🟢Списки (bullet points): Идеальны для перечисления ключевых характеристик, преимуществ, комплектации.
🟢Единообразие: Поддерживайте одинаковый стиль форматирования для всех товаров.
🟢Качество > Количество: Не пишите "простыни" текста. Информация должна быть достаточной, релевантной и легко усваиваемой.

Пример структуры:
Краткое интро -> Блок преимуществ (списком) -> Детальные характеристики (можно таблицей) -> Особенности использования/ухода -> Призыв к действию.

2️⃣ Качество контента:

🟢Уникальность: Категорически избегайте копирования описаний с сайтов производителей или конкурентов. Это прямой путь под фильтры ПС и снижение доверия.

🟢Язык выгод, а не только характеристик:

Плохо: "Синяя рубашка. Приятная ткань. Быстрая доставка."

Хорошо: "Эта мужская рубашка из оксфордского хлопка отличается современным приталенным кроем и тканью, устойчивой к сминанию. Лазурно-синий оттенок универсален как для строгого делового, так и для более расслабленного бизнес-кэжуал стиля. Усиленная отстрочка в местах наибольшего натяжения гарантирует долговечность даже при частой носке и стирках."

🟢Целевая аудитория: Пишите для своего клиента, учитывая его потребности и возражения.

🟢Tone of voice: Придерживайтесь единого стиля общения, соответствующего вашему бренду.

🟢Полнота информации: Предоставьте все данные, которые могут понадобиться для принятия решения о покупке (размеры, материалы, совместимость, страна производства и т.д.).

3️⃣ Интеграция ключевых слов:

🟢Естественность: Включайте основной ключ и его вариации (LSI, long-tail) органично, чтобы они дополняли текст, а не выглядели спамно.
🟢Без переспама: "Купить синяя рубашка недорого Москва синяя рубашка" – это плохо. Поисковики давно это распознают.
🟢FAQ-секция: Включите блок с ответами на часто задаваемые вопросы о товаре. Это отличный источник релевантных низкочастотных запросов и полезной информации для пользователя.

Пример: "Подходит ли эта модель для стирки в машине?", "Какой срок гарантии на данный товар?".

🟢UGC. Отзывы обязательны.

4️⃣ Технические SEO-аспекты описаний:

🟢Микроразметка Schema.org Product: Обязательна! Позволяет получить расширенные сниппеты в выдаче (цена, наличие, рейтинг, отзывы). Заполняйте максимум полей: name, description, image, sku, brand, offers (price, priceCurrency, availability), aggregateRating, review.

🟢Иерархия заголовков: H1 для названия товара. H2, H3 – для логических подсекций в описании.

🟢Таблицы для характеристик: Числовые данные, размеры, технические параметры лучше всего представлять в табличном виде для легкого сравнения и восприятия.

🟢Мобильная адаптивность: Текст должен быть читабельным, а элементы форматирования (списки, таблицы) корректно отображаться на всех устройствах.

🟢Внутренняя перелинковка: Используйте контекстные ссылки из описаний на релевантные категории, другие товары (например, "с этим товаром часто покупают"), статьи в блоге (обзоры, гайды).

🤝 Синергия изображений и описаний:
Изображения и описания работают в тандеме. Качественные фото привлекают внимание и демонстрируют товар, а убедительные описания предоставляют детали, отвечают на вопросы и склоняют к покупке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Отслеживание результатов:

🟢Аудит: Регулярно проверяйте текущие изображения и описания. Ищите слабые места. Инструменты: Лягушка, SiteAnalyzer для технического аудита.
🟢Приоритезация: Начните с самых важных товаров (высокомаржинальные, трафиковые) или тех, что показывают плохую конверсию. Учитывайте сезонность.
🟢Мониторинг: Отслеживайте показатели: Google Search Console ( Показы, клики, CTR карточек товаров), Google Analytics 4 (Коэффициент конверсии, время на странице, показатель отказов), Инструменты для проверки скорости (PageSpeed Insights): влияние изображений на загрузку. Юзайте сервисы мониторинга позиций.

Оптимизация – это непрерывный процесс. Регулярное внимание к визуальному и текстовому контенту карточек товаров обеспечит вашему e-commerce проекту рост позиций, органического трафика и, как следствие, продаж.

#DrMax #Ecommerce #SEO #конверсии
Please open Telegram to view this post
VIEW IN TELEGRAM
С Днем Победы!
👉 Про внутреннюю перелинковку

Еще одной фишкой использования нашей софтинки "SEO релевантность" является поиск наилучших страниц на сайте для внедрения внутренней перелинковки.

Допустим, нужно нам продвинуть страничку по определенным ключам. Скармливаем программульке список страниц откуда будем (возможно) ставить ссылку и оный список ключей и рассчитываем семантическую близость страниц. Чем она выше - тем лучше для внедрения ключа для внутренней перелинковки. Плюсом снижаем вероятность канибализации запроса.

Удивительно универсальная софтина вышла )))

PS
Список ключей берем из GSC (те что поближе к топу и с хорошим числом показов)

PSS
Перезалил софтинку.

#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🧊 Спам в Google AI Overviews

Google AI Overviews, интегрированные непосредственно в SERP, уже демонстрируют уязвимость к манипуляциям и спаму. Это не просто "экспериментальная" фича, а фактор, который уже влияет на видимость и восприятие брендов. Проанализируем ключевые проблемы, подсвеченные в недавних исследованиях.

Ключевые проблемы манипуляции AI Overviews:

1️⃣ Галлюцинации и некорректная информация: AI Overviews генерируют фактически неверные ответы или "додумывают" информацию, даже если она противоречит данным из Google Business Profiles или Knowledge Graph.

Пример: AI Overview может показать неверный номер телефона компании, несмотря на корректные данные в ее GBP.

2️⃣ Спамные листиклы (Spammy Listicles): Низкокачественные сайты создают статьи-рейтинги, где объявляют себя или аффилированные компании "лучшими" в определенной категории. AI Overviews могут цитировать такие самоназванные авторитеты.

Пример: Сайт "seo-rogoikopyta.xyz" публикует статью "Топ-10 SEO-агентств Москвы", где на первом месте – они сами. AI Overview может подтянуть эту "экспертную" оценку.

3️⃣ Дублирование контента: AI Overviews склонны к прямому копированию фрагментов текста с различных источников, что потенциально нивелирует ценность оригинального, качественного контента.

4️⃣ Продвижение низкокачественного контента: AI-генерированный контент, часто используемый для создания спамных страниц, может попадать в AI Overviews, снижая общий User Experience и доверие к поиску.

5️⃣ Фейковая авторитетность: Система может принять за факт утверждение сайта о его превосходстве ("мы – лучшее SEO-агентство") и транслировать это в AI Overview.

Почему это важно для SEO-практиков:

Риски для репутации: Некорректная или откровенно спамная информация о вашем бренде или клиентах может быть выведена на самую заметную позицию в поиске.

Обесценивание E-E-A-T усилий: Google, активно продвигающий концепцию E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness), сам же подрывает ее, допуская в AI Overviews контент, который ей явно не соответствует.

Необходимость адаптации стратегий: Появление нового значимого элемента в SERP требует пересмотра подходов к созданию контента и управлению информацией о бренде в сети.

Собственно, то о чем говорилось в комментах - осуществлено. Научились загаживать и новую выдачу. В скрине - пример такой выдачи.

#DrMax #SEO #Google #AIOverviews
Please open Telegram to view this post
VIEW IN TELEGRAM
🟡 AI Overviews и SEO: Практические стратегии адаптации и защиты от спама

Продолжаем разбор ситуации со спамом в Google AI Overviews. В первой части мы определили ключевые проблемы. Теперь перейдем к конкретным действиям, которые помогут SEO-специалистам адаптироваться к новым реалиям и защитить свои проекты.

Рекомендации и стратегии для SEO-специалистов

1️⃣ Максимальное усиление E-E-A-T сигналов:

Действие: Продолжайте наращивать реальный опыт, экспертизу, авторитетность и доверие к вашему сайту и бренду. Это включает подробные профили авторов с регалиями, публикацию оригинальных исследований, кейсов, получение отзывов на трастовых площадках, прозрачную информацию о компании.

Пример: Для медицинской тематики – статьи, написанные или рецензированные практикующими врачами с указанием их специализации и опыта. Для e-commerce – исчерпывающие и честные описания товаров, сертификаты, гарантии.

2️⃣ Детальная проработка структурированных данных (Schema Markup):

Действие: Внедряйте и поддерживайте актуальность максимально полной и корректной микроразметки для всех значимых сущностей на сайте (Organization, LocalBusiness, Person, Article, Product, FAQPage, Event, Recipe и т.д.). Это один из способов "подсказать" поисковым системам правильную информацию.

Пример: Для LocalBusiness обязательно укажите точный адрес, верифицированный телефон, часы работы, email через Schema. Для статей – author, datePublished, dateModified.

3️⃣ Фокус на безупречном качестве и оригинальности контента:

Действие: Создавайте контент, который не просто отвечает на запрос, а дает исчерпывающую, уникальную и полезную информацию. Избегайте поверхностного рерайта и низкопробного AI-генерированного контента.

Пример: Вместо статьи "10 советов по выбору ноутбука", опубликуйте "Глубокий сравнительный анализ топ-5 ноутбуков 2025 года для разработчиков: тесты производительности, экрана и автономности".

4️⃣ Регулярный мониторинг SERP и AI Overviews:

Действие: Систематически отслеживайте, как ваш бренд, продукты, услуги и ключевые запросы отображаются в AI Overviews. Используйте различные геолокации и устройства.

Пример: Еженедельно проверяйте топ-10 коммерческих и информационных запросов на предмет появления AI Overviews и анализа их содержания на релевантность и корректность.

5️⃣ Активное управление онлайн-репутацией (ORM):

Действие: Оперативно реагируйте на появление некорректной информации о вашем бренде в AI Overviews. Используйте все доступные каналы для коррекции (например, обновление Google Business Profile, обращение в поддержку Google, если это возможно, публикация опровержений на авторитетных ресурсах).

6️⃣ Обеспечение фактологической точности на собственном сайте:

Действие: Тщательно проверяйте всю публикуемую информацию. AI Overviews могут цитировать ваш сайт, и если у вас ошибка, она может быть усилена.

Пример: Перед публикацией статьи с цифровыми данными, статистикой, историческими фактами – проведите двойную проверку источников.

7️⃣ Углубленная проработка пользовательского интента:

Действие: Стремитесь не просто к формальному соответствию запросу, а к полному удовлетворению потребности пользователя, стоящей за этим запросом.

8️⃣ Техническая оптимизация сайта:

Действие: Безупречное техническое состояние сайта (скорость загрузки, мобильная адаптация, отсутствие ошибок сканирования, корректный robots.txt и sitemap.xml) остается фундаментом.

Проблема спама и неточностей в AI Overviews – это новая фишка, которую можно либо использовать для краткосрочных проектов и быстрой наживы, либо, если играть и работать на перспективу - нужно научиться с ней бороться. Сайты с сильным E-E-A-T и высококачественным, точным контентом в долгосрочной перспективе должны выигрывать.

#DrMax #SEO #Google #AIOverviews
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 Как несоответствие типа контента убивает позиции в Google

Сегодня разберем одну из неочевидных, но критически важных причин, почему ваша страница может болтаться далеко за ТОПом, даже если контент качественный и уникальный. Речь о несоответствии формата контента ожиданиям Google и пользователей для конкретного поискового запроса.

Google стремится предоставить пользователю наиболее релевантный и удобный ответ на его запрос. Если по определенному запросу пользователи чаще всего ищут и взаимодействуют, например, с видеоинструкциями, то страница с длинным текстовым описанием, как бы хороша она ни была, будет иметь меньше шансов на высокий ранг. Google анализирует поведение пользователей и определяет, какой тип контента лучше всего удовлетворяет их интент.

Прежде чем создавать или оптимизировать контент, обязательно вбейте ваши целевые ключевые запросы (основные, среднечастотные, длинные хвосты) в Google и внимательно изучите выдачу:

1️⃣ Какие типы страниц доминируют в ТОП-10? Это статьи-лонгриды, короткие ответы, видео, товарные карточки, страницы категорий, списки, обзоры, калькуляторы, интерактивные инструменты, PDF-документы, форумные обсуждения, новостные агрегаторы?

2️⃣ Есть ли специальные блоки в выдаче? Блок с видео, карусель картинок, блок "Вопросы и ответы" (People Also Ask), локальный блок (Local Pack), блок знаний (Knowledge Panel), рецепты, вакансии и т.д. Наличие этих блоков – прямой сигнал о предпочтительном формате.

3️⃣ Какой интент преобладает? Информационный, коммерческий, транзакционный, навигационный? Формат контента тесно связан с интентом.

Примеры несоответствия формата:

Запрос: "Как приготовить пельмени" 🥟
Ваша страница: Длинная статья об истории пельменей, различных видах теста/начинки и происхождении блюда.
SERP: Доминируют страницы с пошаговыми рецептами (текст + фото/видео), структурированные с помощью Schema.org/Recipe, и отдельные видеоролики.
Результат: Ваша историческая справка, скорее всего, не попадет в ТОП по этому практическому запросу.

Запрос: "Сравнение iPhone 16 Pro и Samsung S25 Ultra" (или что там сейчас)
Ваша страница: Краткое описание характеристик каждой модели на отдельных страницах товаров.
SERP: Преобладают детальные статьи-сравнения "лоб в лоб" с таблицами характеристик, анализом преимуществ/недостатков, фото- и видеосравнениями, тестами производительности.
Результат: Пользователи ищут сводный анализ, а не разрозненные данные.

Запрос: "Лучшие комедии 2025"
Ваша страница: Обзор одной комедии 2025 года.
SERP: Списки (listicles) фильмов с краткими описаниями, трейлерами, рейтингами.
Результат: Ваша страница не соответствует запросу на подборку.

Запрос: "Что такое API"
Ваша страница: Продающая страница вашего сервиса, использующего API, с минимумом объяснений.
SERP: Информационные статьи, объясняющие концепцию простым языком, возможно, с диаграммами или примерами кода. Часто это страницы из блогов, документации, образовательных ресурсов.
Результат: Коммерческая страница не ответит на чисто информационный запрос.

Итак, если анализ SERP показал, что доминирует другой формат, у вас два пути:

Адаптировать существующую страницу: Если это возможно, дополните страницу элементами нужного формата. Например, к текстовой инструкции добавьте видео, инфографику, сравнительную таблицу.

Создать новую страницу в нужном формате: Иногда проще и эффективнее создать отдельную единицу контента, заточенную под доминирующий формат и интент.

1️⃣ Используйте смешанные форматы (если уместно): Одна страница может содержать текст, изображения, встроенное видео, интерактивные элементы. Это может удовлетворить более широкую аудиторию и дать Google больше сигналов о качестве. Пример: Обзор сложного ПО может включать текстовое описание функций, скриншоты, видеодемонстрацию и раздел FAQ.

2️⃣ Не игнорируйте "длинный хвост": Для более специфичных запросов "длинного хвоста" формат может быть менее жестко определен, что дает больше гибкости. Однако основной тренд по "голове" и "телу" запросов нужно учитывать.
Please open Telegram to view this post
VIEW IN TELEGRAM
3️⃣ Mobile-first: Помните, что большинство пользователей ищут с мобильных. Формат контента должен быть удобен для потребления на небольших экранах. Видео, короткие абзацы, списки, легко читаемые шрифты.

4️⃣ Регулярный аудит SERP: Предпочтения Google и пользователей меняются. Регулярно пересматривайте выдачу по важным для вас запросам, чтобы вовремя скорректировать контент-стратегию.

Вывод: Анализируйте SERP, будьте гибкими и предоставляйте контент в том виде, в котором его хотят видеть пользователи и Google

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
‼️ Методы ранжирования Google (слив) - часть1

Очень много информации о ранжировании Гугла дает судебный процесс над оным. Вот, например, февральский допрос некоего инженера Гугла, проливающие свет на архитектуру их системы ранжирования. Основные мысли таковы:

1️⃣ "Ручная Настройка" (Hand Crafting) доминирует:
Подавляющее большинство сигналов, за исключением LLM-ориентированных RankBrain и DeepRank, создаются и калибруются инженерами вручную. Процесс включает анализ данных, применение сигмоидных функций и определение пороговых значений (thresholds). Это обеспечивает прозрачность для отладки и позволяет Google быстро реагировать на проблемы.

2️⃣ Фундаментальные ABC-сигналы и Topicality (T*):
🟢A (Anchors): Ссылки, указывающие с одной страницы на другую.
🟢B (Body): Термины в контенте документа.
🟢C (Clicks): Исторически – длительность пребывания пользователя на странице после перехода из SERP.
Эти три "сырых" сигнала являются ключевыми компонентами Topicality (T*) – базовой оценки релевантности документа запросу. T* описывается как "старая школа" Information Retrieval (IR) метрик. Активная разработка T* велась до примерно 5 лет назад.

3️⃣ Navboost: Отмечен как второй значимый сигнальный проект

4️⃣ "Кривые" Ранжирующих Сигналов (Ranking Signal Curves):
Инженеры Google строят и используют "кривые" для каждого уровня сигналов. Это позволяет тонко настраивать их поведение и чувствительность. Такая подгонка кривых (curve-fitting) позволяет модифицировать реакцию сигналов на граничные случаи (edge cases) и адаптироваться, например, к вызовам, связанным с общественным вниманием или медийными событиями.

5️⃣ Качество (Q*) – Page Quality: Q* (качество страницы, отражающее доверие/авторитетность) – невероятно важный сигнал, который, в основном, является статическим для сайта и не привязан к конкретному запросу (хотя есть исключения, когда запрос может влиять на интерпретацию качества). PageRank используется как один из входных данных для оценки Quality.

6️⃣ eDeepRank: LLM-система (использует BERT, трансформеры), которая пытается "разложить" сигналы на основе больших языковых моделей на более прозрачные и понятные компоненты.

7️⃣ Индекс Поиска (Search Index): Определяется как инвертированный индекс, содержащий фактический просканированный контент (заголовки, тело документа). Сигналы, основанные на запросе (query-based signals), вычисляются в реальном времени, а не хранятся в индексе.

8️⃣ Пользовательские Данные (User-Side Data): Под этим понимаются данные о взаимодействии пользователей с интерфейсом (например, клики), а не контент, создаваемый пользователями (например, ссылки между страницами, созданные людьми, не считаются User-Side Data в этом контексте).

9️⃣ Tangram (ранее Tetris): Проект, инициированный HJ Kim, с целью применения базовых принципов поиска ко всем поисковым функциям и вертикалям (не только к 10 синим ссылкам).

Подчеркивается, что если конкуренты получат доступ к детальным данным (клики, URL, запросы, кривые сигналов, пороги), они смогут легко реконструировать высокоуровневые компоненты IR-оценки Google.

Выводы:
Несмотря на развитие LLM, "классические" IR-принципы и детальная ручная настройка сигналов инженерами остаются стержнем ранжирования Google. Понимание важности таких элементов, как качество контента (Body), ссылочный профиль (Anchors), пользовательское поведение (Clicks), а также общая авторитетность сайта (Q*), остается фундаментальным для успешного SEO.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔄 User-Side Data: Анализ Сигналов Взаимодействия

Продолжаем потрошить слив, который я опубликовал третьего дня. Теперь разберем "User-Side Data" – одну из наиболее влиятельных, хотя и опосредованно измеряемых, групп сигналов для ранжирования в Google. Согласно слива, Google под этим термином понимает ИМЕННО ДАННЫЕ о взаимодействии пользователей с результатами поиска и веб-страницами, а не пользовательский контент.

1️⃣ User-Side Data в SERP (До Кликов на Ваш Сайт):

Эти сигналы формируются на основе того, как пользователи взаимодействуют с вашей страницей еще до перехода на нее, то есть непосредственно в поисковой выдаче.

🔴CTR (Click-Through Rate) Сниппета: Отношение числа кликов к числу показов вашего сниппета. Высокий CTR сигнализирует Google, что ваш заголовок (Title) и описание (Description) релевантны запросу и привлекательны для пользователя.

🔴Pogo-sticking (Быстрый Возврат в SERP): Пользователь кликает на ваш результат, быстро оценивает страницу и тут же возвращается в SERP, чтобы выбрать другой результат. Это сильный негативный сигнал – страница не удовлетворила интент.

Необходимо максимальное соответствие интенту: Контент на странице должен точно отвечать на запрос, который привел пользователя.

🔴Скорость загрузки (Core Web Vitals): Если страница грузится долго, пользователь уйдет, не дождавшись контента. LCP, FID, CLS – ваши приоритеты.

🔴Отсутствие агрессивной рекламы/попапов на первом экране: Не мешайте пользователю получить то, за чем он пришел.

🔴Long Click (Длинный Клик / Dwell Time до возврата в SERP): Пользователь кликает на ваш результат, проводит на сайте значительное время и не возвращается в SERP для поиска по тому же запросу (или возвращается значительно позже). Это позитивный сигнал, указывающий на удовлетворенность.

2️⃣ User-Side Data на Сайте (После Кликов):

Эти сигналы формируются уже после того, как пользователь перешел на ваш сайт.

🔴Dwell Time (Время на Сайте/Странице): Как долго пользователь остается на вашей странице или сайте в целом. Длительное пребывание часто (но не всегда) коррелирует с интересом и полезностью контента.

🔴Bounce Rate (Показатель Отказов) – с нюансами: Процент сеансов с просмотром одной страницы. Сам по себе высокий Bounce Rate не всегда плох (например, для страницы контактов или простого ответа на вопрос). Но в комплексе с низким Dwell Time по целевым страницам – это негативный сигнал.

🔴Pages per Session (Глубина Просмотра): Среднее количество страниц, просмотренных за один сеанс. Указывает на заинтересованность пользователя в вашем сайте и его контенте.

🔴Task Completion / Conversion Rate (Коэффициент Конверсии): Хотя прямая конверсия (покупка, заявка) – это больше про бизнес-цели, успешное выполнение пользователем целевого действия на сайте (даже микроконверсии, вроде подписки на рассылку, скачивания файла, просмотра видео до конца) может косвенно сигнализировать Google о качестве и полезности ресурса.

3️⃣ Как Google использует эти данные:

🔴Обучение ML-алгоритмов (RankBrain, DeepRank и др.): User-Side Data – это мощный фидбэк для систем машинного обучения, помогающий им лучше понимать, какие страницы действительно удовлетворяют пользователей.

🔴Корректировка позиций: Постоянный негативный фидбэк от пользователей (высокий pogo-sticking, низкий CTR при высоких показах) может приводить к понижению позиций.

🔴Оценка качества страниц/сайта в целом: Совокупность позитивных сигналов взаимодействия формирует общее впечатление о полезности ресурса.
Please open Telegram to view this post
VIEW IN TELEGRAM
Выводы:
1. User-Side Data – это не отдельные метрики, а экосистема сигналов. Работайте над улучшением пользовательского опыта комплексно.

2. Контент Интент – царь и бог: Глубокое понимание и удовлетворение интента пользователя по каждому запросу – основа для положительных поведенческих сигналов.

3. Техническое SEO + UX = ❤️: Быстрый, удобный, адаптивный сайт – это минимум, необходимый для продвижения.

Анализируйте данные из Google Analytics 4, Google Search Console, тепловых карт (я юзаю Clarity от мелкомягких) и A/B тестов для выявления точек роста и проблемных зон. Не пытайтесь "накрутить" поведенческие факторы искусственно. Google достаточно хитер и злопамятен, чтобы распознать такие манипуляции, что приведет к санкциям. Только естественное улучшение сайта (если он белый) для пользователей!

#DrMax #SEO #Google
🥺 SEO в эпоху AI: Адаптация стратегий под Google AI Overviews и AI Mode

Google опубликовал новые рекомендации (от Дж. Мюллера !!!) по оптимизации контента для своих AI-интерфейсов (AI Overviews, AI Mode). Вот выжимка из оного с комментариями и примерами:

1. Ценный контент для людей

Мюллер заявляет: AI-ответы строятся на контенте, удовлетворяющем сложные, многоэтапные запросы. Это прямой намек на углубление E-E-A-T. AI будет оценивать не просто уникальность текста, а глубину экспертизы, подтвержденную фактами, данными, авторством. Фокусируйтесь на создании контента, который отвечает не на один, а на пул связанных интентов.

Пример: Не просто "как выбрать смартфон", а "сравнительный анализ камер флагманских смартфонов 2025 года в условиях низкой освещенности с примерами фото и ссылками на исходники".

2. Page Experience.

Важность юзабилити, скорости загрузки, адаптивности, четкого выделения основного контента.
Core Web Vitals (особенно INP – Interaction to Next Paint) становятся еще критичнее. AI-системы могут понижать в выдаче страницы с плохим UX, даже если контент релевантен. LCP, FID/INP, CLS – постоянно отслеживаем.

3. Техническая доступность контента.

Отсутствие блокировок для Googlebot, код ответа 200, индексируемый контент. Проверьте корректность директив в robots.txt и мета-тегах robots. Убедитесь, что JS-контент корректно рендерится и доступен Googlebot. Важна чистота HTML-кода и логичная структура заголовков (H1-H6) для лучшего парсинга AI.

4. Управление видимостью через Preview Controls.

Используйте nosnippet, data-nosnippet, max-snippet, noindex. Это ваш инструмент влияния на то, как контент используется в AI Overviews. Стратегически подходите к их использованию. max-snippet:[длина] позволяет дать затравку, но стимулировать клик. data-nosnippet для исключения конкретных частей контента.

Пример: Для статьи с уникальным исследованием можно установить max-snippet:180, чтобы дать понять суть, но не раскрыть все выводы, мотивируя переход.

5. Соответствие структурированных данных видимому контенту.

Валидация и соответствие разметки тому, что видит пользователь. Активно используйте релевантные типы Schema.org: Article (с author, datePublished, dateModified), FAQPage, HowTo, Product, Recipe. Чем точнее и полнее разметка, тем легче AI понять суть контента и использовать его. Особое внимание на author и publisher для демонстрации E-E-A-T.

6. Мультимодальность

Качественные изображения, видео, актуальные Merchant Center и Google Business Profile. Оптимизируйте имена файлов изображений, заполняйте alt атрибуты осмысленным текстом. Для видео – транскрипции и субтитры. Изображения и видео должны быть уникальными и дополнять текст. Используйте разметку ImageObject и VideoObject.

Пример: В статье о ремонте двигателя прикрепите не стоковую картинку, а реальные фото процесса с поясняющими alt или диаграмму с разметкой.

7. Понимание полной ценности визитов.

Мюллер говорит: Клики из AI Overviews могут быть более качественными, пользователи – более вовлеченными.

Дополнение: Сместите фокус с количества кликов на качество сессий и конверсии. Анализируйте поведение пользователей, пришедших из AI-блоков: глубина просмотра, время на сайте, достижение микро- и макро-целей. Это может указывать на необходимость доработки контента под более "прогретую" аудиторию.

Пример: Если видите, что трафик из AI Overviews имеет высокий показатель отказов на определенной странице, возможно, она не до конца удовлетворяет сформированный у пользователя AI-ответом интент.

ВСЯКИЕ РАЗНЫЕ МЫСЛИ

1. Семантическое ядро и NLP-оптимизация: Создавайте контент, максимально насыщенный синонимами, связанными терминами и сущностями. Структурируйте текст так, чтобы он был легко понятен алгоритмам обработки естественного языка (NLP). Думайте о "вопрос-ответных" парах. Юзайте софт SEO Релевантность.
Please open Telegram to view this post
VIEW IN TELEGRAM
2. Внутренняя перелинковка: Укрепляйте тематическую релевантность страниц с помощью продуманной внутренней перелинковки. AI-системы это учитывают при оценке авторитетности и полноты раскрытия темы. Ссылайтесь на поддерживающие материалы и основные "хабовые" страницы (коконцы ))) ).

3. Обновление контента (Content Freshness): Для многих запросов AI будет отдавать предпочтение свежей информации. Регулярно пересматривайте и обновляйте ключевые материалы, особенно если они касаются быстро меняющихся тем (см посты про таблицы и прочее, что публиковал ранее).

4. Авторитетность домена и авторов: Продолжайте наращивать общую авторитетность сайта (качественные обратные ссылки, упоминания). Подчеркивайте экспертизу авторов (отдельные страницы, ссылки на профили, упоминания в тексте).

Выводы: Эволюция Google Search с AI – это не отмена старых правил, а их ужесточение и смещение акцентов. Глубокая экспертиза, техническое совершенство и фокус на пользовательском опыте – вот ключи к успеху в новой AI-реальности.
Адаптируйтесь!

#DrMax #SEO #Google #AIOverviews
🔥 Как использовать data-nosnippet для управления AI-выдачей

В контексте AI Overviews аттрибут data-nosnippet является одним из ключевых. Если nosnippet – это "ядерный вариант" (скрыть весь сниппет), то data-nosnippet позволяет хирургически вырезать конкретные части HTML-кода страницы из формирования сниппетов и, следовательно, из ответов AI.

Для чего это нужно? Сейчас разные там AI могут "слишком хорошо" отвечать на запрос пользователя, не оставляя ему причин для перехода на сайт. Используя data-nosnippet можно подсунуть AI достаточно информации для формирования полезного ответа, но при этом скрыть самый цимус, который мотивирует переход на сайт.

Вот сценарии использования data-nosnippet:

1. Защита CTA и конверсионных элементов:

Часто цена или точная скидка могут быть извлечены в AI Overview. Чтобы побудить пользователя перейти для ознакомления с полными условиями или вариантами, можно скрыть эти элементы из сниппета.

Пример:

<p>Наш новый процессор Z80 обеспечивает прирост производительности до 40%.</p>
<div data-nosnippet>
<p>Специальная цена: $299! <a href="/buy-z80">Купить сейчас со скидкой 15%</a></p>
</div>
<p>Узнайте больше о технологии Sinclair...</p>


Результат: AI может упомянуть прирост производительности, но для цены и покупки нужно будет кликнуть.

2. Исключение шаблонного/малоценного для сниппета контента:

Навигационные "хлебные крошки", стандартные подписи авторов под каждым абзацем (если они объемные), дисклеймеры, повторяющиеся блоки "Поделиться в соцсетях" – все это можно и нужно скрыть, чтобы AI сфокусировался на сути.

Пример:
<h1>Обзор смартфона AlphaOne</h1>
<p>AlphaOne удивляет временем автономной работы...</p>
<div data-nosnippet>
<p>Автор: Иван Петров. Опубликовано: 20.05.2025. Категория: Гаджеты.</p>
</div>
<p>Основной тест батареи показал...</p>

Результат: Сниппет будет чище и сфокусирован на самом обзоре.

3. Сокрытие "спойлеров" или ключевых данных для стимуляции перехода:

Если у вас на страничке есть уникальное исследование, таблица с эксклюзивными данными или вывод, который является кульминацией статьи, его можно частично или полностью скрыть из сниппета.

Пример (для статьи со статистикой):

<p>Мы проанализировали 10,000 сайтов и выявили корреляцию между скоростью загрузки и конверсией.</p>
<div data-nosnippet>
<p>Точные цифры: увеличение скорости на 1 секунду повышает конверсию в среднем на 7.3% (полная таблица по нишам доступна в статье).</p>
</div>
<p>Подробности методики и разбивку по отраслям читайте в нашем полном отчете.</p>


Результат: AI может указать на наличие важной статистики, но за деталями придется идти на сайт.

4. Управление отображением в спец. блоках:

Например, если у вас есть блок "Часто задаваемые вопросы" на странице, и вы не хотите, чтобы определенный вопрос-ответ попадал в AI Overview (возможно, он слишком общий или вы хотите, чтобы пользователь увидел его в контексте других FAQ на странице).

Пример:
<h2>FAQ по услуге SEO-аудита</h2>
<div>
<h3>Сколько стоит аудит?</h3>
<p>Цена зависит от объема сайта...</p>
</div>
<div data-nosnippet>
<h3>А вы работаете с маленькими сайтами?</h3>
<p>Да, у нас есть решения для любого бизнеса. Для обсуждения деталей, пожалуйста, свяжитесь с нами.</p>
</div>


Результат
: Ответ на вопрос о маленьких сайтах с призывом к контакту может быть скрыт из быстрого ответа, побуждая к изучению других FAQ или прямому обращению.

Ну еще можно выдумать 100500 примеров использования. Применять оное крайне просто - добавьте атрибут data-nosnippet к тегам <span>, <div> или section, контент внутри которых вы хотите исключить из сниппетов.

Важно: Контент, обернутый в data-nosnippet, остается видимым для пользователей на самой странице и индексируется Google. Исключение касается только его использования в сниппетах.

Не злоупотребляйте. Если скрыть слишком много, сниппет может стать бесполезным, и Google может выбрать другой, менее релевантный источник, или вообще не использовать ваш контент.

Тестируйте и анализируйте влияние на CTR и поведение пользователей.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🥺 AI Mode в GSC

Гугл заявляет, что данные по эффективности AI Mode (полноценного ИИ-режима поиска) скоро появятся в Search Console. Однако эти данные не будут выделяться в отдельный сегмент. Они войдут в общий отчет "Веб-поиск" без возможности анализа конкретно AI Mode.

Что анонсирует Гугл:

🟢Интеграция данных: Показы и клики из AI Mode будут учитываться в общем трафике в отчетах GSC Performance. Это касается и AI Overviews.

🟢Отсутствие сегментации: Нельзя будет отфильтровать данные, чтобы увидеть эффективность сайта именно в AI Mode по сравнению с классической выдачей или другими источниками.

🟢Нет изменений API: Отдельных метрик или фильтров для AI Mode через API также не планируется.

🟢Сроки: Данные еще неактивны, но Google обещает их "скоро".

К чему все это может привести:

🟢Мы не сможем напрямую измерить, как и что влияет на видимость и кликабельность в новом ИИ-интерфейсе.

🟢Размытие CTR: Общий CTR может измениться без понимания, связано ли это с AI Mode или другими факторами. Сложно будет оценить эффективность заголовков и сниппетов для нового формата. Пример: Падение общего CTR может быть связано с тем, что AI Mode "отвечает" на запрос пользователя, снижая потребность в переходе на сайт, но мы этого не увидим в разрезе.

🟢Оценка ROI контента (кому это важно): Затраты на создание контента, "дружественного" к ИИ (например, подробные ответы, структурированные данные), будет сложнее оправдать без прямой метрики.

🟢Влияние на Zero-Click Searches: AI Mode увеличит долю запросов без кликов. Отследить это влияние на конкретный сайт через GSC будет невозможно. Пример: Информационный запрос, ранее приводивший трафик, теперь полностью закрывается AI Overview, но в GSC мы видим лишь общее снижение кликов по группе запросов.

🟢Адаптация под невидимые факторы: Если мы не видим, какие страницы и как ранжируются в AI Mode, сложнее выявить паттерны и оптимизировать под них.

Гугл делает все, чтобы затруднить SEO )))) И это нормально )))

Еще почитать можно тут.

#DrMax #SEO #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
🐸 Как использовать Screaming Frog SEO Spider для сбора данных

Сразу скажу, что есть более умелые и правильные инструменты и сервисы, но вот если пришла нужда, а ничего кроме Лягушки нет под рукой.

Допустим, нам нужно собрать все цены на товары из определенного блока сайта. Нет, лучше возьмем чуть более простой пример - проверка наличия обратных ссылок на страницах доноров.

Используем так:
1. Переводим лягушку в List Mode

2. Идем в настройки конфигурации парсинга и снимаем крыжики с парсинга всего, кроме HTML страниц

3. Далее идем Configuration -> Custom -> Extraction и заводим новый экстрактор

4. Выбираем поле XPath и вводим XPath-запрос ( для извлечении ссылки на любую страницу вашего сайта):
//a[contains(@href, 'site.com')]

правее в экстракторе выбираем "Extract HTML Element", чтобы увидеть всю ссылку, или "Inner HTML" для извлечения только анкора

5. Подсовываем список страниц для обработки (или через ручную вставку или через импорт)

6. Пожужжав, идем на вкладку Настраиваемых экстракторов и смотрим, есть ссылки или нет. Но лучше выгрузить все в Excel для анализа.

Аналогично, можно собирать абсолютно любую инфу как со статичных страниц, так и с JS страниц отдельного сайта. Желательно чтобы они (страницы)имели одинаковый шаблон Для этого

1. заведите новый экстрактор
2. тыкните справа в нем иконку "Глобус"
3. загрузится страничка (кою вы укажите для настройки извлечения)
4. тыкайте слева в окошке встроенного браузера элементы, которые надо извлечь, а справа поднастройте извлечение, выбрав один из вариантов из предложенного списка. Так вы создадите свой настраиваемй экстрактор.

Ну, в целом, как быстрая замена для проф инструментов, Лягушка отлично подойдет.


#DrMax #ScreamingFrog #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🆕 Новая версия SiteAnalyzer SEO Tools 2.7!

Наш коллега, товарищ и просто хороший человек Андрей Симагин опять выкатил обновлении своей тулзы. Если кто не знает Андрея - то он является создателем кучи отличного SEO Софта (бесплатного или копеечной стоимости), который свободно конкурирует с поделками известных буржуинских производителей (например Лягушка).

Итак, что нового в тулзе:
добавлена интеграция расширения с SimilarWeb
добавлено отображение окна расширения в виде статичной панели
добавлены кнопки копирования в буфер обмена мета-тегов Title, Description и заголовков H1-H6
в разделе «Ссылки» добавлено отображение статуса ссылок: Dofollow / Nofollow
добавлена возможность подсветки ссылок на странице
добавлено окно проверки DNS домена

Подробнее: https://site-analyzer.ru/articles/seo-extension-panel/

Ставьте, юзайте - это бесплатно и крайне полезно.

Андрей читает наш чат (комментарии) и отвечает на умные вопросы там же - так что закидывайте его в комментах предложениями )))

#DrMax #SEO #SiteAnalyzer
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ Экспресс-оценка донора для линкбилдинга: Чек-лист

Собственно список на что надо посмотреть ПЕРЕД детальным анализом будущего донора. Юзается для быстрого отсеивания говно-доноров.

Дата в футере сайта: Если не соответствует текущему году, сайт может быть частично или полностью заброшен. Опасаемся.

Последние публикации (смотрим sitemap.xml, разделы "блог/новости"): Отсутствие свежих материалов или нерегулярные публикации – признак низкой активности. Изучите тематику последних статей.

Тематика и качество исходящих ссылок в свежих материалах: Если публикации нетематичны вашему акцептору, содержат ссылки на казино, беттинг, адалт, МФО, фармакологию (если это не профиль донора) – сайт используется как линкферма. Отказ.

Semrush: Динамика органического трафика: Резкое падение трафика или его околонулевые значения – негативный сигнал. Возможны фильтры. Отказ.

Semrush: Authority Score (AS): Слишком низкий AS (относительно вашей ниши и конкурентов) - мало траста от ссылки.

Semrush: Количество и качество ссылающихся доменов на донора: Мало или преобладание спамных ссылающихся доменов – плохой признак. Отказ.

Визуальная оценка (дизайн, юзабилити): Устаревший дизайн, плохая верстка, обилие навязчивой рекламы (особенно pop-up, clickunder)

Индексация сайта (site:domain.com в Google): Малое количество страниц в индексе относительно заявленного или видимого контента.

Контактная информация и страница "О нас": Отсутствие внятных контактов, анонимность, использование бесплатных почтовых сервисов – плохо.

Разделы "Реклама", "Разместить статью", "Write for us": Если условия размещения откровенно указывают на продажу ссылок без редакционного контроля, с низкими требованиями к качеству контента – высокий риск.

Соотношение контента и исходящих ссылок на странице: Если на странице больше ссылок, чем текста, или ссылки вставлены неестественно – это линкопомойка.

Возраст домена и история (Wayback Machine, Semrush)

Если чек лист пройден, то приступайте к детальному анализу донора. Это крайне полезно для экономии бюджета, особенно в бурже.

Накидайте в комментах - на что вы еще смотрите для молниеносной ПЕРВИЧНОЙ оценки донора.

#DrMax #SEO #ссылки
Please open Telegram to view this post
VIEW IN TELEGRAM
🔗 Эволюция PageRank

Начало (1998-2000-е):
PageRank (PR) изначально был ядром алгоритма Google. Его суть – оценка важности страницы на основе количества и качества входящих ссылок. Чем авторитетнее ссылающиеся страницы, тем больше "веса" передается.

Усложнение и скрытие (2000-е - 2016):
Обновление Florida (2003) начало борьбу с переоптимизацией. Публичный Toolbar PageRank перестал регулярно обновляться с 2013 года и был окончательно убран в 2016-м, хотя сама концепция PR продолжала использоваться внутри Google.

Эпоха ИИ 2015 - наши дни):
Появление RankBrain в 2015 году обозначило использование машинного обучения для интерпретации запросов и оценки релевантности. Утечка данных Google 2024 года подтвердила, что классический PR не исчез, а эволюционировал в несколько внутренних версий:

RawPageRank: Базовый, "сырой" расчет ссылочного веса, близкий к первоначальной идее.

PageRank2: Некая обновленная версия, детали которой неясны.

PageRank_NS (Nearest Seed): Ключевая эволюция. Оценивает страницы по их "близости" к авторитетным "семенным" (seed) сайтам (например, The New York Times). Помогает в кластеризации контента, определении релевантности в тематических нишах и идентификации низкокачественных страниц. Анализирует не просто ссылки, а их контекст и удаленность от доверенных источников.

FirstCoveragePageRank: Еще одна внутренняя вариация, подробности о которой ограничены.

Дополняющие системы:

SiteAuthority: Оценивает авторитетность всего домена, учитывая качество ссылок, данные из Chrome (поведенческие факторы) и восприятие бренда. Это показывает важность доменного авторитета (хотя Google говорил об обратном).

NavBoost: Интегрирует данные о кликах пользователей (goodClicks, badClicks, lastLongestClicks) из Chrome и, возможно, старый Toolbar PageRank для корректировки ранжирования. Учет поведенческого.

pageQuality (PQ): Метрика, оценивающая качество страницы, включая "усилие" (effort), затраченное на создание контента. Использует LLM для анализа уникальности и глубины.

Вывод:
Современные вариации PR фокусируются не только на количестве и "весе" ссылок, но и на их контекстуальной релевантности, близости к авторитетным источникам и тематической кластеризации.

#DrMax #PageRank #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/29 15:56:29
Back to Top
HTML Embed Code: