Telegram Web Link
🔍 По поводу HCU

Вышла вторая часть исследования уважаемого товарища Shaun Anderson по восстановлению сайтов из под HCU. Напомню, в первой части он бахвалился 2 десятками сайтов которые он разобрал на составные части и кой кому помог выйти из под HCU. Ну а в анонсированной третьей части он спалит основные методы вывода сайтов.

Во второй части его исследования:

🟢Гипотеза автора: Обновления Google, включая HCU, обновления по спаму и основные обновления, негативно влияют на сайты, которые придерживаются стратегии контента, ориентированной в первую очередь на поисковые системы (search engine-first content strategy). В частности, это относится к сайтам, использующим генеративный AI (например, ChatGPT) для искусственного повышения видимости в Google.

🟢"Разорванная Сущность" ("Disconnected Entity") / "Неблагополучная Сущность" ("Unhealthy Entity"): Автор вводит понятие "Разорванной Сущности", которую он также называет "Неблагополучной Сущностью". Это сайты, которые Google считает нездоровыми и постепенно понижает их в рейтинге до статуса "UNKNOWN/SPAM".

🟢Использование AI для "раздувания" контента: Злоупотребление AI для массового производства контента низкого качества, направленного на захват поискового трафика ("раздутая сущность" - "Bloated Entity"), является одной из причин попадания под фильтры.

🟢Недостаточно проработанная "Сущность" сайта (Entity): Маленькие, независимые издатели, которые не определили и не проработали свою "Сущность" ("Entity") в соответствии с Руководством для Асессоров Google (Quality Rater Guidelines), могут быть признаны "Неблагополучными Сущностями". Важно, чтобы сайт был авторитетным и вызывал доверие в своей нише.

Последнее я могу с 95% признать достоверным. Действительно, после прошлогодних майских апдейтов одним из методов вывода из под HCU было прописывание на сайте тех, кто отвечает за сам сайт в целом и верификация оных деятелей. По сути это было расширение страницы "О сайте"/ "О компании" с перечислением всех юридически значимых данных и контактов и усиленное подтверждение оного в интернете ( Гугл мой бизнес, всякие трастпилоты, значимые каталоги сайтов и прочее). То есть развитие бренда.

Смысл сего действа в том, чтобы доказать Гуглу реальность фактов и достоверность данных (гарантированное брендом и наличием оного в графе знаний), так, чтобы он мог поручиться за нас и предлагать пользователям наш контент. Это необходимое, но не единственно важное и нужное действие для вывода из под HCU.

Итак, ждем с нетерпением 3 части исследования. Ну и оставляйте свои мысли в комментариях.

#DrMax #SEO #entity #HCU
Please open Telegram to view this post
VIEW IN TELEGRAM
😱 Про косинусную софтину.

До конца недели выкачу версию, работающую с русскоязычными текстами.
На этом все.

#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
📕 SEO Стратегия: создание Графа Знаний для сайта

Продолжаю безжалостно потрошить неопубликованное. Сегодня расскажу еще немного о семантическом SEO в виде небольшой, но перспективной SEO стратегии "Создание Графа Знаний для вашего сайта".

Разместил в телеграфе, так как в пост весь контент не влезает ( хоть я его и порезал сильно,выкинув множество примеров): https://telegra.ph/Sozdanie-Grafa-Znanij-02-27

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Новая версия SiteAnalyzer SEO Tools 2.3!

Наш хороший товарищ и отменный программист Андрей Симагин выкатил обновление тулзы.

Что нового:
- добавлена возможность сравнения поисковой выдачи по ТОП 10-20-30 в Яндексе и Google
- добавлена возможность визуализации микроразметки Schema.org (JSON-LD)
- исправлен баг отображения рекламных блоков в Яндексе
- добавлена статистика страниц в индексе поисковой системы Bing
- оптимизирована работа модуля анализа Sitemap.xml с CMS Prestashop
- добавлена кнопка «Свернуть» для панели анализа рекламных блоков

Подробнее: https://site-analyzer.ru/articles/seo-extension-top-search/

Пожелания, отзывы и благодарности можно оставлять и в комментариях - Андрей их читает и засылать непосредственно ему.

#SEO #Soft
🔥 Как Google в очередной раз борется с SEO

Среди буржуйских экспертов начало всплывать несколько интересных мыслей, которые они повторяют друг за другом. Например, Сайрус Шепард высказывает гипотезу о том, что последние обновления Google, особенно так называемое HCU (helpful content update / обновление полезного контента), на самом деле были направлены против чрезмерно агрессивного SEO. Он предполагает, что Google начал наказывать сайты, которые слишком усердно оптимизируют контент, злоупотребляют внутренними ссылками, и в целом ведут себя "слишком SEO-шно". Вместо этого, Google начинает отдавать предпочтение сайтам, которые меньше фокусируются на традиционных SEO-тактиках и больше - на качестве и ценности для пользователя. Это означает, что Google стремится к более "естественному" интернету, где сайты ранжируются за реальную ценность, а не за манипуляции с алгоритмами.

При этом если ты лютый, известный бренд – то тебе дозволено все. И напротив, если ваш сайт не имеется в графе знаний – то выдавливай из себя по капле что то явно полезное.

Таким образом, Google ценит только те сайты, которые являются авторитетными в своей нише, узнаваемыми брендами. Сайты с сильным брендом, которые пользователи ищут напрямую по названию бренда, получают "иммунитет" от негативных последствий алгоритмических обновлений.

Собственно об этом известно с прошлогодних майских обновлений ядра алгоритмов Гугла. Но теперь, вместо того, чтобы фокусироваться только на ключевых словах, SEO-специалистам нужно работать над укреплением бренда, его узнаваемости и репутации. Google, по сути, переходит от ранжирования по ключевым словам к ранжированию брендов. Остальные - недостойны того, чтобы появляться в органике.

Именно поэтому те товарищи, что прокачивают свой бренд, в том числе и массовым линкбилдингом с использованием бренд – анкоров – ныне в плюсе.

Традиционные SEO-тактики, такие как внутренняя перелинковка, если их применять слишком агрессивно, могут теперь иметь обратный эффект. Исследования того же Сайруса Шепарда показали, что сайты с "плохой" внутренней перелинковкой (менее оптимизированной, менее насыщенной анкорными текстами) лучше пережили последние обновления Google, чем сайты с "хорошей" (традиционно оптимизированной) внутренней перелинковкой. Это подтверждает мысль о том, что Google стремится к "естественности" и наказывает за чрезмерную оптимизацию.
Итак, если вы не лютый бренд, если вы простой владелец проекта, то необходимо постоянно помнить о важности "опыта" (experience) и "усилий" (effort) как новых ключевых факторов, которые Google учитывает при оценке качества сайта. "Опыт" означает, что автор контента должен быть экспертом в теме, иметь реальный опыт в обсуждаемом вопросе. Это нужно демонстрировать на странице: фотографии личного опыта, описание методологии, частота публикаций на тему и т.д. "Усилия" подразумевают, что контент должен быть создан с душой, с проработкой деталей, с оригинальными исследованиями, качественным дизайном, а не просто сгенерирован AI или скопирован. Google, используя машинное обучение и данные от асессоров качества, пытается определить, сколько "усилий" было вложено в страницу, и отдает предпочтение контенту, который выглядит более качественным и проработанным.

Но бренд все равно рулит.

Итак, ключом к успеху для мелких сайтов (без лютого бренда) становится создание контента, который AI не может легко воспроизвести. Это означает фокусировку на "не масштабируемых" вещах: оригинальные исследования, уникальные данные, глубокий анализ, личный опыт, экспертное мнение, качественные сравнения. Нужно делать то, что всякие боты не умеют - создавать контент, требующий реальных усилий, экспертизы и уникальной ценности. Вместо того, чтобы конкурировать с AI в масштабах, нужно дифференцироваться за счет глубины и качества.

Но бренд (и ссылочное) все равно важней )))

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Начался Core апдейт в Гугле

Грозят за 2 недели апнуть. Кстати, Последние 3-4 года стабильно в марте был Core апдейт.

#DrMax #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
🧐 Быстрый анализ выпавших страниц

Есть очень простой метод, позволяющий практически мгновенно понять почему выпала из выдачи та или иная страница (попало в просканировано, но не проиндексировано в GSC).

Собственно тут 2 самых распространенных случая: первый негодный контент, второй - нелепая структура сайта. Собственно, разбирали всё это выше.

Для оценки контента берем любой визуализатор n-грамм (их море, самых разнообразных), например вот это расширение для Хрома или примочку Андрея Симагина (там триграммы можно анализировать) и смотрим на 3 или 4 граммы контента выпавшей страницы. Потом сравниваем с 3-4-граммами ТОП 1-2. И если дело в контенте вы сразу увидите:
1. Мощнейшее расхождение n-грамм вашего контента и лидеров ТОПа
2. Недооптимизацию контента по нужным n-граммам (этим крайне грешит генеренка всякими ИИ ботами, на чем и палится перед гуглом)

Если содержание и плотность n-грамм примерно соответствует лидерам, то дело в недополучении "ссылочного сока" - проверяем уровень вложения этой страницы.

Если уровень вложения не особо велик - то идем по пунктам, что расписывал выше (первая ссылка в посте).

Наличие значительного количества страниц типа "прсканировано, но не проиндексированно" - явный признак болезни сайта. А их рост в период апа свидетельствует о значительных проблемах, которые наверняка приведут к падению трафика.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔊 Простейший прием роста качества страницы

Если страница недостаточно качественная, выпала, не ранжируется, плохо ранжируется - то есть простейший прием улучшить её качество в глазах Гугла.

Берем контент страницы, скармливаем любому ИИ, просим проанализировать контент и на основе анализа составить таблицу.

Ну например у нас страница с описанием "красных сапог". Просим чат-бот свести потребительские свойства оной обуви в отдельную таблицу. Кою потом впихиваем в контент (с заголовками естественно). Или описание какого то там шуруповерта. Опять просим сгенерировать таблицу с описанием уникальных функций оного девайса. И опять таки пихаем эту таблицу в контент.

Гугл категорически положительно относится ко вского рода аналитике, чем и является оная таблица. При некоторм везении, данные из этой таблицы могут попасть в расширенный сниппет выдачи, что явно увеличит "яркость" сниппета в выдаче.

Еще одним положительным моментом является разбавление самого контента этими таблицами. Даже если он не особо качественный, то встраивание таких таблиц явно пойдет ему на пользу.

Этот метод можно юзать как отдельно, но лучше, конечно, в комплексе с остальными приемами повышения качества контента.

Таким образом, практически мгновенно, можно несколько улучшить качество практически любого вашего контента.

Пробуйте. Это просто и очень быстро.

#DrMax #SEO #Google #Content
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Об использовании n-грамм для внутренней перелинковки

Вышла статья об использовании n-грамм в целях внутренней перелинковки. Предлагается юзать лягушку (есть на рутрекере, тем кто не может прикупить лицензию) для поиска наиболее подходящих страниц для простановки внутренних ссылок.

Собственно, этой теме десятки лет. Ранее использовали конструкцию в Гугле :
[поисковая фраза] site:domain.com

дабы найти наиболее подходящие страницы для добавления ссылок внутренней перелинковки, теперь вот лягушку предлагают юзать.

Кто будет читать статью - обратите внимание на ссылку на патент гугловский, где обсуждается использование n-грамм для определения качества сайта.

#DrMax #Google
🔄 Опять про таблицы и улучшение контента

В комментах попросили показать как это работает на практике. Вопрос довольно странный. Ну для примера - взял первую попавшуюся страничку по SEO и смастерил такую табличку с использованием Gemeni + Deep Resersh, скормив контент страницы оной Gemeni и попросив пояснить значимость H1 и H2

Далее, используем"перевернутую пирамиду" контента, Размещаем введение, потом оную таблицу, а далее расписываем сам контент. Вроде все просто.

#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🔄 Анализ мартовского Core UP Гугла

Вчера завершился мартовский апдейт Гугла. Ну что сказать - крайне паскудное обновление, достаточно бесполезное для большинства небольших сайтов, а для некоторых весьма вредное.

На контролируемых проектах кой где есть небольшой рост трафа (20-30%), при этом абсолютно несопоставимый с приложенными усилиями.

На ряде проектов наблюдаю некое снижение трафа, несмотря на мега релевантный линкбилдинг. Кой где вижу выпадение недостаточно качественных страниц из ранжирования.

В целом не понравился ап.

Подготовил отчет об апе на основе докладов ведущих специалистов. Почитайте.

PS
Единственно Реддит порадовал. Помимо прямого трафа, ссылки с него достаточно интересны для ранжирования. Но лучше всеж его использовать как самостоятельную трафогенерирующую платформу.

PPS
ждем докатки апа

#DrMax #SEO #CoreUpdate #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🟢 Некоторые фишки, всплывшие в результате Гугл апдейта

По докладам наших буржуинских коллег, всплыли некие фишки, которые привели к улучшению ранжирования. Так, например:

1. Тщательная проработка прайса у локальных компаний привели к росту трафа на 20-30%.

2. Аналогичного роста добились компании (локальные), которые вложились в всевозможные видеообзоры продукции / услуг

3. Дополнительная проработка E-E-A-T приводит к росту трафа. А именно (цитирую): "Google теперь требует явного указания авторства и подтверждения экспертизы. Добавляйте биографии авторов, ссылки на источники и сертификаты".

От себя добавлю нечто иное. Проработка не авторов, а тех кто стоит за сайтом - вот что стало еще более важным. То есть страница "О сайте", "О компании" и т.д. Что интересно, появились услуги от буржуинских SEO студий, которые за немалый прайс делают "правильные" странички "О сайте".

И немного предсказаний на 2-3 месяца ближайшие:

1. Будет дальнейшее снижение ранжирования AI-контента без человеческой редакции и/или без экспертных всевозможных вставок (см пост выше про таблицы)

2. В течение месяца предстоит ужесточение проверки ссылочного - ожидается обновления SpamBrain в апреле.

3. Предстоит дальнейшая интеграция AI Overviews в SERP, что потребует адаптации сниппетов

В целом вот так )))

#DrMax #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Google объявляет о радикальных изменениях в алгоритмах ранжирования

Команда Google Search сегодня сделала заявление, которое, вероятно, перевернет наше понимание поисковой оптимизации. Google, похоже, готов совершить полную революцию в принципах ранжирования.

Ключевые изменения:

1. Отмена ссылочного ранжирования: объявлено, что ссылки, как фактор ранжирования, полностью упраздняются. В компании заявили, что "эра ссылочного спама и манипуляций подошла к концу". Теперь, по словам представителей Google, ранжирование будет основываться исключительно на качестве и релевантности контента, а также на пользовательском опыте. "Мы доверяем нашему искусственному интеллекту в оценке истинной ценности страницы, без устаревших показателей, как ссылочный профиль", – говорится в заявлении.

2. Вместе с упразднением ссылочного ранжирования, Google также официально отказывается от метрики PageRank. "PageRank был полезен на заре интернета, но сегодня это анахронизм. Мы переходим к более сложным и нюансированным методам оценки авторитетности и значимости ресурсов", – прокомментировали в Google. Внутренние метрики, заменяющие PageRank, останутся коммерческой тайной.

3. Новая эра релевантности: от косинусной близости к механизмам внимания. Это, пожалуй, самое фундаментальное изменение. Google заявил о переходе на принципиально новый подход к определению релевантности контента поисковому запросу. Вместо модели косинусной близости n-грамм, которая измеряла фиксированное расстояние между векторными представлениями слов, Google внедряет механизмы внимания (attention mechanisms). Если раньше релевантность определялась путем сравнения векторных представлений слов и фраз на основе косинусной близости, то теперь система будет использовать обучаемые веса, чтобы определить, как каждое слово в запросе должно "фокусироваться" на других словах в контенте, и наоборот. Механизмы внимания – это динамическая и контекстуальная система взвешивания. Она учитывает не просто наличие ключевых слов, а взаимосвязи между ними в контексте запроса и контента.

Поделитесь своим мнением в комментариях! Что это значит для будущего SEO?

P.S.
Перестаньте паниковать (пока)! Возможно, это просто первоапрельская шутка от Google... или нет? 😉

#DrMax #SEO #1Апреля
Please open Telegram to view this post
VIEW IN TELEGRAM
Механизмы Внимания Google (attention mechanisms) - Часть 1.

Сегодня мы погрузимся в одну из самых захватывающих областей современного SEO – механизмы внимания (attention mechanisms). Если вы думаете, что Google по-прежнему ранжирует сайты, опираясь на простое косинусное сходство или TF-IDF, к сожалению это уже не так. Эпоха достаточно простых метрик закончилась.

Итак, долгое время считалось, что Google использует косинусное сходство (cosine similarity) для определения семантической близости между запросом пользователя и контентом страницы. Косинусное сходство – это мера угла между двумя векторами, представляющими текст, и она действительно может помочь определить, насколько похожи два текста по смыслу на поверхностном уровне. Но сейчас Google вышел за рамки простых метрик, и в основе их алгоритмов лежат механизмы внимания.

Вот ключевые различия:

Контекстуальное взвешивание, а не фиксированные расстояния: Косинусное сходство измеряет фиксированное расстояние между векторными представлениями слов или документов. Механизмы внимания, напротив, используют обучаемые веса, которые динамически определяют, насколько важно каждое слово в контексте при генерации выходного сигнала (например, при ранжировании или понимании запроса). Это не просто "похожесть", это контекстуальная значимость.

Сложные отношения, а не простая "похожесть": Косинусное сходство дает одно число – меру сходства. Механизмы внимания способны улавливать множество типов отношений одновременно через так называемые "головы внимания" (attention heads). Одна голова может фокусироваться на грамматических связях, другая – на тематических, третья – на причинно-следственных и так далее. Это позволяет нейросети видеть контент многомерно.

Обучение, а не фиксированные формулы: Косинусное сходство – это статичная формула. Механизмы внимания – это обучаемые системы. Веса, определяющие, на что "обращать внимание", выучиваются в процессе тренировки нейросети на огромных объемах данных. Google постоянно обучает свои модели, поэтому механизмы внимания становятся все более и более изощренными.

Структура и иерархия, а не плоские отношения: Косинусное сходство по сути игнорирует структуру текста. Механизмы внимания, напротив, способны улавливать структуру и иерархию контента. Они могут понять, что заголовок H1 важнее обычного текста, что абзац, посвященный определенной теме, более релевантен запросу, чем общее описание.

Как Google использует механизмы внимания в ранжировании:

🟢Понимание контекста поискового запроса: Механизмы внимания помогают Google не просто "сопоставлять" ключевые слова в запросе и на странице, а по-настоящему понимать намерение пользователя и контекст запроса. Например, для запроса "как приготовить стейк", механизм внимания может определить, что важны слова "как", "приготовить" и "стейк", но также и контекст – пользователь ищет инструкцию, а не просто определение стейка.

🟢Оценка релевантности контента: Google использует механизмы внимания для оценки релевантности страницы не только по ключевым словам, но и по смыслу, контексту и структуре. Это позволяет ранжировать страницы, которые действительно отвечают на вопрос пользователя, даже если они не идеально "оптимизированы" под конкретные ключевые слова в традиционном понимании.

🟢Анализ качества и авторитетности контента (E-E-A-T): Механизмы внимания могут помочь Google оценивать глубину, всесторонность и качество контента. Они могут анализировать связи между различными частями текста, выявлять логические несостыковки, оценивать экспертность автора по стилю изложения и связям с другими авторитетными источниками. Например, страница, где каждая часть текста логически связана с главной темой и подкреплена авторитетными ссылками, получит более высокий "вес" от механизмов внимания.
Please open Telegram to view this post
VIEW IN TELEGRAM
🟢Оценка структуры и иерархии контента для Semantic SEO: Механизмы внимания позволяют Google понимать, как организован контент на странице. Они могут идентифицировать заголовки, подзаголовки, списки, абзацы и определять, как эти элементы связаны между собой. Это критически важно для Semantic SEO, где важна не просто "начинка" ключевыми словами, а логическая структура и семантическая цельность контента.

🟢Борьба с манипуляциями и "переоптимизацией": Традиционные SEO-методы, основанные на плотности ключевых слов и косинусном сходстве, были относительно легко манипулируемы. Механизмы внимания затрудняют "переоптимизацию", так как они фокусируются на естественном языке, контексте и смысловых связях. Страницы, искусственно "напичканные" ключевыми словами и лишенные смысловой цельности, будут хуже ранжироваться, даже если формально они "похожи" на запрос по косинусному сходству.

#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
Механизмы Внимания Google (attention mechanisms) - Часть 2.

Подтверждение использования механизмов внимания:

🟢Публичные заявления Google о BERT, MUM, LaMDA, Gemini: Все эти модели используют архитектуру Transformer, в основе которой лежат механизмы внимания. Google открыто говорит о том, что эти модели улучшают понимание языка и контекста в поиске.

🟢Исследования в области NLP: Огромное количество научных работ подтверждает эффективность механизмов внимания для различных задач NLP, включая машинный перевод, классификацию текста, ответы на вопросы и, конечно, ранжирование. Архитектура Transformer стала стандартом де-факто в современном NLP.

🟢Наблюдения SEO-сообщества: Опытные SEO специалисты давно заметили, что Google все больше ценит качественный, глубокий и структурированный контент, а не просто "оптимизированный" под ключевые слова. Это подтверждает, что Google перешел на более сложные методы анализа контента, чем простые метрики.

🟢Патенты Google: Анализ патентов Google в области ранжирования также часто указывает на использование сложных нейросетевых моделей и методов, которые, вероятно, включают механизмы внимания.

Теоретические выводы:

В эпоху механизмов внимания, SEO-стратегия должна сместиться от "оптимизации под ключевые слова" к созданию контента, который действительно отвечает на вопросы пользователей, является экспертным, авторитетным и легко воспринимаемым.

🟢Фокусируйтесь на Semantic SEO и создании тематически исчерпывающего контента: Не ограничивайтесь поверхностным освещением темы. Создавайте глубокий, структурированный контент, который охватывает все аспекты запроса пользователя.

🟢Улучшайте структуру и иерархию контента: Используйте заголовки, подзаголовки, списки, таблицы, чтобы сделать контент более читаемым и понятным для пользователей и поисковых систем. Думайте о логической организации информации.

🟢Оптимизируйте под контекст и намерение пользователя, а не только под ключевые слова: Понимайте, что именно ищет пользователь, и создавайте контент, который максимально полно отвечает на его запрос. Используйте естественный язык и избегайте "переоптимизации".

🟢Работайте над E-E-A-T (Мюллер на днях сказал, что EEAT это не то, что есть на странице. То есть добавление авторов и BIO - это не EEAT)

🟢Инвестируйте в качество контента и UX: Страницы, которые нравятся пользователям, которые легко читать и которые предоставляют ценную информацию, будут лучше ранжироваться в эпоху механизмов внимания.

#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
Стратегия SEO.pdf
583 KB
🔥 Практическая оптимизация сайта/бизнеса/контента под механизмы внимания.

Существует стратегия оптимизации под механизмы внимания. Если приводить подробно, то очень обширно выходит. Сократил до основных пунктов:

1. Определение онтологической области бизнеса или сайта
Фундаментальное определение сути бизнеса/сайта. На этом этапе мы определяем ключевую область экспертизы. Механизмы внимания Google лучше "понимают", о чем сайт, когда есть четко очерченная тематическая область. Это помогает Google идентифицировать сайт как экспертный в определенной нише.

2. Определение сущностей, связанных с онтологической областью (Entity Definition).
Определение сущностей помогает Google понять семантическую сеть, окружающую ключевую тему.

3. Сбор поисковых запросов с использованием Google как инструмента (Query Harvesting).
Инструментами служат: Фильтры тем (Topic Filters), блок "Люди также спрашивают", блок "Люди также ищут" (People Also Search For - PASF), теги изображений в Google Картинках, автозаполнение. Инструменты для сбора поисковых подсказок: Ahrefs, Semrush, Serpstat, AnswerThePublic и т.д.

4. Анализ извлечения именованных сущностей (Named Entity Recognition - NER).
После сбора запросов, проводим NER-анализ, чтобы уточнить и расширить список сущностей. Инструменты NER (Google Cloud Natural Language API, spaCy, NLTK) автоматически идентифицируют и классифицируют именованные сущности в тексте запросов. Ручная верификация и дополнение результатов NER критически важны.

5. Определение таксономии на основе поиска сущностей (Entity-Based Taxonomy).
На основе собранных и проанализированных сущностей, мы разрабатываем таксономию – иерархическую структуру категорий и подкатегорий контента.

6. Анализ поисковых путей целевой аудитории (Search Journey Analysis).
Анализируем поисковые пути целевой аудитории, разделяя их на этапы

7. Кластеризация фаз поисковых путей через внутреннюю перелинковку (Internal Linking for Topical Authority).

8. Анализ векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте.
Хоть и малость устарело - но пока нет иных доступных механизмов

9. Обновление существующего и создание нового контента с учетом салиентности сущностей и ясности языка (Content Creation & Optimization).

10. Форматы контента и анализ SERP (Content Formats & SERP Analysis).
Анализируйте SERP для целевых запросов, чтобы определить форматы контента, которые Google предпочитает ранжировать (статьи-руководства, списки "Топ-10”, Видео и т.д.)

Скормил стратегию Гугл АИ Студии и попросил на её основе написать стратегию для популярного веломагазина velobike.by )) опираясь только на открытые данные. Как заготовка - пойдет )))

Стратегия во вложении.

#DrMax #Google #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
Стратегия механизмов внимания.docx
32 KB
📔 Стратегия SEO-Оптимизации под Механизмы Внимания Google

на примере спец кофейни.

#DrMax #entity #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Про стратегию механизмов внимания из предыдущего поста

Собственно говоря, в чистом виде мне эта стратегия не нужна. Переделал её под анализ одиночных страниц сайта. Ну и для переписывания оных.

Разбил всю работу промпта на 4 этапа.
На первом - сбор информации (первоначальные данные подсовываю). Это пункты 1-6 стратегии, переделанные под одиночную страницу.

На втором этапе происходит эмуляция анализа векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте (пункт 8). Работа ИИ в этом пункте вызывает настоящий душевный трепет. Он препарирует что там все насобирал и предлагает кучу нового. И поясняет все в реальном времени.

Третий этап - пункты 9 и частично 10. Генерация результат по установленным правилам ( у меня там список из 30+ пунктов).

Четвертый этап - проверка и зачистка результатов 3 этапа.

Для работы использую Vertex AI - демку на 90 дней. По сути это тот же Google AI Studio, только более профессиональная и платная.

Модель Gemeni 2.5 Pro

Крайне рекомендую всеж присмотреться к выложенной в прошлом посте модели внимания и прикрутить её хотя бы к одиночным страницам контента.

Контент выходит потрясающий. Точно пока сказать не могу - но плюсует в ТОПе однозначно ( с 7-8 места, например на 4-5), что для внутренней оптимизации весьма хорошо.

Забыл добавить, на основе исследования я тут же многоуровневую микроразметку делаю с полным описанием сущностей и связей. И вкрячиваю для страниц. Никогда не видел таких мега объемных микроразметок.

Затратно по времени выходит правда )))
Но буду тестировать дальше.

#DrMax #attention_mechanisms #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/01 05:32:22
Back to Top
HTML Embed Code: