Вышла вторая часть исследования уважаемого товарища Shaun Anderson по восстановлению сайтов из под HCU. Напомню, в первой части он бахвалился 2 десятками сайтов которые он разобрал на составные части и кой кому помог выйти из под HCU. Ну а в анонсированной третьей части он спалит основные методы вывода сайтов.
Во второй части его исследования:
Последнее я могу с 95% признать достоверным. Действительно, после прошлогодних майских апдейтов одним из методов вывода из под HCU было прописывание на сайте тех, кто отвечает за сам сайт в целом и верификация оных деятелей. По сути это было расширение страницы "О сайте"/ "О компании" с перечислением всех юридически значимых данных и контактов и усиленное подтверждение оного в интернете ( Гугл мой бизнес, всякие трастпилоты, значимые каталоги сайтов и прочее). То есть развитие бренда.
Смысл сего действа в том, чтобы доказать Гуглу реальность фактов и достоверность данных (гарантированное брендом и наличием оного в графе знаний), так, чтобы он мог поручиться за нас и предлагать пользователям наш контент. Это необходимое, но не единственно важное и нужное действие для вывода из под HCU.
Итак, ждем с нетерпением 3 части исследования. Ну и оставляйте свои мысли в комментариях.
#DrMax #SEO #entity #HCU
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжаю безжалостно потрошить неопубликованное. Сегодня расскажу еще немного о семантическом SEO в виде небольшой, но перспективной SEO стратегии "Создание Графа Знаний для вашего сайта".
Разместил в телеграфе, так как в пост весь контент не влезает ( хоть я его и порезал сильно,выкинув множество примеров): https://telegra.ph/Sozdanie-Grafa-Znanij-02-27
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Новая версия SiteAnalyzer SEO Tools 2.3!
Наш хороший товарищ и отменный программист Андрей Симагин выкатил обновление тулзы.
Что нового:
- добавлена возможность сравнения поисковой выдачи по ТОП 10-20-30 в Яндексе и Google
- добавлена возможность визуализации микроразметки Schema.org (JSON-LD)
- исправлен баг отображения рекламных блоков в Яндексе
- добавлена статистика страниц в индексе поисковой системы Bing
- оптимизирована работа модуля анализа Sitemap.xml с CMS Prestashop
- добавлена кнопка «Свернуть» для панели анализа рекламных блоков
Подробнее: https://site-analyzer.ru/articles/seo-extension-top-search/
Пожелания, отзывы и благодарности можно оставлять и в комментариях - Андрей их читает и засылать непосредственно ему.
#SEO #Soft
Наш хороший товарищ и отменный программист Андрей Симагин выкатил обновление тулзы.
Что нового:
- добавлена возможность сравнения поисковой выдачи по ТОП 10-20-30 в Яндексе и Google
- добавлена возможность визуализации микроразметки Schema.org (JSON-LD)
- исправлен баг отображения рекламных блоков в Яндексе
- добавлена статистика страниц в индексе поисковой системы Bing
- оптимизирована работа модуля анализа Sitemap.xml с CMS Prestashop
- добавлена кнопка «Свернуть» для панели анализа рекламных блоков
Подробнее: https://site-analyzer.ru/articles/seo-extension-top-search/
Пожелания, отзывы и благодарности можно оставлять и в комментариях - Андрей их читает и засылать непосредственно ему.
#SEO #Soft
Среди буржуйских экспертов начало всплывать несколько интересных мыслей, которые они повторяют друг за другом. Например, Сайрус Шепард высказывает гипотезу о том, что последние обновления Google, особенно так называемое HCU (helpful content update / обновление полезного контента), на самом деле были направлены против чрезмерно агрессивного SEO. Он предполагает, что Google начал наказывать сайты, которые слишком усердно оптимизируют контент, злоупотребляют внутренними ссылками, и в целом ведут себя "слишком SEO-шно". Вместо этого, Google начинает отдавать предпочтение сайтам, которые меньше фокусируются на традиционных SEO-тактиках и больше - на качестве и ценности для пользователя. Это означает, что Google стремится к более "естественному" интернету, где сайты ранжируются за реальную ценность, а не за манипуляции с алгоритмами.
При этом если ты лютый, известный бренд – то тебе дозволено все. И напротив, если ваш сайт не имеется в графе знаний – то выдавливай из себя по капле что то явно полезное.
Таким образом, Google ценит только те сайты, которые являются авторитетными в своей нише, узнаваемыми брендами. Сайты с сильным брендом, которые пользователи ищут напрямую по названию бренда, получают "иммунитет" от негативных последствий алгоритмических обновлений.
Собственно об этом известно с прошлогодних майских обновлений ядра алгоритмов Гугла. Но теперь, вместо того, чтобы фокусироваться только на ключевых словах, SEO-специалистам нужно работать над укреплением бренда, его узнаваемости и репутации. Google, по сути, переходит от ранжирования по ключевым словам к ранжированию брендов. Остальные - недостойны того, чтобы появляться в органике.
Именно поэтому те товарищи, что прокачивают свой бренд, в том числе и массовым линкбилдингом с использованием бренд – анкоров – ныне в плюсе.
Традиционные SEO-тактики, такие как внутренняя перелинковка, если их применять слишком агрессивно, могут теперь иметь обратный эффект. Исследования того же Сайруса Шепарда показали, что сайты с "плохой" внутренней перелинковкой (менее оптимизированной, менее насыщенной анкорными текстами) лучше пережили последние обновления Google, чем сайты с "хорошей" (традиционно оптимизированной) внутренней перелинковкой. Это подтверждает мысль о том, что Google стремится к "естественности" и наказывает за чрезмерную оптимизацию.
Итак, если вы не лютый бренд, если вы простой владелец проекта, то необходимо постоянно помнить о важности "опыта" (experience) и "усилий" (effort) как новых ключевых факторов, которые Google учитывает при оценке качества сайта. "Опыт" означает, что автор контента должен быть экспертом в теме, иметь реальный опыт в обсуждаемом вопросе. Это нужно демонстрировать на странице: фотографии личного опыта, описание методологии, частота публикаций на тему и т.д. "Усилия" подразумевают, что контент должен быть создан с душой, с проработкой деталей, с оригинальными исследованиями, качественным дизайном, а не просто сгенерирован AI или скопирован. Google, используя машинное обучение и данные от асессоров качества, пытается определить, сколько "усилий" было вложено в страницу, и отдает предпочтение контенту, который выглядит более качественным и проработанным.
Но бренд все равно рулит.
Итак, ключом к успеху для мелких сайтов (без лютого бренда) становится создание контента, который AI не может легко воспроизвести. Это означает фокусировку на "не масштабируемых" вещах: оригинальные исследования, уникальные данные, глубокий анализ, личный опыт, экспертное мнение, качественные сравнения. Нужно делать то, что всякие боты не умеют - создавать контент, требующий реальных усилий, экспертизы и уникальной ценности. Вместо того, чтобы конкурировать с AI в масштабах, нужно дифференцироваться за счет глубины и качества.
Но бренд (и ссылочное) все равно важней )))
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Грозят за 2 недели апнуть. Кстати, Последние 3-4 года стабильно в марте был Core апдейт.
#DrMax #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
Есть очень простой метод, позволяющий практически мгновенно понять почему выпала из выдачи та или иная страница (попало в просканировано, но не проиндексировано в GSC).
Собственно тут 2 самых распространенных случая: первый негодный контент, второй - нелепая структура сайта. Собственно, разбирали всё это выше.
Для оценки контента берем любой визуализатор n-грамм (их море, самых разнообразных), например вот это расширение для Хрома или примочку Андрея Симагина (там триграммы можно анализировать) и смотрим на 3 или 4 граммы контента выпавшей страницы. Потом сравниваем с 3-4-граммами ТОП 1-2. И если дело в контенте вы сразу увидите:
1. Мощнейшее расхождение n-грамм вашего контента и лидеров ТОПа
2. Недооптимизацию контента по нужным n-граммам (этим крайне грешит генеренка всякими ИИ ботами, на чем и палится перед гуглом)
Если содержание и плотность n-грамм примерно соответствует лидерам, то дело в недополучении "ссылочного сока" - проверяем уровень вложения этой страницы.
Если уровень вложения не особо велик - то идем по пунктам, что расписывал выше (первая ссылка в посте).
Наличие значительного количества страниц типа "прсканировано, но не проиндексированно" - явный признак болезни сайта. А их рост в период апа свидетельствует о значительных проблемах, которые наверняка приведут к падению трафика.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Если страница недостаточно качественная, выпала, не ранжируется, плохо ранжируется - то есть простейший прием улучшить её качество в глазах Гугла.
Берем контент страницы, скармливаем любому ИИ, просим проанализировать контент и на основе анализа составить таблицу.
Ну например у нас страница с описанием "красных сапог". Просим чат-бот свести потребительские свойства оной обуви в отдельную таблицу. Кою потом впихиваем в контент (с заголовками естественно). Или описание какого то там шуруповерта. Опять просим сгенерировать таблицу с описанием уникальных функций оного девайса. И опять таки пихаем эту таблицу в контент.
Гугл категорически положительно относится ко вского рода аналитике, чем и является оная таблица. При некоторм везении, данные из этой таблицы могут попасть в расширенный сниппет выдачи, что явно увеличит "яркость" сниппета в выдаче.
Еще одним положительным моментом является разбавление самого контента этими таблицами. Даже если он не особо качественный, то встраивание таких таблиц явно пойдет ему на пользу.
Этот метод можно юзать как отдельно, но лучше, конечно, в комплексе с остальными приемами повышения качества контента.
Таким образом, практически мгновенно, можно несколько улучшить качество практически любого вашего контента.
Пробуйте. Это просто и очень быстро.
#DrMax #SEO #Google #Content
Please open Telegram to view this post
VIEW IN TELEGRAM
Об использовании n-грамм для внутренней перелинковки
Вышла статья об использовании n-грамм в целях внутренней перелинковки. Предлагается юзать лягушку (есть на рутрекере, тем кто не может прикупить лицензию) для поиска наиболее подходящих страниц для простановки внутренних ссылок.
Собственно, этой теме десятки лет. Ранее использовали конструкцию в Гугле :
дабы найти наиболее подходящие страницы для добавления ссылок внутренней перелинковки, теперь вот лягушку предлагают юзать.
Кто будет читать статью - обратите внимание на ссылку на патент гугловский, где обсуждается использование n-грамм для определения качества сайта.
#DrMax #Google
Вышла статья об использовании n-грамм в целях внутренней перелинковки. Предлагается юзать лягушку (есть на рутрекере, тем кто не может прикупить лицензию) для поиска наиболее подходящих страниц для простановки внутренних ссылок.
Собственно, этой теме десятки лет. Ранее использовали конструкцию в Гугле :
[поисковая фраза] site:domain.com
дабы найти наиболее подходящие страницы для добавления ссылок внутренней перелинковки, теперь вот лягушку предлагают юзать.
Кто будет читать статью - обратите внимание на ссылку на патент гугловский, где обсуждается использование n-грамм для определения качества сайта.
#DrMax #Google
В комментах попросили показать как это работает на практике. Вопрос довольно странный. Ну для примера - взял первую попавшуюся страничку по SEO и смастерил такую табличку с использованием Gemeni + Deep Resersh, скормив контент страницы оной Gemeni и попросив пояснить значимость H1 и H2
Далее, используем"перевернутую пирамиду" контента, Размещаем введение, потом оную таблицу, а далее расписываем сам контент. Вроде все просто.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Вчера завершился мартовский апдейт Гугла. Ну что сказать - крайне паскудное обновление, достаточно бесполезное для большинства небольших сайтов, а для некоторых весьма вредное.
На контролируемых проектах кой где есть небольшой рост трафа (20-30%), при этом абсолютно несопоставимый с приложенными усилиями.
На ряде проектов наблюдаю некое снижение трафа, несмотря на мега релевантный линкбилдинг. Кой где вижу выпадение недостаточно качественных страниц из ранжирования.
В целом не понравился ап.
Подготовил отчет об апе на основе докладов ведущих специалистов. Почитайте.
PS
Единственно Реддит порадовал. Помимо прямого трафа, ссылки с него достаточно интересны для ранжирования. Но лучше всеж его использовать как самостоятельную трафогенерирующую платформу.
PPS
ждем докатки апа
#DrMax #SEO #CoreUpdate #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
По докладам наших буржуинских коллег, всплыли некие фишки, которые привели к улучшению ранжирования. Так, например:
1. Тщательная проработка прайса у локальных компаний привели к росту трафа на 20-30%.
2. Аналогичного роста добились компании (локальные), которые вложились в всевозможные видеообзоры продукции / услуг
3. Дополнительная проработка E-E-A-T приводит к росту трафа. А именно (цитирую): "Google теперь требует явного указания авторства и подтверждения экспертизы. Добавляйте биографии авторов, ссылки на источники и сертификаты".
От себя добавлю нечто иное. Проработка не авторов, а тех кто стоит за сайтом - вот что стало еще более важным. То есть страница "О сайте", "О компании" и т.д. Что интересно, появились услуги от буржуинских SEO студий, которые за немалый прайс делают "правильные" странички "О сайте".
И немного предсказаний на 2-3 месяца ближайшие:
1. Будет дальнейшее снижение ранжирования AI-контента без человеческой редакции и/или без экспертных всевозможных вставок (см пост выше про таблицы)
2. В течение месяца предстоит ужесточение проверки ссылочного - ожидается обновления SpamBrain в апреле.
3. Предстоит дальнейшая интеграция AI Overviews в SERP, что потребует адаптации сниппетов
В целом вот так )))
#DrMax #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
Команда Google Search сегодня сделала заявление, которое, вероятно, перевернет наше понимание поисковой оптимизации. Google, похоже, готов совершить полную революцию в принципах ранжирования.
Ключевые изменения:
1. Отмена ссылочного ранжирования: объявлено, что ссылки, как фактор ранжирования, полностью упраздняются. В компании заявили, что "эра ссылочного спама и манипуляций подошла к концу". Теперь, по словам представителей Google, ранжирование будет основываться исключительно на качестве и релевантности контента, а также на пользовательском опыте. "Мы доверяем нашему искусственному интеллекту в оценке истинной ценности страницы, без устаревших показателей, как ссылочный профиль", – говорится в заявлении.
2. Вместе с упразднением ссылочного ранжирования, Google также официально отказывается от метрики PageRank. "PageRank был полезен на заре интернета, но сегодня это анахронизм. Мы переходим к более сложным и нюансированным методам оценки авторитетности и значимости ресурсов", – прокомментировали в Google. Внутренние метрики, заменяющие PageRank, останутся коммерческой тайной.
3. Новая эра релевантности: от косинусной близости к механизмам внимания. Это, пожалуй, самое фундаментальное изменение. Google заявил о переходе на принципиально новый подход к определению релевантности контента поисковому запросу. Вместо модели косинусной близости n-грамм, которая измеряла фиксированное расстояние между векторными представлениями слов, Google внедряет механизмы внимания (attention mechanisms). Если раньше релевантность определялась путем сравнения векторных представлений слов и фраз на основе косинусной близости, то теперь система будет использовать обучаемые веса, чтобы определить, как каждое слово в запросе должно "фокусироваться" на других словах в контенте, и наоборот. Механизмы внимания – это динамическая и контекстуальная система взвешивания. Она учитывает не просто наличие ключевых слов, а взаимосвязи между ними в контексте запроса и контента.
Поделитесь своим мнением в комментариях! Что это значит для будущего SEO?
P.S.
Перестаньте паниковать (пока)! Возможно, это просто первоапрельская шутка от Google... или нет? 😉
#DrMax #SEO #1Апреля
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня мы погрузимся в одну из самых захватывающих областей современного SEO – механизмы внимания (attention mechanisms). Если вы думаете, что Google по-прежнему ранжирует сайты, опираясь на простое косинусное сходство или TF-IDF, к сожалению это уже не так. Эпоха достаточно простых метрик закончилась.
Итак, долгое время считалось, что Google использует косинусное сходство (cosine similarity) для определения семантической близости между запросом пользователя и контентом страницы. Косинусное сходство – это мера угла между двумя векторами, представляющими текст, и она действительно может помочь определить, насколько похожи два текста по смыслу на поверхностном уровне. Но сейчас Google вышел за рамки простых метрик, и в основе их алгоритмов лежат механизмы внимания.
Вот ключевые различия:
Как Google использует механизмы внимания в ранжировании:
Please open Telegram to view this post
VIEW IN TELEGRAM
#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
Подтверждение использования механизмов внимания:
Теоретические выводы:
В эпоху механизмов внимания, SEO-стратегия должна сместиться от "оптимизации под ключевые слова" к созданию контента, который действительно отвечает на вопросы пользователей, является экспертным, авторитетным и легко воспринимаемым.
#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
Стратегия SEO.pdf
583 KB
Существует стратегия оптимизации под механизмы внимания. Если приводить подробно, то очень обширно выходит. Сократил до основных пунктов:
1. Определение онтологической области бизнеса или сайта
Фундаментальное определение сути бизнеса/сайта. На этом этапе мы определяем ключевую область экспертизы. Механизмы внимания Google лучше "понимают", о чем сайт, когда есть четко очерченная тематическая область. Это помогает Google идентифицировать сайт как экспертный в определенной нише.
2. Определение сущностей, связанных с онтологической областью (Entity Definition).
Определение сущностей помогает Google понять семантическую сеть, окружающую ключевую тему.
3. Сбор поисковых запросов с использованием Google как инструмента (Query Harvesting).
Инструментами служат: Фильтры тем (Topic Filters), блок "Люди также спрашивают", блок "Люди также ищут" (People Also Search For - PASF), теги изображений в Google Картинках, автозаполнение. Инструменты для сбора поисковых подсказок: Ahrefs, Semrush, Serpstat, AnswerThePublic и т.д.
4. Анализ извлечения именованных сущностей (Named Entity Recognition - NER).
После сбора запросов, проводим NER-анализ, чтобы уточнить и расширить список сущностей. Инструменты NER (Google Cloud Natural Language API, spaCy, NLTK) автоматически идентифицируют и классифицируют именованные сущности в тексте запросов. Ручная верификация и дополнение результатов NER критически важны.
5. Определение таксономии на основе поиска сущностей (Entity-Based Taxonomy).
На основе собранных и проанализированных сущностей, мы разрабатываем таксономию – иерархическую структуру категорий и подкатегорий контента.
6. Анализ поисковых путей целевой аудитории (Search Journey Analysis).
Анализируем поисковые пути целевой аудитории, разделяя их на этапы
7. Кластеризация фаз поисковых путей через внутреннюю перелинковку (Internal Linking for Topical Authority).
8. Анализ векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте.
Хоть и малость устарело - но пока нет иных доступных механизмов
9. Обновление существующего и создание нового контента с учетом салиентности сущностей и ясности языка (Content Creation & Optimization).
10. Форматы контента и анализ SERP (Content Formats & SERP Analysis).
Анализируйте SERP для целевых запросов, чтобы определить форматы контента, которые Google предпочитает ранжировать (статьи-руководства, списки "Топ-10”, Видео и т.д.)
Скормил стратегию Гугл АИ Студии и попросил на её основе написать стратегию для популярного веломагазина velobike.by )) опираясь только на открытые данные. Как заготовка - пойдет )))
Стратегия во вложении.
#DrMax #Google #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
Стратегия механизмов внимания.docx
32 KB
на примере спец кофейни.
#DrMax #entity #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
Собственно говоря, в чистом виде мне эта стратегия не нужна. Переделал её под анализ одиночных страниц сайта. Ну и для переписывания оных.
Разбил всю работу промпта на 4 этапа.
На первом - сбор информации (первоначальные данные подсовываю). Это пункты 1-6 стратегии, переделанные под одиночную страницу.
На втором этапе происходит эмуляция анализа векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте (пункт 8). Работа ИИ в этом пункте вызывает настоящий душевный трепет. Он препарирует что там все насобирал и предлагает кучу нового. И поясняет все в реальном времени.
Третий этап - пункты 9 и частично 10. Генерация результат по установленным правилам ( у меня там список из 30+ пунктов).
Четвертый этап - проверка и зачистка результатов 3 этапа.
Для работы использую Vertex AI - демку на 90 дней. По сути это тот же Google AI Studio, только более профессиональная и платная.
Модель Gemeni 2.5 Pro
Крайне рекомендую всеж присмотреться к выложенной в прошлом посте модели внимания и прикрутить её хотя бы к одиночным страницам контента.
Контент выходит потрясающий. Точно пока сказать не могу - но плюсует в ТОПе однозначно ( с 7-8 места, например на 4-5), что для внутренней оптимизации весьма хорошо.
Забыл добавить, на основе исследования я тут же многоуровневую микроразметку делаю с полным описанием сущностей и связей. И вкрячиваю для страниц. Никогда не видел таких мега объемных микроразметок.
Затратно по времени выходит правда )))
Но буду тестировать дальше.
#DrMax #attention_mechanisms #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM