Telegram Web Link
Переписывание сниппетов в Гугле и косинусное сходство

Итак, как известно Google игнорирует заданные вручную мета-описания и генерирует свои собственные в большинстве случаев. Исследования (Ahrefs, Portent) показывают, что это происходит примерно в 60-70% случаев. Google делает это, чтобы предоставить пользователю наиболее релевантный фрагмент контента в ответ на его конкретный поисковый запрос.

Помимо поиска лучшего соответствия запросу, Google может переписать description, если он отсутствует, слишком короткий, неинформативный, спамный или дублируется на других страницах.

Уже устаревшее, но все еще бодрое "косинусное сходство" из за легкости его расчетов стали пихать куда угодно. Вышла статья, где оное сходство предлагают для реализации предсказания из какого куска контента Гугл перепишет статью.

Итак, источник - контент страницы: Google формирует эти автоматические описания (сниппеты), используя предложения и фрагменты текста, уже находящиеся на самой веб-странице.

Статья выдвигает технически обоснованную гипотезу (устаревшую лет на 5 ), что Google использует современные AI/NLP технологии. Предполагается, что текст на странице и поисковый запрос переводятся в векторные представления (embeddings) - числовые векторы, отражающие семантический смысл. Затем вычисляется косинусное сходство (cosine similarity) между вектором запроса и векторами предложений на странице. Предложение с максимальным сходством (т.е. наиболее семантически близкое к запросу) выбирается для формирования сниппета.

Метод прогнозирования таков:

🟢Анализируются популярные запросы для страницы (из Google Search Console).

🟢Текст страницы разбивается на предложения.

🟢С помощью инструментов (в их случае - собственного скрипта на базе Google Apps Script и Google text embedding engine) рассчитывается косинусное сходство между каждым запросом и каждым предложением.

🟢Предложение с наивысшим баллом сходства идентифицируется как наиболее вероятный кандидат в мета-описание для данного запроса.

Заявленная стратегическая ценность подхода:

🟢Оптимизация под CTR: Выявив и улучшив "кандидатов" в сниппеты, можно повысить их релевантность и привлекательность, что ведет к росту кликабельности (CTR).

🟢Улучшение релевантности контента: Анализ помогает понять, как Google интерпретирует содержание страницы относительно ключевых запросов, и направить усилия по оптимизации контента в нужное русло.

🟢Новые идеи для контента: Понимание соответствия "запрос-предложение" может дать идеи для создания нового контента или доработки существующего.

Статья выложена вот тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
Переписывание сниппетов в Гугле и косинусное сходство (часть 2)

Несмотря на частые перезаписи, качественное, уникальное и релевантное мета-описание все еще крайне важно. Оно используется примерно в 30-40% случаев (особенно для "главных" запросов), отображается при репостах в соцсетях (если нет og:description) и задает основное сообщение страницы.

Собственно говоря, реализовать платную хреновину авторов статьи весьма просто. Метод, описанный в статье (вычисление косинусного сходства), может быть воспроизведен с использованием общедоступных NLP-библиотек (например, на Python) и моделей для генерации эмбеддингов (Sentence Transformers, OpenAI API, Google AI API и т.д.), не ограничиваясь их жутко пропиаренным проприетарным скриптом для гугл шитсов.

Ежели кому надо - могу переделать скрипт по вычислению косинусного сходства, который выкладывал ранее, под эту задачу. Уведомляйте в комментариях.

#DrMax #SEO
Софт для расчета релевантности контента косинусным методом.

Встроена поддержка русского и английского

Встроены 4 модели (первая в конфигурации - английская, 2-4 - мультиязычные)

Как работать.

После запуска доооооолго ждем подгрузки модели (гиг в среднем каждая) и всяческого прочего. Не паникуем. Загружается только 1 раз все. После загрузки:

1. Идем в конфигурацию и выбираем язык и модель

2. Добавляем URL для анализа

3. Добавляем ключи

4. Жмем Старт

Смотрим, какой из URL вылезает в ТОПы за счет контента (макс косинусность и гибрид)

Если желаем посмотреть за счет каких фраз вылезает -

1. жмем "Расчет фраз"

2. Долго ждем

3. По завершению - жмем Сохранить и выгружаем в эксель

Там на первом листе собраны все важные фразы (верхняя строчка настройки )

На последующих лежат n-грамы (нижняя строчка настройки) - отсортированы в порядке уменьшения косинусности

Забираем n-граммы и встраиваем релевантно в текст, после чего радуемся

ОГРАНИЧЕНИЯ ДЕМО: в русской версии n-граммы выводятся в стемированном виде (не восстановлены до текста)

Качать софт тут (5 дней доступно)
Пароль: 123

Все обсуждения - только в комментариях!!!!!!


#DrMax #Софт
☄️ FREE: SEO Релевантность 2 v.2.1.

"SEO Релевантность 2" представляет собой мощный инструмент для анализа текстового контента с целью оценки его соответствия заданным ключевым словам.

Основная цель программы
- помочь SEO-специалистам и владельцам сайтов в оптимизации контента для повышения его видимости в поисковых системах. Она позволяет не только оценить семантическую и статистическую релевантность текста, но и выделить ключевые фразы, которые наиболее близки к заданным запросам.

Задачи программы включают загрузку и очистку текстового контента с веб-страниц или пользовательского ввода, вычисление релевантности с использованием гибридного подхода (TF-IDF и семантические модели), а также генерацию длинных фраз и n-грамм. Программа анализирует как основной контент, так и мета-теги (title и h1), предоставляя комплексную картину соответствия текста ключевым словам.

Одной из ключевых особенностей программы является использование современных семантических моделей, таких как SentenceTransformer, что позволяет учитывать не только точные вхождения слов, но и их смысловые связи. Гибридный подход, сочетающий TF-IDF и семантический анализ, делает оценку релевантности более точной и адаптивной. Пользователь может настроить веса этих методов, выбирая баланс между статистической точностью и семантической глубиной.

Дополнительной особенностью является поддержка многопоточности для ускорения обработки больших объемов текста, а также кэширование результатов для повторных вычислений. Программа автоматически определяет язык текста (например, русский или английский) и адаптируется к нему, что делает её универсальной для работы с многоязычным контентом.

Преимущества программы заключаются в её гибкости и удобстве. Пользователь может задавать параметры, такие как порог сходства, количество фраз и разделители, что позволяет адаптировать анализ под конкретные задачи. Результаты можно сохранить в Excel, включая частотный анализ n-грамм, что упрощает дальнейшую работу с данными. Программа также отличается высокой точностью очистки текста от ненужных элементов (скриптов, рекламы), благодаря настраиваемому уровню очистки - "усиленный" или "легкий". Ещё одно преимущество - это возможность работы как с веб-страницами, так и с произвольным текстом, что делает инструмент универсальным.

В целом, "SEO Релевантность 2" - это инструмент, который сочетает в себе передовые технологии анализа текста, интуитивно понятный интерфейс и практическую направленность, помогая создавать контент, который лучше ранжируется в поисковых системах и отвечает потребностям аудитории.

1. Скачать программу [доступно 14 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

Завтра запишу видео как правильно настраивать и работать с софтом.

#DrMax #SEO #Софт
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🎞 Видео обзор программы SEO Релевантность 2 v.2.1. [Часть 1]

В первой части рассказываю как проводить разведку конкурентов, семантическую оценку их контента в плане соответствия продвигаемым ключам и как оптимизировать собственный контент под недооптимизированные ключи.

Описание программы: ознакомиться здесь

Установка софта:
1. Скачать программу [доступно 7 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

Завтра (возможно) запишу видео как правильно работать с фразами и покажу несколько интересных приемов. Все будет зависить от того, нужна ли вообще вам эта софтинка и не зря ли я тут трачу время.

#DrMax #video #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
🧩 SEO Релевантность 2.1 и генерация сниппетов

Помните, неделю назад рассказывал про ловкачей, которые находят своим софтом места в контенте, из которых генерируется сниппет в Гугле. За большие деньги, между прочим. Так в нашей софтине это все есть из коробки.

1. Добавляем URL страницы своего сайта для анализа
2. Из GSC (консоли гугла) выдираем список ключей по которым ранжируется эта страница
3. Снижаем кол-во фраз до 3 ( больше и не надо)
4. Идем в конфигурацию и снимаем все галки с n-грамм (не нужны они для расчета)
5. Жмем кнопку "Расчет фраз"
6. В поле "Длинные фразы" получаем предполагаемые куски контента, из которых Гугл будет генерировать сниппет при переписывании оного.

Как и куда вы это будете использовать - дело ваше. Но, видимо штука нужная, раз пользуется спросом в буржунете.

А как вы используете софтинку? Пишите в комментариях.

Описание программы: ознакомиться здесь

Установка софта:
1. Скачать программу [доступно 7 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

#DrMax #софт #Google
📕 Рост качества контента (прием нумер 2)

Недавно я рассказывал как нарастить "качество" контента таблицами и приводил примеры. Вообще суть в методы - в создании аналитики, которую так любит (по словам Мюллера) Гугл. И страницы со всякой такой аналитикой гугл не сразу признает генеренкой или там некачественным контентом, а даст шансы поранжироваться. Вообще, чем больше всякого - разного есть в контенте, тем больше усилий (якобы) вы затратили на его создание и тем больше возможностей для ранжирования предоставит Гугл (якобы).

Нынче мы будем создавать, так любимую гуглом инфографику.

Для этого берем чат бота поумней (я юзаю Vertex AI с последней моделью Гемени 2.5.), скармливаем ему контент и просим нарисовать диаграмму для Mermaid (написать код). В приложенном скрине такая диаграмма получилась из вот этого текста, попросил сделать код в стиле MindMap.

Потом оный код закидываем в Mermaid и тут же выгружаем картинку с нужными разрешениями /размерами.

Стилей диаграмм там немало. Есть из чего выбирать. При настройке процесса обновление контента занимает пару -тройку минут.

Да, заодно в промпте для ИИ просим сгенерачить название картинки, SEO оптимизированный alt-текст ну и Подпись для картинки.

Собственно все очень просто, быстро и результативно.

Пользуйтесь

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Как оптимизировать контент с помощью софта SEO Релевантность 2.1

Тут в комментариях задают вопросы - а чего это софтина не считает мне, сколь нужно фраз воткнуть в контент, дабы оно стало семантически релевантным конкурентам. Мол непонятно, 5 надо фраз воткнуть или там 12.

Нет, друзья, семантическая релевантность так не работает. Она не зависит прямо от числа вхождений фраз. Косинусная схожесть контента и ключа зависит от того, где и как расположена фраза, кто её соседи по контенту, как она встроена.

Давайте проведем простейший эксперимент. Нашел по ключу "кирпичный завод" статью в Комсомолке и запихал её кусок в текстовое поле программы. А теперь возьмем ключ "кирпичный завод" и начнем его пихать в разные места контента, не меняя контент.

Как мы видим от места пихания и того как мы встроили в контент оный ключ, семантическая релевантность ощутимо меняется. При этом, если посмотреть на количественный параметр релевантности (TFIDF), то он неизменен при однократном пихании ключа в контент.

Таким образом, нельзя уверенно сказать, сколько близких фраз, полученных в результате расчета программы, надо запихать в текст. Это не количественная оценка, а скорее качественная. Поэтому, добавляйте в контент фразы (встраивайте правильно, не спамно и органично) и пересчитывайте заново семантическую релевантность, используя текстовое поле программы.

Экспериментируйте. У вас есть все для этого.

Описание программы: ознакомиться здесь

Установка софта:
1. Скачать программу [доступно 2 дня для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

ЗЫ.
Отменил запись 2 части обзора софта, из за крайне низкого интереса к софту. Собственно и обновлять более не планирую, ибо функционал для меня избыточен, мне хватало и первой версии скрипта, исходный код коего я выкладывал ранее.

ЗЗЫ.
На все требования о создании обширной документации (кои есть в комментах) и прочей поддержки - ничего такого не будет. Используйте как есть.

#DrMax #SEO #софт
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Как вы думаете, влияют ли структурированные данные (микроразметка) на ранжирование в Гугле? 🤓
Final Results
75%
Думаю ДА
25%
Однозначно НЕТ
Рост качества контента (прием нумер 3)

Недавно рассказывал вам про таблицы и диаграммы, добавляемые в контент, кои могут помочь с ростом его качества. Следующим приемом является генерация ИИ FAQ по контенту страницы.

Скармливаем страницу ( или ссылку страницы, если ИИ имеет доступ к интернету) и просим его сгенерировать FAQ. Но и тут есть небольшая хитрость. В раздел вопросов и ответов необходимо добавить несколько перефразированных, но семантически близких вопросов (и ответов) из блока PAA (люди также спрашивают / вопросы по теме), который судя по Семраш сенсору выводится в половине всех запросов.

В итоге получаем промпт типа:
"Напиши FAQ раздел (8 вопросов и ответов) на английском. Вопросы должны быть уникальными, полезными, интересными и неожиданными и касаться проанализированного контента, а ответы должны быть лаконичными и достоверными. Среди них сделай 3 типичных вопроса и ответа, что обычно выводятся в блоках PPA в выдаче Google.

Можно попросить сгенерировать и микроразметку под этот FAQ.

Итак, помимо того, что мы набиваем контент дополнительными ключами, мы можем с некоторой долей вероятности попасть в блок "люди тоже спрашивают", что повысит яркость продвигаемого сайта в органической выдаче. Прием простейший, но довольно полезный.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔄 Вышла новая версия SiteAnalyzer SEO Tools 2.5!

Наш хороший товарищ и отличный программист Андрей Симагин выкатил обновление своего прекрасного SiteAnalyzer SEO Tools.

В новой версии браузерного расширения SiteAnalyzer SEO Tools добавлена идентификация и визуализация отрисовки контента страницы сайта на стороне клиента (CSR рендеринг) либо сервера (SSR) с помощью данных и диаграмм, а также внесены мелкие исправления и дополнения.

Скачать халяву и посмотреть подробности можно вот здесь.

ЗЫ. У Андрея есть куча отличного SEO софта, в том числе и супер аналог буржуинской лягушки, коя безбожно задрала цену, да и вообще блокирует доступ из России. Так что рекомендую полазать у него по сайту.

#DrMax #SEO #SiteAnalyzer
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓 Оптимальная длина тега <title> в 2025

Каждый год SEO-специалисты спорят о длине тега <title>. В 2025 году Google продолжает менять правила игры, и свежие данные от Search Engine Land проливают свет на актуальные тренды. Вот ключевые выводы и рекомендации для создания заголовков, которые работают (но не везде):

1. Google не ограничивает длину, но...
Нет строгого лимита в символах, но заголовки на 45–55 символов чаще отображаются полностью и привлекают больше кликов. Длинные заголовки могут ранжироваться по широкому кругу запросов, но рискуют быть обрезанными.

2. Почему Google переписывает заголовки?
Google может заменить ваш <title>, если он:
🟢Перегружен ключевыми словами.
🟢Содержит шаблонный текст (например, "Главная").
🟢Не отражает суть страницы или запроса.

3. Как создавать эффективные заголовки:
🟢Ставьте ключевые слова в начало — это повышает релевантность.
Пример: "Лучшие SEO-инструменты 2025 - Топ-10 | Semrush".
🟢Будьте краткими и ясными — 55–60 символов снижают риск обрезки.
🟢Добавляйте CTA — слова вроде "Узнайте" или "Купите" увеличивают CTR.
🟢Проверяйте на мобильных — заголовки обрезаются на ~50 символов.
🟢Тестируйте CTR — используйте Google Search Console для A/B-тестов.

4. Мобильная выдача и AI Overviews
В 2025 году заголовки должны быть оптимизированы не только для SERPs, но и для мобильных устройств и AI-ответов (например, Google Gemini). Убедитесь, что ваш заголовок читаем и привлекателен даже в урезанном виде.

Для больших сайтов используйте CMS или API для автоматизации заголовков. Анализируйте конкурентов через Semrush или Ahrefs, чтобы выявить выигрышные форматы (вопросы, списки, числа).

Вывод: Создавайте заголовки, которые цепляют пользователей и нравятся Google!

PS
Если есть бюджеты, то лучше вкладываться в ссыылочное ))))

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🌈 Оптимизация контента для ChatGPT: Анализ патентов OpenAI

Итак, в комментариях и не только стал возникать вопрос - как заполучить трафик из ChatGPT или хотя бы обеспечить видимость контента в ответах ChatGPT и других LLM-платформ? Вот прямо сейчас это сделать несколько проще, чем заполучить ранжирование в Гугле, ибо Гугловцы перешли на attention mechanisms, а LLM платформы (согласно патентам OpenAI) активно используют векторные представления (vector embeddings).

Напомню, как это работает: Контент (веб-страницы, документы, диалоги) сегментируется на фрагменты (chunks). Каждый фрагмент преобразуется в числовой вектор, отражающий его семантическое значение, и сохраняется в векторной базе данных. Запрос пользователя также векторизуется. Система находит в базе фрагменты контента, чьи векторы наиболее близки (семантически релевантны) вектору запроса. Эти фрагменты используются LLM для генерации ответа.

Практические выводы для SEO:
🔵Приоритет – семантика и структура: Оптимизация смещается в сторону создания контента, который легко поддается фрагментации на логические, самодостаточные части и обладает высокой семантической точностью и ясностью.

🔵 Качество эмбеддинга решает: Эффективность контента в LLM-выдаче зависит от того, насколько точно его векторное представление будет соответствовать интенту пользовательских запросов. Патент US 20240249186 A1 (о контрастивном обучении) подтверждает важность четкой структуры и релевантного окружения текста для создания качественных эмбеддингов.

🔵 Цель – попадание в контекст: Задача SEO – не просто занять позицию в выдаче ссылок, а добиться включения фрагментов контента в контекстное окно модели при генерации ответа.

Конвейер обработки (Патент US 20250103962 A1): Описанный в патенте процесс (краулинг -> фрагментация -> эмбеддинг -> хранение -> семантическое извлечение) является вероятной основой для работы поиска в LLM, как для кастомных GPT, так и для обработки общедоступного веб-контента.

Дополнительные соображения:
✔️ Принципы E-E-A-T (особенно Expertise, Authoritativeness) косвенно способствуют созданию контента, который хорошо структурирован, ясен и семантически насыщен – это позитивно сказывается на качестве эмбеддингов.
✔️ Форматы контента, естественно разделенные на блоки (FAQ, пошаговые инструкции, статьи с четкой иерархией заголовков), могут иметь преимущество.
✔️ Необходимо аудировать существующий контент на предмет его "chunkability" (возможности качественной фрагментации) и семантической четкости.

Выводы таковы:
Для оптимизации под LLM-выдачу необходимо фокусироваться на создании глубокого, семантически точного и хорошо структурированного контента, который может быть эффективно представлен в виде векторов и извлечен посредством семантического поиска для ответа на запросы пользователей. А в помощь вам - гипер софт "SEO Релевантность", который был выложен ранее и имеет всю необходимую инфу (см выше) по работе с ним.

#DrMax #SEO #ChatGPT #OpenAI #VectorEmbeddings #SemanticSearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 E-commerce в ТОП: Глубокая оптимизация изображений для SEO и конверсий (Часть 1)

Продолжаю дербанить неопубликованную книжицу.

Часто фокус смещается на глобальные SEO-стратегии (структура URL, ссылочное, контент-генерация), но сегодня разберем один из двух столпов, напрямую влияющих на ранжирование, UX и, конечно, конверсии: изображения товаров.

Визуальный контент – первое, на что обращают внимание пользователи, и мощный фактор доверия. Инвестиции в качественную съемку (даже базовый DSLR и свет) и последующую оптимизацию окупаются сторицей.

Ключевые аспекты SEO-оптимизации изображений:
1️⃣ Имена файлов:
🟢Используйте описательные, keyword-rich имена.
🟢Заменяйте пробелы дефисами.

chernye-kozhanye-botinki-na-shnurkah-vid-sboku.jpg

IMG_7854.jpg, tovar1.jpg

Почему важно: Имя файла становится частью URL изображения и помогает поисковикам понять его содержимое еще до анализа alt-текста.

2️⃣ Alt текст
Предоставляет поисковикам описание содержания изображения. Критически важен для доступности.
🟢Включайте релевантные ключи естественно.
🟢Описывайте изображение точно и лаконично.

Черные мужские ботинки из натуральной кожи на шнуровке, вид сбоку, на белом фоне.
купить ботинки, картинка товара 1

Думайте об alt как о том, что вы бы сказали человеку, если бы он не мог видеть картинку.

3️⃣ Сжатие и форматы:
🟢Скорость загрузки – фактор ранжирования (Core Web Vitals). Изображения – частая причина медленных страниц. Сжимайте без видимой потери качества. Цель – до 100KB, если возможно.

Форматы:
🟢WebP: Оптимальный выбор для веба. Обеспечивает лучшее сжатие при том же качестве по сравнению с JPEG/PNG. Поддерживается всеми современными браузерами.
🟢JPEG: Для фотографий без прозрачности.
🟢PNG: Для графики, иконок, изображений с прозрачным фоном.
Инструменты: TinyPNG, iLoveIMG, Squoosh. Многие CMS имеют плагины для автоматической конвертации в WebP и сжатия.

4️⃣ Технические спецификации и доставка:

🟢Единообразие размеров: Для однотипных товаров на страницах каталога используйте одинаковые пропорции и размеры изображений для аккуратного вида.
Разрешение: 72 DPI – стандарт для веб.

🟢Адаптивные изображения (Responsive images): Используйте тег <picture> или атрибут srcset тега <img> для показа разных версий изображений под разные экраны. Это экономит трафик и ускоряет загрузку на мобильных.

🟢Lazy loading (отложенная загрузка): Изображения, находящиеся за пределами первого экрана, подгружаются по мере скролла. Атрибут loading="lazy" для <img> поддерживается нативно большинством браузеров.

🟢Кэширование браузера: Настройте правильные заголовки кэширования на сервере для изображений, чтобы они сохранялись в кэше браузера пользователя.
CDN (Content Delivery Network): Используйте CDN для быстрой доставки изображений пользователям из географически близких к ним серверов.

🟢Карта сайта для изображений (Image Sitemap): Помогает Google быстрее находить и индексировать все изображения вашего сайта. Особенно актуально для сайтов с большим количеством визуального контента или использующих JavaScript для загрузки изображений.

🟢Микроразметка Schema.org ImageObject: Хотя основная информация об изображении передается через alt и имя файла, для особо важных изображений (например, главное фото товара) можно добавить разметку ImageObject внутри основной разметки Product.

Дополнительные фишки для повышения конверсии и вовлеченности:

🟢Несколько ракурсов: Показывайте товар со всех сторон, в деталях.

🟢Контекстуальные фото: Товар в использовании.

🟢360-градусные обзоры и видео: Максимально приближают онлайн-покупку к офлайн-опыту.

🟢UGC-фото: Фотографии товаров от покупателей в отзывах – мощный социальный триггер.

#DrMax #Ecommerce #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/01 00:56:46
Back to Top
HTML Embed Code: