Telegram Web Link
Привет информационникам под Google.
👏10
С праздником, причастные 🤘
🔥27😎7
Forwarded from DrMax SEO (DrMax)
🥺 SEO в эпоху AI: Адаптация стратегий под Google AI Overviews и AI Mode

Google опубликовал новые рекомендации (от Дж. Мюллера !!!) по оптимизации контента для своих AI-интерфейсов (AI Overviews, AI Mode). Вот выжимка из оного с комментариями и примерами:

1. Ценный контент для людей

Мюллер заявляет: AI-ответы строятся на контенте, удовлетворяющем сложные, многоэтапные запросы. Это прямой намек на углубление E-E-A-T. AI будет оценивать не просто уникальность текста, а глубину экспертизы, подтвержденную фактами, данными, авторством. Фокусируйтесь на создании контента, который отвечает не на один, а на пул связанных интентов.

Пример: Не просто "как выбрать смартфон", а "сравнительный анализ камер флагманских смартфонов 2025 года в условиях низкой освещенности с примерами фото и ссылками на исходники".

2. Page Experience.

Важность юзабилити, скорости загрузки, адаптивности, четкого выделения основного контента.
Core Web Vitals (особенно INP – Interaction to Next Paint) становятся еще критичнее. AI-системы могут понижать в выдаче страницы с плохим UX, даже если контент релевантен. LCP, FID/INP, CLS – постоянно отслеживаем.

3. Техническая доступность контента.

Отсутствие блокировок для Googlebot, код ответа 200, индексируемый контент. Проверьте корректность директив в robots.txt и мета-тегах robots. Убедитесь, что JS-контент корректно рендерится и доступен Googlebot. Важна чистота HTML-кода и логичная структура заголовков (H1-H6) для лучшего парсинга AI.

4. Управление видимостью через Preview Controls.

Используйте nosnippet, data-nosnippet, max-snippet, noindex. Это ваш инструмент влияния на то, как контент используется в AI Overviews. Стратегически подходите к их использованию. max-snippet:[длина] позволяет дать затравку, но стимулировать клик. data-nosnippet для исключения конкретных частей контента.

Пример: Для статьи с уникальным исследованием можно установить max-snippet:180, чтобы дать понять суть, но не раскрыть все выводы, мотивируя переход.

5. Соответствие структурированных данных видимому контенту.

Валидация и соответствие разметки тому, что видит пользователь. Активно используйте релевантные типы Schema.org: Article (с author, datePublished, dateModified), FAQPage, HowTo, Product, Recipe. Чем точнее и полнее разметка, тем легче AI понять суть контента и использовать его. Особое внимание на author и publisher для демонстрации E-E-A-T.

6. Мультимодальность

Качественные изображения, видео, актуальные Merchant Center и Google Business Profile. Оптимизируйте имена файлов изображений, заполняйте alt атрибуты осмысленным текстом. Для видео – транскрипции и субтитры. Изображения и видео должны быть уникальными и дополнять текст. Используйте разметку ImageObject и VideoObject.

Пример: В статье о ремонте двигателя прикрепите не стоковую картинку, а реальные фото процесса с поясняющими alt или диаграмму с разметкой.

7. Понимание полной ценности визитов.

Мюллер говорит: Клики из AI Overviews могут быть более качественными, пользователи – более вовлеченными.

Дополнение: Сместите фокус с количества кликов на качество сессий и конверсии. Анализируйте поведение пользователей, пришедших из AI-блоков: глубина просмотра, время на сайте, достижение микро- и макро-целей. Это может указывать на необходимость доработки контента под более "прогретую" аудиторию.

Пример: Если видите, что трафик из AI Overviews имеет высокий показатель отказов на определенной странице, возможно, она не до конца удовлетворяет сформированный у пользователя AI-ответом интент.

ВСЯКИЕ РАЗНЫЕ МЫСЛИ

1. Семантическое ядро и NLP-оптимизация: Создавайте контент, максимально насыщенный синонимами, связанными терминами и сущностями. Структурируйте текст так, чтобы он был легко понятен алгоритмам обработки естественного языка (NLP). Думайте о "вопрос-ответных" парах. Юзайте софт SEO Релевантность.
Please open Telegram to view this post
VIEW IN TELEGRAM
😎1
Forwarded from DrMax SEO (DrMax)
2. Внутренняя перелинковка: Укрепляйте тематическую релевантность страниц с помощью продуманной внутренней перелинковки. AI-системы это учитывают при оценке авторитетности и полноты раскрытия темы. Ссылайтесь на поддерживающие материалы и основные "хабовые" страницы (коконцы ))) ).

3. Обновление контента (Content Freshness): Для многих запросов AI будет отдавать предпочтение свежей информации. Регулярно пересматривайте и обновляйте ключевые материалы, особенно если они касаются быстро меняющихся тем (см посты про таблицы и прочее, что публиковал ранее).

4. Авторитетность домена и авторов: Продолжайте наращивать общую авторитетность сайта (качественные обратные ссылки, упоминания). Подчеркивайте экспертизу авторов (отдельные страницы, ссылки на профили, упоминания в тексте).

Выводы: Эволюция Google Search с AI – это не отмена старых правил, а их ужесточение и смещение акцентов. Глубокая экспертиза, техническое совершенство и фокус на пользовательском опыте – вот ключи к успеху в новой AI-реальности.
Адаптируйтесь!

#DrMax #SEO #Google #AIOverviews
Forwarded from Логинов Про
Подробная инструкция, что нужно сделать, чтобы РКН вас не оштрафовал после 30 мая.

Для тех, кто в танке, и еще не озаботился вопросом о правильном хранении и сборе Персональных данных, делюсь подробной инструкцией и документами, которые снимут с вас основную головную боль и позволят сделать все максимально корректно и быстро.

Мы провели обсуждения с несколькими юристами, коллегами, получили платные консультации, и собрали пошаговую инструкцию, что и когда нужно сделать.
Делюсь нашими шаблонами документов и наработками бесплатно. Поделитесь этим постом со своим бухгалтером или юристом, или пройдите процедуру сами.

⚠️ Напоминаю, что с 30 мая кратно повышаются штрафы за некорректную обработку Персональных данных, и даже за неподачу уведомления в РКН.

Просто пойдите и сделайте как написано
https://telegra.ph/Podrobnaya-instrukciya-chto-nuzhno-sdelat-chtoby-RKN-vas-ne-oshtrafoval-05-29

Персональные данные — это любая информация, которая прямо или косвенно относится к конкретному физическому лицу: ФИО, адрес проживания, информация об образовании и трудоустройстве, контактный телефон и электронная почта, раса, пол, группа крови, рост, цвет глаз и пр. В базовом виде, если вы собираете ФИО+телефон или +почта, то вы уже собираете ПД.

Именно поэтому, операторами персональных данных являются все работодатели, которые собирают ПД с помощью автоматизированных систем. То есть даже те, у кого нет сайтов, но есть 1С или CRM, в которой вы храните данные работников или контрагентов.

Если вы храните ПД в Экселе или в блокноте, то вы не пользуетесь автоматизированными системами для сбора ПД, и вам подавать заявление в РКН не надо, можно расслабиться.
Но если вы храните ПД в Google-таблицах, то вы нарушаете закон о трансграничной передаче ПД, и вам грозит штраф от 1 до 6 млн рублей. Срочно переходите в эксель.

Есть 3 этапа, которые нужно пройти:
1. Первым делом подать заявку в РКН, указав основные Цели сбора ПД и адреса ЦОД (дата-центров), где у вас хранятся данные пользователей (а их может быть много! Приведу наш пример)
2. Привести в порядок сайт: формы, сообщение о сборе кукис, политику конфиденциальности и согласие на обработку ПД. Если у вас есть лендинги, квизы или другие сайты, приводить в порядок нужно их все. Дам шаблоны "Политики обработки ПД" и "Согласия на обработку ПД"
3. Подготовить все внутренние документы организации, которые требует собрать Роскомнадзор. Дам чек-лист по всем необходимым внутренним документам.

⚠️ Первые два этапа нужно сделать как можно скорее. Третий - в спокойном режиме.

🔗 Читайте по ссылке инструкцию по каждому этапу и делитесь с коллегами:
https://telegra.ph/Podrobnaya-instrukciya-chto-nuzhno-sdelat-chtoby-RKN-vas-ne-oshtrafoval-05-29

****

PS
Еще забыл отметить:

У РКН работы — на полгода вперед, разгребать тысячи заявок.

1. Подавайте заявку как успеете, и не сильно переживайте про 30 мая.

2. Сайты в порядок приведите

3. И спокойно документы делайте, на всякий случай, вдруг придут

⚠️ Но, есть нюанс:
К московским (особенно мелким) компаниям точно не придут, просто не хватит ресурсов.

А вот к региональным вероятность визита больше, так как компаний на порядки меньше, и региональным отделениям РКН заняться особо нечем
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥6🤝2😱1
🆕 Находим "мусор" в семантике через регулярки

Яндекс выкатил небольшое обновление в Мониторинге запросов. А мы — вместе с GPT — уже накидали бетку конструктора, чтобы быстро находить или отсекать накрученные запросы 💡

Как пользоваться:

1. Перейди по ссылке:
🔗 https://seo-drift.ru/tools/sem-regex/
2. Отметь нужные чекбоксы
(наведи, чтобы прочитать описание каждого фильтра)
3. Внизу появится строка с готовым Regex
4. Скопируй и вставь его в фильтр в Вебмастере

Пробуй, тестируй, делись фидбеком!

by @seo_drift
👍6
Стата по пинтересту, достаточно не плохо с учетом того, что я 1 раз настроил и уже месяц там ничего не делаю!
👍7
Пару слов о том, с чем сейчас балуюсь!

Постепенно осваиваем RAG систему для бота в телеге.

Суть его следующая:

1. На вход, через бота в телеге подается запрос пользователя на естественном, иногда кривом языке.
2. AI'шка (в нашем случае - Deepseek) разбирает этот запрос на сущности - geo, категории и т.д., зависит от задачи.
3. Разобранный запрос ищет по мета данным или векторам в векторной базе (что угодно: база знаний, документы, а в нашем случае база офферов под CPA).
4. Полученные релевантные ответы из векторной БД отдаются в AI, которя формирует красивый ответ обратно в TG бота.

Никакой магии, но получается все очень прикольно!

Сайты - хорошо, но важно осваивать и другие инструменты с учетом всех изменений в поисковой выдаче.
🔥63
🚨 ⚠️ AI убьёт SEO... ☠️

................................................................................

Не, не думаю! Возможно, пострадают говностатейники, которые пылесосили траф по тоннам инфозапросов типа "к чему снятся какахи", а вот коммерческую выдачу, именно AI не похоронит.

Коммерческая выдача - кормушка для сервисов ПС (гребаные колдунщики), и в ногу стрелять они себе вряд-ли будут.

Если рассматривать перспективу того, в какие ниши заходить со своими проектами, то во-первых - ниши, где ПС еще не засунули свою руку по самые гланды, такие еще есть.

Сейчас пока еще можно заходить в b2b, более сложные продукты/услуги со своей спецификой, где не подходит модель массмаркета и поисковым системам не так просто выстроить воронку, как в b2c.

К слову, поисковики явным образом стараются вытеснить любые прокладки между поставщиком услуг или товаров и клиентом в виде сайтов агрегаторов, но если Google это делает отдавая предпочтение сайтам реального бизнеса (парсил порядка 200к запросов в услугах в бурже, и подавляющее большинство сайтов в выдаче - сайты реального бизнеса), то Yandex вытесняет агрегаторы запуская свои агрегаторы вертикали 🤣

Короче, SEO - живее всех живых. Нужно просто адаптироваться к новым условиям, как это всегда и происходило!

👉 Кравцов Виталий | SEO практика
👍9🦄8🔥1🤝1
Вайб-кодинг прикольная штука, но языковым моделям нужно еще год-два, чтобы можно было пилить что-то более или менее серьезное с нуля.
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Идеальный план для любого проекта 😎
🔥5👍4
Деньги не только в ИИ!
👏2
Тот случай, когда ты херовенький таргетолог 🤣
🔥8👍1
Обычный рабочий процесс 🤗
🔥122😱2
Так, потыкал я вайб-кодинг, на весь скипт понадобилось 2 не сложных промпта.
Сервис по домену выгружает все данные из вебархива, для удобства можно настроить фильтрацию выгрузки.
На самом деле мне нужно было выгрузить данные, а разрабочик в отпусе и я, как истинный SEOшник, решил запилить свой велосипед.


🚀 Возможности веб-сервиса:

⚙️ Настройки фильтрации:
📅 Диапазон дат - выбор временного периода
📄 Типы файлов (MIME) - HTML, CSS, JS, PDF, изображения и другие
🔍 Коды ответа сервера - 200, 301, 302, 404, 500 и пользовательские
🎯 Фильтр по URL - точное соответствие или частичное вхождение
🖼 Исключение изображений - автоматическое исключение графических файлов
Уникальные URL - удаление дубликатов
📊 Количество результатов - ограничение или все данные


Вот пример того, что сейчас можно сделать с помощью AI буквально за 30 минут.
AIшка написала скрипт, сверстала, упаковала все в архив, я его развернул на сервере и все заработало!

Домен взял первый свободный, чтобы потестить.
Собственно, увидеть можно тут: https://treka.ru/
На больших данных нужно будет немного подождать ))
🔥15
Вся ситуация в Google на примере 3 разных проектов! Причем, трафик где-то не изменился, где-то вырос за этот период.
Коллеги, вопрос на ночь!
Где сейчас посмотреть актуальные отчеты по среднему CTR в выдаче Yandex и Google?
2025/07/09 15:12:56
Back to Top
HTML Embed Code: