Telegram Web Link
Яндекс все-таки выкатил директиву, которая запрещает использовать контент вебмастеров для формирования быстрых ответов с помощью YandexGPT. Признаться, я удивлен. Самое время обновить файлы robots.txt, внеся туда две строчки:

User-Agent: YandexAdditional
Disallow: /

Подробнее тут: https://webmaster.yandex.ru/blog/yandeks-rasshiryaet-testirovanie-bystrykh-otvetov-ot-yandexgpt
Долго собирался написать пост про интент, а потом наткнулся на статью Виктора Петрова, в которой он уже красиво все разложил по полочкам.

Интересно, что SEO-шников на курсах и в студиях учат работать по примитивной схеме на уровне вхождения слов, когда фактически SEO-специалист сейчас - это полноценный product, который дополнительно знает, как заставить поисковую систему корректно понимать сайт.

Отсюда вытекает простой вывод, что любая потоковая история будет работать из рук вон плохо (не сможет специалист достаточно глубоко погрузиться в боли), а владелец бизнеса зачастую для своего сайта делает больше, чем надрессированный вставлять ключи SEO-специалист.

Простой пример - блок вопросов и ответов можно составить на основе домыслов, что может быть интересно человеку (нет), а вот понимая и взаимодействуя с клиентами - там оказываются настоящие боли, которые этими вопросами можно закрыть.

Хороший пример был как раз в статье про "адвокат при дтп", когда настоящий интент - быстро найти телефон и получить инструкцию что делать после случившегося, а также каких ошибок не допустить, а в топе сайт с информацией на одном из первых экранов о том, что компания в рейтинге лучших адвокатов по дтп.

Кстати, интересное наблюдение в рамках накрутки ПФ - запросы не с тем интентом либо не заходят в топ, либо вылетают оттуда спустя один день, выступая лакмусовой бумажкой, но об этом подробнее в другой раз.

Подытоживая, интент - это то что хочет увидеть пользователь, а не то что ему хочет показать сеошник, поэтому единственно правильный путь - корректно определять боль человека и если ожидаемого ответа дать не можете, то либо дорабатывать сам продукт, либо сфокусироваться на чем-то другом.
⚙️ Консольный скрипт парсинга сайтов с биржи Miralinks

Приступил к реализации автоматической ссылочной стратегии, а для этого надо иметь актуальные данные со всех бирж ссылок, начал с самой популярной в рунете - Миралинкс.

Принцип простой - открываем на F12 консоль в браузере и запускаем скрипт, он постранично идёт и забирает найденные площадки, а заодно все сопутствующие параметры.

Таймаут между выполнениями установлен в 5 секунд, максимальное количество страниц для парсинга - задаётся вручную в самом начале, в конце выполнения запись в файл data.csv и сохранение на компьютер.

Из известных проблем - иногда Мира выводит пустое поле с сайтами, в результате данные со страницы не забираются, буду разбираться, пока баг решается увеличением времени ожидания.

Описание и подробная инструкция как всегда на github, со временем буду дорабатывать и исправлять.

⚡️ Скачать Miralinks Parser ⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
Впервые за 5 лет пойду учиться

Последнее что изучал - Авторский курс Сергея Кокшарова в 2019 году. Дальше много практики, экспериментов и потребности в вычленении каких-то редких фишек или подходов уже не требовалось, тем более из курса в курс все пересказывали одно и тоже. С тех пор только работа с выдачей, тесты, насмотренность за счет собственных экспериментов, консультаций и кулуарных обсуждений.

Дальше случайно попал на один "прогревочный" вебинар к Андрею Джилавдарову, потом на другой и с удивлением обнаружил, что взгляд на SEO хоть и крайне схожий (даже темы в каналах пересекаются вплоть до времени), но подход у него совершенно иной - через патенты, исследование слитых данных и изучение алгоритмов.

Те вещи, которые я объясняю "потому что я вижу это в выдаче", он объясняет фундаментальной базой. В общем, не долго думая списались, оплатил и впервые за долгое время ощутил искренний интерес к чему-то новому в SEO. Жду старта 6 потока через неделю, после поделюсь впечатлением.
На выходных доделал скрипт для парсинга GGL и собрал полную базу их ссылок. Делалось это для того, чтобы иметь не только полный список доноров (GGL - 24к, Mira - 18к), но и сравнивать цены между биржами.

Те, кто работает с ними давно прекрасно знает, что цена на одну и ту же площадку может отличаться кратно, причем независимо от биржи, собственно пример на скриншоте.

Скрипт для парсинга площадок с GGL и их параметров как всегда на github:

⚡️ Скачать GGL Parser ⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
Когда не читаешь анонсов и инструкций, то можно с удивлением обнаружить новый функционал у сервисов. Так вот в мониторинге запросов Я.ВМ доступно переключение статистики по запросам на статистику по страницам, а дальше открывается полный расклад по показам отдельных URL, средней позиции и количеству кликов, т.е Яндекс за нас уже сгруппировал данные по запросам, привязал к релевантным страницам и вывел статистику. Раньше я тоже самое делал в Топвизоре.

Использовать эти данные можно для формирования приоритета по постраничной доработке, распределению бюджета на ссылочное и выбору страниц для накрутки ПФ. Скрипт для анализа запросов у меня уже стал настольным дополнением, теперь нужно реализовать такую же аналитику в разрезе URL/категорий, прикрутив группировку по слагу.

Единственное неудобство заключается в том, что в отчете по запросам нет релевантной страницы, а значит для привязки кластера запросов к статистике по URL нужно для начала снять релевантную. На случай, если кто-то из команды Я.Вебмастера меня читает: неплохо бы добавить в отчет по запросам колонку с релевантной страницей, с учетом, что эти данные уже используются, доработка выходит несложная.
Пожалуй надо дать комментарии по поводу последнего апдейта по ПФ, тем более имеется хорошая выборка по проектам, которые крутим.

Далее мое личное мнение, прошло слишком мало времени, чтобы делать полноценные выводы, но картина прорисовывается следующая:
🟠(очевидно) меньше всего упали сайты, которые хорошо ранжировались изначально и дожимались ПФами до топ-1
🟠Неожиданно, но в том числе не сильно пострадали сайты, которые имели низкую видимость до накрутки, но с хорошей базовой сеошкой (структура, тексты, on-page)
🟠Сильнее всего пострадали сайты по которым было плохое попадание в интент, отсутствие нормальной релевантной, слабые текстовые и малый объем контента на странице, они и до апа шли тяжело
🟠По тем проектам, где есть метрика вижу просадку живого трафика на примерно тот же процент, на сколько упала видимость.

Вероятнее всего крутанули ручку значимости фактора ПФ в меньшую сторону. Например, был коэффициент 5, стал 2. Посыпались сайты со слабыми прочими факторами, поскольку этого мультипликатора теперь не хватает для удержания топа, а это весь тот мусор, который заталкивался наверх только за счет объемов по кликам.

Если всё так, то решение однозначно пойдет на пользу выдаче. Теперь чтобы оказаться в топе, всё таки придётся проработать сайт, а не только купить сервер и софт. Но важно не забывать, что все могут откатить, или скорректировать в любую сторону, наблюдаем.

На скриншоте проект, который вытягивался с 4% видимости только кликами с ноября того года, других работ не велось, отката к 4% не произошло.
Please open Telegram to view this post
VIEW IN TELEGRAM
Обновил скрипт по анализу запросов из мониторинга Яндекс.Вебмастера, теперь поддерживает анализ страниц: суммирует кол-во показов и кликов по страницам за 14 дней и считает среднюю позицию.

Что делать с полученными данными думаю понятно - дорабатываем страницы с наибольшим числом показов, потенциально это даст самый быстрый рост по трафику.

Пока автоматически подгружать список релевантных запросов к страницам возможности нет (а они нужны), поскольку этих данных нет ни в отчете, ни в API, но для быстрой выгрузки кластеров по страницам можно использовать сам интерфейс Яндекс.Вебмастера с помощью фильтрации:
🟠Зайти в Мониторинг запросов
🟠Скриптом обработать данные по страницам
🟠В режиме анализа поисковых запросов использовать фильтрацию
Фильтр -> URL -> Включает -> Данные из колонки PATH

🟠Отдельно скачивать кластера запросов для выбранных страниц

Второй вариант - для всех выгруженных запросов собрать релевантные страницы в KeyCollector и сделать группировку по URL
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 Сегодня в 11:30 выступаю у Андрея Буйлова на конференции по теме программирования на ChatGPT для непрограммистов.

Поделюсь своим многочасовым опытом общения с нейросетью и тем, как автоматизировать почти что угодно и добиваться от ИИ выполнения поставленной задачи, даже если вы совсем не знаете синтаксиса языка.

Тайминги на выступление небольшие, поэтому расскажу про основные моменты, если будет интерес - раскрою подробнее уже у себя на канале.

🔗 С полным расписанием конференции можно ознакомиться на сайте - https://builov-seo.ru/seo-conference-8
🖥 Ссылка на трансляцию - https://www.youtube.com/watch?v=eK4IVIRwJ0k
Please open Telegram to view this post
VIEW IN TELEGRAM
😀 Досмотрел вебмастерскую с выступлением Михаила Сливинского

Из действительно интересного - апдейт инструмента по анализу рынка в Я.Вебмастере, аналог Keys.so, но от самого Яндекса.
🟠Встроенный функционал Я.Вордстата (получение хвоста запросов с данными по частотности и кликам в поиске, и даже конкурентности)
🟠Поисковые фразы на страницы конкурентов, а также их средняя позиция (постранично и сайта целиком). Пока ощущение, что данные еще не догружены, поскольку у очень популярных страниц может быть всего 2-3 запроса.

Выгружать пока не дают, но функционал скоро появится. Вижу огромный потенциал по полезной аналитике, изучу и выложу видео по тому, как применять на бою.

Отдельный блок посвящен качеству текстов на странице, но про это говорят ежегодно.
Пишите тексты для людей и не пишите для роботов. Это база и влияние текстовки реально снижается в Яндексе (но не в Google).

Две секунды уделили главной проблеме - накрутке ПФ с пруфами в виде скрина из чата по накрутке 🥲. Уделю этому чуть больше времени в следующем посте, но в данный момент результаты лучше чем до 26 февраля 🫡

Выкатили инструмент для екома по популярным товарам и категориям, где можно изучить любую нишу и любые товары в ней для запуска ИМ.
Если покопаться в этой аналитике уверен можно бодро стартануть, если оказаться одним из первых в какой-то неявной нише. Инструменту лайк.

И в конце, соглашусь с основным выводом - самый большой рост по органике идёт вместе с созданием новых посадок на сайте. Нет релевантной - нет показов - нет трафика.
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже новый инструмент «Подбор запросов и анализ рынка» от Я.Вебмастера - на порядок удобнее вордстата, поскольку в отчете содержатся данные по частотности каждого из запросов в хвосте.

Поэтому, например, 5 словник будет справедливо выше по частоте, чем двухсловник, если люди чаще спрашивают именно так (в отличии от совсем неочевидных данных вордстата).

Интересно, что таким образом удалось за несколько минут найти нишу, которую упускал за последние полгода работы над проектом:
🟠Вбил базовый запрос
🟠Изучая запросы нашлась интересная фраза с низкой конкуренцией
🟠Вбил уже её как базовую маркерную, в результате чего нашлась целая подниша с низкой конкуренцией
🟠Под этот тип запросов сделаем посадки и буду следить за результатом
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚙️ Пока Яндекс не активировал кнопку «Скачать таблицы» в новом инструменте Подбор запросов и анализ рынка (β) можно без всяких танцев с бубном выгружать данные через расширение Instant Data Scraper 🔗
Please open Telegram to view this post
VIEW IN TELEGRAM
Зацепился взглядом за анонс нового инструмента у Пикселей по А/Б тестированию гипотез.
Идея не новая и в похожем виде реализована у SeoWork, если кратко - берём контрольную страницу и показатели по всему сайту, ну а дальше сравниваем динамику после внесения изменений.
Если контрольная страница (или группа страниц) приросла сильнее, чем сайт целиком - считаем, что внесенное изменение успешное.

Слабые места такого подхода:
🟠Полнота семантики по кластеру/сайту целиком строится на основе запросов, которые в этот кластер добавлены пользователем;
🟠Корректность оценки частотности запросов;
🟠Подсчет СTR на выдаче априори будет опираться на усреднение.

В итоге не очень понятно, для чего все эти телодвижения, если в отчете по URL в Мониторинге запросов можно увидеть данные по всему кластеру запросов на странице, а дальше тестировать гипотезу с оценкой динамики по URL:
🟠Динамика средней позиции по всему кластеру страницы;
🟠Динамика показов страницы;
🟠Тот же CTR*WS на основе настоящих данных Яндекса.

Можно такие гипотезы в экселе фиксировать, пометив доработанные страницы и дату проработки, а можно собрать скрипт с подключением по API к Я.ВМ и складывать данные в Google таблицы, добавляя ручные комментарии. В общем и точность, и полнота будут на порядок выше.
Please open Telegram to view this post
VIEW IN TELEGRAM
Keys.so выкатил инструмент массовой проверки сразу всех видов частотностей запросов в Яндекс.Вордстат, а также оценки стоимости клика и бюджета в Яндекс.Директе.

Инструмент входит во все платные тарифы со следующими лимитами:
🟠Базовый тариф — 50 000 фраз/мес.
🟠Профессиональный тариф — 100 000 фраз/мес.
🟠Корпоративный тариф — 300 000 фраз/мес.

Если еще нет аккаунта, то с промокодом heymm20 можно получить скидку в 20% на первую оплату.
Ссылка на инструмент - https://www.keys.so/ru/wordstat-list
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Последнюю неделю разбираюсь с новым интерфейсом метрики и это чистый восторг.

Из основного - отдельные дашборды, интерфейс теперь адаптивный, заголовки для группы блоков и легкое перемещение самих блоков по странице.

По SEO для себя вывел самую ценную информацию:
🟠Динамика трафика общая/Яндекс/Google
🟠Динамика трафика по основным типам страниц
🟠Список страниц входа по типам/срезам
🟠Поверх накинул примечания на даты доработок сайта

Таким образом можно быстро узнать динамику посещаемости в разрезе как всего сайта, так и отдельных направлений, с пониманием того, какие действия дали результат.

В общем, как бы не хаяли Яндекс за качество поиска, но для вебмастеров они делают сильно больше чем Google.

P.S на скриншоте только часть данных, большая часть блоков находится ниже
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ 21 мая ребята из Кручу-Верчу собирают SEO-тусовку с участием топов всего рынка в нестандартном формате посиделок.

По своему опыту знаю, что по-настоящему классные инсайты и темки палятся только в кулуарах, поэтому инвестиция в билет более чем оправдана.

Другой возможности лично пообщаться с топами крупнейших компаний в рунете может просто не быть :)

Вся информация по мероприятию на сайте 👉 meetup.kruchu-werchu.ru

Искренне рекомендую 🤟
Please open Telegram to view this post
VIEW IN TELEGRAM
Если у вас посыпались позиции в Яндексе - расслабьтесь и закупайте ссылки под Google.

Сейчас повышенная турбулентность у всех сайтов (белых, серых, черных, накрученных, не накрученных) и резкие движения ни к чему. Главное, на что стоит обратить внимание - трафик из ПС, а не видимость в Топвизоре.

А что собственно происходит:
🟠Очевидно, что последние пару недель Яндекс тестирует новый подход к формированию поисковой выдачи, который все меньше завязан на позициях отдельных запросов
🟠Глобальный тренд на то, что топ всё чаще достаётся просто крупным проектам, без оглядки на качество оптимизации последних
🟠Ротация позиций в течении дня огромная, поэтому видимость может прыгать в зависимости от времени снятия позиций
🟠Уже давно стоит смотреть на трафик, а не позиции. Если в Google оценка видимости еще актуальна, то для Яндекса практически потеряла смысл.
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/02 00:47:49
Back to Top
HTML Embed Code: