Telegram Web Link
Писать особо не о чем, поэтому расскажу над чем работаю в данный момент.
Пару лет назад загорелся идей сделать сервис по автоматической оптимизации любого сайта, тем более на рынке таких решений не было от слова совсем.

Все сервисы, которые предлагали автоматическое продвижение действовали довольно примитивно - они либо пытались проводить позапросную аналитику для релевантных страниц (и главная проблема - корректность сбора семантики и отсутствие группировки запросов), либо давили на один фактор ранжирования, например, авто закупка ссылок.

Боль при этом очевидна - есть большой рынок тех, кому просто нужно продвижение (либо разовая оптимизация сайта) и есть много подрядчиков со своим виденьем и стандартами, которые никак не коррелируют с итоговым результатом. В итоге, SEO для многих стало эдакой рулеткой - попробуем поработать с этими, ждём результат, если не получится - уйдем к другим. Знаю даже случаи, когда кольцо сансары замыкалось и клиент приходил на второй круг.

С тех пор, время от времени, я возвращался к мысли полного исключения человеческого фактора из работ по SEO, тем более алгоритм продвижения был написан, но для отдельных шагов не находил способов автоматизации.

Например, как автоматически собрать чистую семантику без мусора? А как автоматически анализировать конкурентов и расширять структуру? Можно ли автоматизировать закупку ссылок? Что делать с текстовой оптимизацией не по ключу, а по кластеру запросов?

И вот, наконец дождался стыка двух важных моментов:
🟠Само SEO максимально упростилось, Яндекс едет за счет ПФ, Google - на ссылках, и обоим поисковикам все еще нужна текстовая релевантность на странице.
🟠Появление ИИ позволяет гибко работать с текстовыми факторами, включая как анализ, так и генерацию необходимых данных.

Всё что остаётся - развернуть структуру сайта с необходимыми текстовыми вхождениями (или сообщить о том, каких страниц не хватает, а какие доработать) и топить в соответствующие факторы - ПФ и ссылки.

Два ключевых блокера решены - сбор полной чистой семантики без примесей для любой ниши и типа сайтов, и оценка степени оптимизации страниц для подготовки рекомендаций по расширению/доработкам страниц на основе собранной семантики, все на полном автомате. На вход один раз подаётся список товаров или услуг и получается магия которой до сих пор удивляюсь сам, хоть и понимаю как это работает.

Сейчас, скрипты обкатываются на консультациях и клиентах из ПФ, например, удаётся кратно расширить семантику и найти хорошие запросы даже для очень сложных ниш, которые не находились ни в вордстате, ни у конкурентов, при этом наглядно видим какие страницы и почему не растут (спойлер - либо недостаточная текстовая релевантность, либо не тот интент).

Система модульная, чтобы любой из модулей была возможность переделать, усилить или улучшить. До готового продукта далековато, тем более, улучшать можно бесконечно, прикручивая подготовку статей на основе продвигаемого кластера при закупке ссылок, или автоматизируя индексацию новых страниц через Google Indexing API.

Итоговый продукт за пару часов должен проводить комплекс работ соразмерный 2-4 месяцам работ обычной SEO-студии.
Please open Telegram to view this post
VIEW IN TELEGRAM
Дело с автоматической оптимизацией проектов двигается (в основном по вечерам). На текущий момент реализовано:
🟠Сбор семантики проекта любого масштаба под ключ, скорость хорошая и это в один поток, умеет выдергивать даже очень низкочастотный целевой хвост. Сразу готовится файл для импорта в Топвизор. Разные режимы - для новых и существующих сайтов.

🟠Готов постраничный анализатор сайтов. Изучал все текущие решения - ни одно не понравилось, очень скудные, работают в лоб. В итоге, написал с нуля свое, где получаю все необходимые данные и провожу анализ под кластер запросов, а не в разрезе страница - запрос. Скорость ужасная, но обоснована обращениями к несколько сервисам по API. На выходе получается большая сводная таблица, которая показывает где, чего и сколько не хватает. Делает акцент на важном (с учетом частоты запросов из кластера, встречаемых слов, LSI и подсветок) и игнорирует все лишнее.

🟠Дальше в планах взяться за ссылочное:
На вход отдаёшь сайт и получаешь список площадок для закупки, которые собраны конкретно под проект, с учетом траста и самой низкой цены (если донор встречается на разных биржах). При указании бюджета - будет рассчитываться среднемесячная стоимость и оптимальные площадки, а также целевые посадочные и анкоры для них, в общем полноценный ссылочный план. С потенциалом реализации модуля генерации текста для статей.

Подумываю всё таки обернуть в сервис и выдать доступ, сэкономит многим людям колоссальное количество денег. Но до этого момента нужно протестировать на десятке сайтов, чтобы с уверенностью говорить - что всё это работает как задумалось. Под тестом понимаю - оптимизацию по рекомендациям скрипта и замер динамики позиций.
Please open Telegram to view this post
VIEW IN TELEGRAM
Яндекс все-таки выкатил директиву, которая запрещает использовать контент вебмастеров для формирования быстрых ответов с помощью YandexGPT. Признаться, я удивлен. Самое время обновить файлы robots.txt, внеся туда две строчки:

User-Agent: YandexAdditional
Disallow: /

Подробнее тут: https://webmaster.yandex.ru/blog/yandeks-rasshiryaet-testirovanie-bystrykh-otvetov-ot-yandexgpt
Долго собирался написать пост про интент, а потом наткнулся на статью Виктора Петрова, в которой он уже красиво все разложил по полочкам.

Интересно, что SEO-шников на курсах и в студиях учат работать по примитивной схеме на уровне вхождения слов, когда фактически SEO-специалист сейчас - это полноценный product, который дополнительно знает, как заставить поисковую систему корректно понимать сайт.

Отсюда вытекает простой вывод, что любая потоковая история будет работать из рук вон плохо (не сможет специалист достаточно глубоко погрузиться в боли), а владелец бизнеса зачастую для своего сайта делает больше, чем надрессированный вставлять ключи SEO-специалист.

Простой пример - блок вопросов и ответов можно составить на основе домыслов, что может быть интересно человеку (нет), а вот понимая и взаимодействуя с клиентами - там оказываются настоящие боли, которые этими вопросами можно закрыть.

Хороший пример был как раз в статье про "адвокат при дтп", когда настоящий интент - быстро найти телефон и получить инструкцию что делать после случившегося, а также каких ошибок не допустить, а в топе сайт с информацией на одном из первых экранов о том, что компания в рейтинге лучших адвокатов по дтп.

Кстати, интересное наблюдение в рамках накрутки ПФ - запросы не с тем интентом либо не заходят в топ, либо вылетают оттуда спустя один день, выступая лакмусовой бумажкой, но об этом подробнее в другой раз.

Подытоживая, интент - это то что хочет увидеть пользователь, а не то что ему хочет показать сеошник, поэтому единственно правильный путь - корректно определять боль человека и если ожидаемого ответа дать не можете, то либо дорабатывать сам продукт, либо сфокусироваться на чем-то другом.
⚙️ Консольный скрипт парсинга сайтов с биржи Miralinks

Приступил к реализации автоматической ссылочной стратегии, а для этого надо иметь актуальные данные со всех бирж ссылок, начал с самой популярной в рунете - Миралинкс.

Принцип простой - открываем на F12 консоль в браузере и запускаем скрипт, он постранично идёт и забирает найденные площадки, а заодно все сопутствующие параметры.

Таймаут между выполнениями установлен в 5 секунд, максимальное количество страниц для парсинга - задаётся вручную в самом начале, в конце выполнения запись в файл data.csv и сохранение на компьютер.

Из известных проблем - иногда Мира выводит пустое поле с сайтами, в результате данные со страницы не забираются, буду разбираться, пока баг решается увеличением времени ожидания.

Описание и подробная инструкция как всегда на github, со временем буду дорабатывать и исправлять.

⚡️ Скачать Miralinks Parser ⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
Впервые за 5 лет пойду учиться

Последнее что изучал - Авторский курс Сергея Кокшарова в 2019 году. Дальше много практики, экспериментов и потребности в вычленении каких-то редких фишек или подходов уже не требовалось, тем более из курса в курс все пересказывали одно и тоже. С тех пор только работа с выдачей, тесты, насмотренность за счет собственных экспериментов, консультаций и кулуарных обсуждений.

Дальше случайно попал на один "прогревочный" вебинар к Андрею Джилавдарову, потом на другой и с удивлением обнаружил, что взгляд на SEO хоть и крайне схожий (даже темы в каналах пересекаются вплоть до времени), но подход у него совершенно иной - через патенты, исследование слитых данных и изучение алгоритмов.

Те вещи, которые я объясняю "потому что я вижу это в выдаче", он объясняет фундаментальной базой. В общем, не долго думая списались, оплатил и впервые за долгое время ощутил искренний интерес к чему-то новому в SEO. Жду старта 6 потока через неделю, после поделюсь впечатлением.
На выходных доделал скрипт для парсинга GGL и собрал полную базу их ссылок. Делалось это для того, чтобы иметь не только полный список доноров (GGL - 24к, Mira - 18к), но и сравнивать цены между биржами.

Те, кто работает с ними давно прекрасно знает, что цена на одну и ту же площадку может отличаться кратно, причем независимо от биржи, собственно пример на скриншоте.

Скрипт для парсинга площадок с GGL и их параметров как всегда на github:

⚡️ Скачать GGL Parser ⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
Когда не читаешь анонсов и инструкций, то можно с удивлением обнаружить новый функционал у сервисов. Так вот в мониторинге запросов Я.ВМ доступно переключение статистики по запросам на статистику по страницам, а дальше открывается полный расклад по показам отдельных URL, средней позиции и количеству кликов, т.е Яндекс за нас уже сгруппировал данные по запросам, привязал к релевантным страницам и вывел статистику. Раньше я тоже самое делал в Топвизоре.

Использовать эти данные можно для формирования приоритета по постраничной доработке, распределению бюджета на ссылочное и выбору страниц для накрутки ПФ. Скрипт для анализа запросов у меня уже стал настольным дополнением, теперь нужно реализовать такую же аналитику в разрезе URL/категорий, прикрутив группировку по слагу.

Единственное неудобство заключается в том, что в отчете по запросам нет релевантной страницы, а значит для привязки кластера запросов к статистике по URL нужно для начала снять релевантную. На случай, если кто-то из команды Я.Вебмастера меня читает: неплохо бы добавить в отчет по запросам колонку с релевантной страницей, с учетом, что эти данные уже используются, доработка выходит несложная.
Пожалуй надо дать комментарии по поводу последнего апдейта по ПФ, тем более имеется хорошая выборка по проектам, которые крутим.

Далее мое личное мнение, прошло слишком мало времени, чтобы делать полноценные выводы, но картина прорисовывается следующая:
🟠(очевидно) меньше всего упали сайты, которые хорошо ранжировались изначально и дожимались ПФами до топ-1
🟠Неожиданно, но в том числе не сильно пострадали сайты, которые имели низкую видимость до накрутки, но с хорошей базовой сеошкой (структура, тексты, on-page)
🟠Сильнее всего пострадали сайты по которым было плохое попадание в интент, отсутствие нормальной релевантной, слабые текстовые и малый объем контента на странице, они и до апа шли тяжело
🟠По тем проектам, где есть метрика вижу просадку живого трафика на примерно тот же процент, на сколько упала видимость.

Вероятнее всего крутанули ручку значимости фактора ПФ в меньшую сторону. Например, был коэффициент 5, стал 2. Посыпались сайты со слабыми прочими факторами, поскольку этого мультипликатора теперь не хватает для удержания топа, а это весь тот мусор, который заталкивался наверх только за счет объемов по кликам.

Если всё так, то решение однозначно пойдет на пользу выдаче. Теперь чтобы оказаться в топе, всё таки придётся проработать сайт, а не только купить сервер и софт. Но важно не забывать, что все могут откатить, или скорректировать в любую сторону, наблюдаем.

На скриншоте проект, который вытягивался с 4% видимости только кликами с ноября того года, других работ не велось, отката к 4% не произошло.
Please open Telegram to view this post
VIEW IN TELEGRAM
Обновил скрипт по анализу запросов из мониторинга Яндекс.Вебмастера, теперь поддерживает анализ страниц: суммирует кол-во показов и кликов по страницам за 14 дней и считает среднюю позицию.

Что делать с полученными данными думаю понятно - дорабатываем страницы с наибольшим числом показов, потенциально это даст самый быстрый рост по трафику.

Пока автоматически подгружать список релевантных запросов к страницам возможности нет (а они нужны), поскольку этих данных нет ни в отчете, ни в API, но для быстрой выгрузки кластеров по страницам можно использовать сам интерфейс Яндекс.Вебмастера с помощью фильтрации:
🟠Зайти в Мониторинг запросов
🟠Скриптом обработать данные по страницам
🟠В режиме анализа поисковых запросов использовать фильтрацию
Фильтр -> URL -> Включает -> Данные из колонки PATH

🟠Отдельно скачивать кластера запросов для выбранных страниц

Второй вариант - для всех выгруженных запросов собрать релевантные страницы в KeyCollector и сделать группировку по URL
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 Сегодня в 11:30 выступаю у Андрея Буйлова на конференции по теме программирования на ChatGPT для непрограммистов.

Поделюсь своим многочасовым опытом общения с нейросетью и тем, как автоматизировать почти что угодно и добиваться от ИИ выполнения поставленной задачи, даже если вы совсем не знаете синтаксиса языка.

Тайминги на выступление небольшие, поэтому расскажу про основные моменты, если будет интерес - раскрою подробнее уже у себя на канале.

🔗 С полным расписанием конференции можно ознакомиться на сайте - https://builov-seo.ru/seo-conference-8
🖥 Ссылка на трансляцию - https://www.youtube.com/watch?v=eK4IVIRwJ0k
Please open Telegram to view this post
VIEW IN TELEGRAM
😀 Досмотрел вебмастерскую с выступлением Михаила Сливинского

Из действительно интересного - апдейт инструмента по анализу рынка в Я.Вебмастере, аналог Keys.so, но от самого Яндекса.
🟠Встроенный функционал Я.Вордстата (получение хвоста запросов с данными по частотности и кликам в поиске, и даже конкурентности)
🟠Поисковые фразы на страницы конкурентов, а также их средняя позиция (постранично и сайта целиком). Пока ощущение, что данные еще не догружены, поскольку у очень популярных страниц может быть всего 2-3 запроса.

Выгружать пока не дают, но функционал скоро появится. Вижу огромный потенциал по полезной аналитике, изучу и выложу видео по тому, как применять на бою.

Отдельный блок посвящен качеству текстов на странице, но про это говорят ежегодно.
Пишите тексты для людей и не пишите для роботов. Это база и влияние текстовки реально снижается в Яндексе (но не в Google).

Две секунды уделили главной проблеме - накрутке ПФ с пруфами в виде скрина из чата по накрутке 🥲. Уделю этому чуть больше времени в следующем посте, но в данный момент результаты лучше чем до 26 февраля 🫡

Выкатили инструмент для екома по популярным товарам и категориям, где можно изучить любую нишу и любые товары в ней для запуска ИМ.
Если покопаться в этой аналитике уверен можно бодро стартануть, если оказаться одним из первых в какой-то неявной нише. Инструменту лайк.

И в конце, соглашусь с основным выводом - самый большой рост по органике идёт вместе с созданием новых посадок на сайте. Нет релевантной - нет показов - нет трафика.
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже новый инструмент «Подбор запросов и анализ рынка» от Я.Вебмастера - на порядок удобнее вордстата, поскольку в отчете содержатся данные по частотности каждого из запросов в хвосте.

Поэтому, например, 5 словник будет справедливо выше по частоте, чем двухсловник, если люди чаще спрашивают именно так (в отличии от совсем неочевидных данных вордстата).

Интересно, что таким образом удалось за несколько минут найти нишу, которую упускал за последние полгода работы над проектом:
🟠Вбил базовый запрос
🟠Изучая запросы нашлась интересная фраза с низкой конкуренцией
🟠Вбил уже её как базовую маркерную, в результате чего нашлась целая подниша с низкой конкуренцией
🟠Под этот тип запросов сделаем посадки и буду следить за результатом
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚙️ Пока Яндекс не активировал кнопку «Скачать таблицы» в новом инструменте Подбор запросов и анализ рынка (β) можно без всяких танцев с бубном выгружать данные через расширение Instant Data Scraper 🔗
Please open Telegram to view this post
VIEW IN TELEGRAM
Зацепился взглядом за анонс нового инструмента у Пикселей по А/Б тестированию гипотез.
Идея не новая и в похожем виде реализована у SeoWork, если кратко - берём контрольную страницу и показатели по всему сайту, ну а дальше сравниваем динамику после внесения изменений.
Если контрольная страница (или группа страниц) приросла сильнее, чем сайт целиком - считаем, что внесенное изменение успешное.

Слабые места такого подхода:
🟠Полнота семантики по кластеру/сайту целиком строится на основе запросов, которые в этот кластер добавлены пользователем;
🟠Корректность оценки частотности запросов;
🟠Подсчет СTR на выдаче априори будет опираться на усреднение.

В итоге не очень понятно, для чего все эти телодвижения, если в отчете по URL в Мониторинге запросов можно увидеть данные по всему кластеру запросов на странице, а дальше тестировать гипотезу с оценкой динамики по URL:
🟠Динамика средней позиции по всему кластеру страницы;
🟠Динамика показов страницы;
🟠Тот же CTR*WS на основе настоящих данных Яндекса.

Можно такие гипотезы в экселе фиксировать, пометив доработанные страницы и дату проработки, а можно собрать скрипт с подключением по API к Я.ВМ и складывать данные в Google таблицы, добавляя ручные комментарии. В общем и точность, и полнота будут на порядок выше.
Please open Telegram to view this post
VIEW IN TELEGRAM
Keys.so выкатил инструмент массовой проверки сразу всех видов частотностей запросов в Яндекс.Вордстат, а также оценки стоимости клика и бюджета в Яндекс.Директе.

Инструмент входит во все платные тарифы со следующими лимитами:
🟠Базовый тариф — 50 000 фраз/мес.
🟠Профессиональный тариф — 100 000 фраз/мес.
🟠Корпоративный тариф — 300 000 фраз/мес.

Если еще нет аккаунта, то с промокодом heymm20 можно получить скидку в 20% на первую оплату.
Ссылка на инструмент - https://www.keys.so/ru/wordstat-list
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Последнюю неделю разбираюсь с новым интерфейсом метрики и это чистый восторг.

Из основного - отдельные дашборды, интерфейс теперь адаптивный, заголовки для группы блоков и легкое перемещение самих блоков по странице.

По SEO для себя вывел самую ценную информацию:
🟠Динамика трафика общая/Яндекс/Google
🟠Динамика трафика по основным типам страниц
🟠Список страниц входа по типам/срезам
🟠Поверх накинул примечания на даты доработок сайта

Таким образом можно быстро узнать динамику посещаемости в разрезе как всего сайта, так и отдельных направлений, с пониманием того, какие действия дали результат.

В общем, как бы не хаяли Яндекс за качество поиска, но для вебмастеров они делают сильно больше чем Google.

P.S на скриншоте только часть данных, большая часть блоков находится ниже
Please open Telegram to view this post
VIEW IN TELEGRAM
2024/06/01 04:08:09
Back to Top
HTML Embed Code: