🧧 Проигранный суд за теги H1
Суд за воровство картинок, претензии от РКН за установленную Я.Метрику и GA? Подержите мое пиво, тут проиграли суд за использование одинаковых тегов H1.
История достаточно старая, но то ли в связи с тем, что ходит по узким чатам и кулуарам, то ли потому что никто её так и не осветил остаётся в тени, хотя претендент шокирует.
Итак, в бойне агрегаторов за место в коммерческой выдаче пока лидирует RegMarkets. Какие рычаги поискового и не поискового продвижения стоят за ним никто кроме создателей не знает, но он уверенно собирает тонны трафика, отодвигая любых конкурентов, в том числе реальные интернет-магазины по крайне жирным запросам.
Напомню, что любой агрегатор ничего не продаёт, он всего лишь собирает в кучу данные с нескольких источников и пытается удобно показать их пользователю. В екоммерсе основным драйвером роста как были категории и теги, так и остаются, что говорить об агрегаторах, которые живут сугубо на листинговых страницах.
Теперь к делу. РегМаркетс легко спарсить, защиты в отличии от других популярных сайтов у них нет, но за этот парсинг вы можете заплатить несколько миллионов рублей.
Отвечаю на ваш немой вопрос "С х#я ли я должен платить за парсинг": база их заголовков H1 запатентована в РосПатенте. Любое пересечение вашего сайта с базой РегМаркетса на больше чем 51% рано или поздно будет обнаружено и ждите повестку в суд.
А с учетом того, что один суд уже выигран, дело будет рассмотрено в ускоренном не в вашу пользу режиме.
➡️ Возможно люди, проигравшие суд, захотят поделиться деталями в комментариях, а у меня на этом всё. Как вы считаете, можно ли патентовать названия категорий?
Суд за воровство картинок, претензии от РКН за установленную Я.Метрику и GA? Подержите мое пиво, тут проиграли суд за использование одинаковых тегов H1.
История достаточно старая, но то ли в связи с тем, что ходит по узким чатам и кулуарам, то ли потому что никто её так и не осветил остаётся в тени, хотя претендент шокирует.
Итак, в бойне агрегаторов за место в коммерческой выдаче пока лидирует RegMarkets. Какие рычаги поискового и не поискового продвижения стоят за ним никто кроме создателей не знает, но он уверенно собирает тонны трафика, отодвигая любых конкурентов, в том числе реальные интернет-магазины по крайне жирным запросам.
Напомню, что любой агрегатор ничего не продаёт, он всего лишь собирает в кучу данные с нескольких источников и пытается удобно показать их пользователю. В екоммерсе основным драйвером роста как были категории и теги, так и остаются, что говорить об агрегаторах, которые живут сугубо на листинговых страницах.
Теперь к делу. РегМаркетс легко спарсить, защиты в отличии от других популярных сайтов у них нет, но за этот парсинг вы можете заплатить несколько миллионов рублей.
Отвечаю на ваш немой вопрос "С х#я ли я должен платить за парсинг": база их заголовков H1 запатентована в РосПатенте. Любое пересечение вашего сайта с базой РегМаркетса на больше чем 51% рано или поздно будет обнаружено и ждите повестку в суд.
А с учетом того, что один суд уже выигран, дело будет рассмотрено в ускоренном не в вашу пользу режиме.
➡️ Возможно люди, проигравшие суд, захотят поделиться деталями в комментариях, а у меня на этом всё. Как вы считаете, можно ли патентовать названия категорий?
🎯 Продвижение больших проектов за 9 шагов
В своё время с удивлением обнаружил, что нет ни единого мануала о том, как работать с большими проектами.
Встречаются отдельные доклады и лекции о том, как проанализировать логи, или как собрать большую семантику, но поэтапных планов работы на просторах интернета нет.
Исправляю ситуацию, записал 30-минутное видео о том, как подступиться к любому крупному сайту, тезисно здесь:
1) Анализ текущей структуры сайта (Screaming Frog SEO Spider);
2) Сбор полного семантического ядра за 10 минут (Групповой отчёт Keys so);
3) Сбор точных частотностей и распределение по группам НЧ/СЧ/ВЧ;
4) Сбор данных поисковой выдачи (выгрузка топ-20 в Key Assort);
5) Анализ конкурентов (поиск лидеров ниши/быстрорастущих сайтов);
6) Подробный анализ ключевых конкурентов (2-3);
7) Построение базовой структуры сайта;
8) Построение полной структуры сайта;
9) Оценка трафика на разделы (на основе кластеров);
В своё время с удивлением обнаружил, что нет ни единого мануала о том, как работать с большими проектами.
Встречаются отдельные доклады и лекции о том, как проанализировать логи, или как собрать большую семантику, но поэтапных планов работы на просторах интернета нет.
Исправляю ситуацию, записал 30-минутное видео о том, как подступиться к любому крупному сайту, тезисно здесь:
1) Анализ текущей структуры сайта (Screaming Frog SEO Spider);
2) Сбор полного семантического ядра за 10 минут (Групповой отчёт Keys so);
3) Сбор точных частотностей и распределение по группам НЧ/СЧ/ВЧ;
4) Сбор данных поисковой выдачи (выгрузка топ-20 в Key Assort);
5) Анализ конкурентов (поиск лидеров ниши/быстрорастущих сайтов);
6) Подробный анализ ключевых конкурентов (2-3);
7) Построение базовой структуры сайта;
8) Построение полной структуры сайта;
9) Оценка трафика на разделы (на основе кластеров);
YouTube
SEO-продвижение крупных проектов в 9 этапов
💲 Платные услуги 💲
► SEO-консультации/аудиты - https://www.tg-me.com/zimin_consult
► SEO-продвижение под ключ - https://www.tg-me.com/zimin_seo
► Накрутка поведенческих факторов (ПФ) - https://www.tg-me.com/zimin_pf
► По всем коммерческим вопросам - https://www.tg-me.com/angetgrowth
--…
► SEO-консультации/аудиты - https://www.tg-me.com/zimin_consult
► SEO-продвижение под ключ - https://www.tg-me.com/zimin_seo
► Накрутка поведенческих факторов (ПФ) - https://www.tg-me.com/zimin_pf
► По всем коммерческим вопросам - https://www.tg-me.com/angetgrowth
--…
🚰 Лидген на запчастях для производств
На волне обсуждения доклада из вот этого поста один из участников закрытого чата поделился интересным подходом к лидгену. Размещаю здесь с его разрешения:
«Да берите малые и редкие производства и клепайте под это сайты. Странно вообще, что были предложены такие дорогие ниши. С малыми бюджетами и без команды там сложно.
Году в 16 или 17 я работал у ребят, которые наладили производство шайб тюбинговых и других комплектующих для строительства туннелей метрополитена. У них был всего один конкурент!
Я конечно же все сделал лучше чем он)) Там сайт держал какой-то дед.
А заказы там на миллионы рублей, сами понимаете. Какую-то шахту оборудовать или метро строить и так далее.
Такого найти можно много. Например, какие-то детали из титана. Тут просто нужно уметь лиды продавать, чтобы не на#бали.
Хотя если найдете адекватного производителя, который поймет, что вы ему прибыль приносите за свой счет, то будет вам счастье.»
На волне обсуждения доклада из вот этого поста один из участников закрытого чата поделился интересным подходом к лидгену. Размещаю здесь с его разрешения:
«Да берите малые и редкие производства и клепайте под это сайты. Странно вообще, что были предложены такие дорогие ниши. С малыми бюджетами и без команды там сложно.
Году в 16 или 17 я работал у ребят, которые наладили производство шайб тюбинговых и других комплектующих для строительства туннелей метрополитена. У них был всего один конкурент!
Я конечно же все сделал лучше чем он)) Там сайт держал какой-то дед.
А заказы там на миллионы рублей, сами понимаете. Какую-то шахту оборудовать или метро строить и так далее.
Такого найти можно много. Например, какие-то детали из титана. Тут просто нужно уметь лиды продавать, чтобы не на#бали.
Хотя если найдете адекватного производителя, который поймет, что вы ему прибыль приносите за свой счет, то будет вам счастье.»
🤡 Яндекс улучшил поиск по запросам от программистов.
«Чтобы лучше оценивать качество и релевантность документа запросу, нейросеть проанализировала множество поисковых запросов и сайтов, связанных с программированием.
Также она может «предсказывать» клики программистов, чтобы выдать наиболее релевантный ответ. Также «Яндекс» доработал виджеты с сайта с ответами на вопросы о программировании Stack Overflow.
Теперь дополнительную информацию можно увидеть без перехода на сайт — вопрос, лучший ответ на него и комментарии, которые могут пригодиться программисту.
Кроме того, улучшилось и отображение сниппетов для GitHub и NPM.»
Источник
«Чтобы лучше оценивать качество и релевантность документа запросу, нейросеть проанализировала множество поисковых запросов и сайтов, связанных с программированием.
Также она может «предсказывать» клики программистов, чтобы выдать наиболее релевантный ответ. Также «Яндекс» доработал виджеты с сайта с ответами на вопросы о программировании Stack Overflow.
Теперь дополнительную информацию можно увидеть без перехода на сайт — вопрос, лучший ответ на него и комментарии, которые могут пригодиться программисту.
Кроме того, улучшилось и отображение сниппетов для GitHub и NPM.»
Источник
🎯 Всё, что нужно знать про перелинковку в Яндексе
Условно я делю всю перелинковку на три типа:
Случайная
Перелинковка идёт через похожие новости, с этим товаром покупают, облако тегов и т.д;
—
Древовидная
Чаще всего относится к SILO структуре и строится она так - Посадочная страница ➡️ Подкатегория ➡️ Категория ➡️ Главная.
Накачка "весом" идёт именно в этом порядке и выполняется обычно через хлебные крошки и прямое указание принадлежности к родительской категории.
—
Кольцевая
Самая простая в реализации, но самая бесчеловечная. На каждой странице выводится ссылка на предыдущие Х постов/товаров.
Огромный плюс в том, что точно участвуют все страницы, вес распределяется равномерно между всеми посадками, а усиливать отдельные страницы можно покупая на них внешние ссылки.
В чистом виде ни одна из них не встречается, но акцент чаще всего прослеживается. Целенаправленно я не использую только случайную перелинковку.
При этом я всегда был сторонником древовидной и успешно вкачивал нужные мне страницы, но тут на одном проекте решил пойти простым путём и залинковать в кольцо. Результаты на скриншоте.
♦️ Здесь важно понимать следующее:
- Если трафик у вас собирают категорийные или листинговые страницы, то линковать нужно уровнями (агрегаторы, ecomm)
- Если трафик аккумулируется на посадках (новостники, статейники ), то линкуем кольцом.
Идеально - комбинировать оба способа.
#technical
Условно я делю всю перелинковку на три типа:
Случайная
Перелинковка идёт через похожие новости, с этим товаром покупают, облако тегов и т.д;
—
Древовидная
Чаще всего относится к SILO структуре и строится она так - Посадочная страница ➡️ Подкатегория ➡️ Категория ➡️ Главная.
Накачка "весом" идёт именно в этом порядке и выполняется обычно через хлебные крошки и прямое указание принадлежности к родительской категории.
—
Кольцевая
Самая простая в реализации, но самая бесчеловечная. На каждой странице выводится ссылка на предыдущие Х постов/товаров.
Огромный плюс в том, что точно участвуют все страницы, вес распределяется равномерно между всеми посадками, а усиливать отдельные страницы можно покупая на них внешние ссылки.
В чистом виде ни одна из них не встречается, но акцент чаще всего прослеживается. Целенаправленно я не использую только случайную перелинковку.
При этом я всегда был сторонником древовидной и успешно вкачивал нужные мне страницы, но тут на одном проекте решил пойти простым путём и залинковать в кольцо. Результаты на скриншоте.
♦️ Здесь важно понимать следующее:
- Если трафик у вас собирают категорийные или листинговые страницы, то линковать нужно уровнями (агрегаторы, ecomm)
- Если трафик аккумулируется на посадках (новостники, статейники ), то линкуем кольцом.
Идеально - комбинировать оба способа.
#technical
Есть много способов найти популярные темы для статей, но тот, о котором пойдет речь ниже нравится особой лаконичностью и скорость подготовки.
Достаточно пробежаться по списку конкурентов и посмотреть, какими данными они делятся в статьях, часто это количество просмотров, комментариев и дата публикации.
Этих показателей нам более чем достаточно: используя XPath и очередной раз запуская лягкушку, достаём указанные выше метрики и экспортируем в Excel.
Можно не лениться и свести данные нескольких проектов в одну таблицу, с дальнейшей сортировкой числа просмотров.
Но и это не всё, разделив число просмотров на количество дней с момента публикации, получим некий коэффициент эффективности. Сортируем по убыванию и теперь мы знаем популярные темы по вашей тематике.
Достаточно пробежаться по списку конкурентов и посмотреть, какими данными они делятся в статьях, часто это количество просмотров, комментариев и дата публикации.
Этих показателей нам более чем достаточно: используя XPath и очередной раз запуская лягкушку, достаём указанные выше метрики и экспортируем в Excel.
Можно не лениться и свести данные нескольких проектов в одну таблицу, с дальнейшей сортировкой числа просмотров.
Но и это не всё, разделив число просмотров на количество дней с момента публикации, получим некий коэффициент эффективности. Сортируем по убыванию и теперь мы знаем популярные темы по вашей тематике.
YouTube
Нестандартный способ найти популярные темы для статей
Рассказываю, как через анализ конкурентов искать популярные темы для вашего сайта. Как обычно, используем Screaming Frog SEO Spider и Google Таблицы.
--
💲 Платные услуги 💲
► SEO-консультации/аудиты - https://www.tg-me.com/zimin_consult
► SEO-продвижение под ключ…
--
💲 Платные услуги 💲
► SEO-консультации/аудиты - https://www.tg-me.com/zimin_consult
► SEO-продвижение под ключ…
⚙️ Про техничку в SEO
Сейчас будет непопулярное мнение про технические работы на сайте поскольку многие на них зарабатывают. В студиях выделяется чуть ли не весь первый месяц для вылизывания технички, кто-то продаёт их отдельно, причём по ценам от 5 до 50 тыс рублей, соревнуясь кто больше параметров проверит, вплоть до 200 шт.
А проведение предпродажного аудита с трехтомным автоматическим отчётом о каждой (часто надуманной) проблеме - это уже золотой стандарт, подающийся под соусом - "как вы живёте с таким криминалом"?
Более того, есть люди которые специализируются на ковырянии сайта и доведения его до идеала, это те кому мешают 95 балов в Google Page Speed вместо 100, или не дай бог ошибки в валидации HTML кода. В любом случае, это люди оторванные от реальности и цель там исправление ради исправления, а не рост трафика.
Сразу оговоримся, если на сайте 100% дублей метатегов, стоит Disallow: / и на половине страниц кольцевые 301 редиректы - для вас техничка сработает, но это частные случаи.
Почему так ⁉️
- Нет ни одного исследования, где увеличение скорости загрузки сайта или увеличение баллов Page Speed привело бы к росту трафика. Давайте не брать крайние случаи, когда сайт грузился 10 секунд, а стал 2, там физически пользователю мешали сайтом пользоваться, но таких примеров - единицы.
- 301 и 404 не делают ничего кроме экономии краулингового бюджета и экономии ссылочного веса. До 100к страниц сам Мюллер сказал забыть про эти проблемы с краулингом, а типичные 1% 301/404 кардинально не перераспределят вес.
- Дубли метатегов это не техническая проблема, а проблема текстовой оптимизации, правильный шаблон решает её, в любом другом случае ПС и так разобралась какая страница более релевантная и продолжит её ранжировать без потуг с исправлением.
Аналогично можно пройтись по остальным пунктам, но смысл тут один - исправляя техничку, вы чуть упрощаете задачу поисковикам, но корреляции с ростом позиции в этих работах почти никогда нет.
Надо ли исправлять эти проблемы ⁉️
Обязательно, но приоритет отдавать только критическим ошибкам (остальное по остаточному принципу), которые могут помешать росту после внедрения полезных действий:
- Создание новых посадок и контента;
- Обновление старого контента;
- Работа со структурой сайта и страниц;
Когда техничка работает на рост трафика ⁉️
- Для сверхконкурентных ниш, в том числе в бурже, но здесь уже другие правила;
- При продвижении больших проектов, когда есть реальные сложности с краулинговым бюджетом, доступностью страниц без хорошей перелинковки, дублями контентных страниц, например, в силу большого числа авторов (UGC).
Считаете что тех. аудит работает и нужен во всех подробностях? Ответьте на вопрос - будете ли вы внедрять все пункты на своем собственном проекте за свои деньги или потратите ресурсы и бюджет на другие работы?
Сейчас будет непопулярное мнение про технические работы на сайте поскольку многие на них зарабатывают. В студиях выделяется чуть ли не весь первый месяц для вылизывания технички, кто-то продаёт их отдельно, причём по ценам от 5 до 50 тыс рублей, соревнуясь кто больше параметров проверит, вплоть до 200 шт.
А проведение предпродажного аудита с трехтомным автоматическим отчётом о каждой (часто надуманной) проблеме - это уже золотой стандарт, подающийся под соусом - "как вы живёте с таким криминалом"?
Более того, есть люди которые специализируются на ковырянии сайта и доведения его до идеала, это те кому мешают 95 балов в Google Page Speed вместо 100, или не дай бог ошибки в валидации HTML кода. В любом случае, это люди оторванные от реальности и цель там исправление ради исправления, а не рост трафика.
Сразу оговоримся, если на сайте 100% дублей метатегов, стоит Disallow: / и на половине страниц кольцевые 301 редиректы - для вас техничка сработает, но это частные случаи.
Почему так ⁉️
- Нет ни одного исследования, где увеличение скорости загрузки сайта или увеличение баллов Page Speed привело бы к росту трафика. Давайте не брать крайние случаи, когда сайт грузился 10 секунд, а стал 2, там физически пользователю мешали сайтом пользоваться, но таких примеров - единицы.
- 301 и 404 не делают ничего кроме экономии краулингового бюджета и экономии ссылочного веса. До 100к страниц сам Мюллер сказал забыть про эти проблемы с краулингом, а типичные 1% 301/404 кардинально не перераспределят вес.
- Дубли метатегов это не техническая проблема, а проблема текстовой оптимизации, правильный шаблон решает её, в любом другом случае ПС и так разобралась какая страница более релевантная и продолжит её ранжировать без потуг с исправлением.
Аналогично можно пройтись по остальным пунктам, но смысл тут один - исправляя техничку, вы чуть упрощаете задачу поисковикам, но корреляции с ростом позиции в этих работах почти никогда нет.
Надо ли исправлять эти проблемы ⁉️
Обязательно, но приоритет отдавать только критическим ошибкам (остальное по остаточному принципу), которые могут помешать росту после внедрения полезных действий:
- Создание новых посадок и контента;
- Обновление старого контента;
- Работа со структурой сайта и страниц;
Когда техничка работает на рост трафика ⁉️
- Для сверхконкурентных ниш, в том числе в бурже, но здесь уже другие правила;
- При продвижении больших проектов, когда есть реальные сложности с краулинговым бюджетом, доступностью страниц без хорошей перелинковки, дублями контентных страниц, например, в силу большого числа авторов (UGC).
Считаете что тех. аудит работает и нужен во всех подробностях? Ответьте на вопрос - будете ли вы внедрять все пункты на своем собственном проекте за свои деньги или потратите ресурсы и бюджет на другие работы?
OZON открыл к индексации результаты поиска.
Пару лет назад подобным образом поступил Яндекс.Маркет, чем породил немало рофлов на тему применения дорвейных технологии, против которых боролся сам.
Результатом стала тотальная монополизация выдачи, поскольку на любой запрос в Яндексе показывался результат поиска по тому же запросу в Яндекс.Маркете, а это -1 место в органике для адекватного екоммерса.
С учетом бешенного траста Озона, стоит ожидать прекрасного ранжирования подобных страниц, а загнать их в индекс не составит труда (перелинковка + sitemap).
Решение понятное, 700 тысяч тегов было делать долго и дорого, куда проще собрать базу живых поисковых запросов и сгенерировать под них страницы.
Пару лет назад подобным образом поступил Яндекс.Маркет, чем породил немало рофлов на тему применения дорвейных технологии, против которых боролся сам.
Результатом стала тотальная монополизация выдачи, поскольку на любой запрос в Яндексе показывался результат поиска по тому же запросу в Яндекс.Маркете, а это -1 место в органике для адекватного екоммерса.
С учетом бешенного траста Озона, стоит ожидать прекрасного ранжирования подобных страниц, а загнать их в индекс не составит труда (перелинковка + sitemap).
Решение понятное, 700 тысяч тегов было делать долго и дорого, куда проще собрать базу живых поисковых запросов и сгенерировать под них страницы.
13 октября в 11:00 выступаю с темой: «7 шагов для начала SEO-продвижения больших проектов» у Михаила Шакина
—
Как преодолеть ступор перед началом работы над большим проектом? Как найти мощные точки роста у конкурентов и слабые места на сайте? Как правильно расставить приоритеты в работе над разделами? Как построить долгосрочную стратегию?
—
Много реальных примеров, важные нюансы и ответы на вопросы. Приходите ✌️
Полный анонс и все ссылки на трансляции.
—
Как преодолеть ступор перед началом работы над большим проектом? Как найти мощные точки роста у конкурентов и слабые места на сайте? Как правильно расставить приоритеты в работе над разделами? Как построить долгосрочную стратегию?
—
Много реальных примеров, важные нюансы и ответы на вопросы. Приходите ✌️
Полный анонс и все ссылки на трансляции.
YouTube
7 шагов для начала SEO-продвижения больших проектов
Как преодолеть ступор перед началом работы над большим проектом? Как найти мощные точки роста у конкурентов и слабые места на сайте? Как правильно расставить приоритеты в работе над разделами? Как построить долгосрочную стратегию? Смотрите вебинар Ивана Зимина.…
😢 История одного фейла
Не всё же кейсы про успешный успех постить, бывают и промахи, эта история про один из них.
Клиент - портал, в котором есть раздел со статьями. Статьи берут на себя ощутимую часть трафика (~20%).
Особенность публикации статей - дробление на подстраницы. Например, 10 лучших шуруповертов, и каждый на своей странице.
Сделано это специально несколько лет назад, для увеличения числа просмотров на сайте, но есть нюанс:
- релевантная плавает между этими подстраницами;
- отдельные подстраницы проигрывают лонгридам по объему и содержанию.
Разбираясь в ситуации, выгружаю пул запросов, снимаю выдачу для Яндекса и Google отдельно - в обоих ситуациях, топ держат лонгриды.
Принимаем следующее решение:
- Объединяем отдельные подстатьи в одну большую (тех. возможность есть);
- 301 редирект со всех подстраниц на основную.
Итог - провал трафика в ПС Google и не перекрывший его рост трафика в Яндексе, всего на раздел -10%.
Откатываться не стали, но причины обиды Google до сих пор не понятны.
Не всё же кейсы про успешный успех постить, бывают и промахи, эта история про один из них.
Клиент - портал, в котором есть раздел со статьями. Статьи берут на себя ощутимую часть трафика (~20%).
Особенность публикации статей - дробление на подстраницы. Например, 10 лучших шуруповертов, и каждый на своей странице.
Сделано это специально несколько лет назад, для увеличения числа просмотров на сайте, но есть нюанс:
- релевантная плавает между этими подстраницами;
- отдельные подстраницы проигрывают лонгридам по объему и содержанию.
Разбираясь в ситуации, выгружаю пул запросов, снимаю выдачу для Яндекса и Google отдельно - в обоих ситуациях, топ держат лонгриды.
Принимаем следующее решение:
- Объединяем отдельные подстатьи в одну большую (тех. возможность есть);
- 301 редирект со всех подстраниц на основную.
Итог - провал трафика в ПС Google и не перекрывший его рост трафика в Яндексе, всего на раздел -10%.
Откатываться не стали, но причины обиды Google до сих пор не понятны.
⭐️ Способ массового внедрения тегирования ⭐️
Последние несколько дней изрядно кипел над задачей по массовому внедрению тегов для агрегатора. Трёх лет и армии джунов у меня нет, поэтому автоматизация наше всё.
При решении этой задачи есть три ключевых проблемы:
1. Сбор полного списка тегов;
2. Привязка собранных тегов к категориям;
3. Наполнение товаром.
1. Первое что приходит на ум - собрать групповой отчёт по конкурентам с полной семантикой, снять частотность, срезать все запросы с 1 словом и больше 4 слов. И если закрыть глаза, на то что там будет куча товарных запросов (не категорийных) сталкиваемся с серьезной проблемой - из запросов режутся все символы и переводятся в нижний регистр, как следствие получаем, например, такое:
* манометр для воды 3 4
* шланг для душа 3 8
Даже если и проиндексируются такие страницы, то показывать случайно зашедшим пользователям будет стыдно. Поэтому заранее отправляем любую сумму на благотворительность, запускаем лягушку и идём грешить. 🤷♂️
Если верить в гипотезу, что крупные SEO отделы конкурентов за вас провели работу по сбору тегов, то нам остаётся просто спарсить H1, в котором тег находится в нужном регистре и в правильной словоформе. Используя XPath и немного наблюдательности запускаем скан только на категории и теги (которые часто не отличить от категорий). Забрать нужно следующие данные:
URL | H1 | Хлебные крошки (для понимания принадлежности к категории)
Нормально столкнуться с тем, что скан лягушкой забанен, тогда с аналогичной задачей идём на фриланс к специалистам по парсингу. Итоговый список категорий и тегов прогоняем на "частотность", чтобы срезать все пустышки. Зная нашу структуру категорий минусуем все прямые совпадения, остальное будем считать тегами.
2. Теперь наша задача привязать список тегов к категориям. Если бы теги мы забирали с одного проекта, за пару дней можно было подготовить связь структур, но что делать, когда доноров с тегами много? Правильно, включать мозг.
Кто у нас разбирается в релевантности? Яндекс и Google. Формируем Excel файл, в котором по формуле добавляем запросы:
📌 site:vashsite.ru {тут_название_тега} "какая-нибудь маска текста из тайтла категории"
Осталось по этой маске получить первый релевантный ответ из выдачи поисковика - это и будет ближайшая к тегу категория с вашего сайта. Сделать это можно, например, через KeyAssort.
3. Теперь имея тег, остаётся привязать товары. Используем вышеуказанный способ, только вместо маски категории используем маску товара, и результатов не 1, а например 50 или 100. Дальше остаётся импортировать всё на сайт. Как только появляется видимость по тегу - вручную корректируем подборку товаров, добавляем более релевантные или удаляем лишние.
Последние несколько дней изрядно кипел над задачей по массовому внедрению тегов для агрегатора. Трёх лет и армии джунов у меня нет, поэтому автоматизация наше всё.
При решении этой задачи есть три ключевых проблемы:
1. Сбор полного списка тегов;
2. Привязка собранных тегов к категориям;
3. Наполнение товаром.
1. Первое что приходит на ум - собрать групповой отчёт по конкурентам с полной семантикой, снять частотность, срезать все запросы с 1 словом и больше 4 слов. И если закрыть глаза, на то что там будет куча товарных запросов (не категорийных) сталкиваемся с серьезной проблемой - из запросов режутся все символы и переводятся в нижний регистр, как следствие получаем, например, такое:
* манометр для воды 3 4
* шланг для душа 3 8
Даже если и проиндексируются такие страницы, то показывать случайно зашедшим пользователям будет стыдно. Поэтому заранее отправляем любую сумму на благотворительность, запускаем лягушку и идём грешить. 🤷♂️
Если верить в гипотезу, что крупные SEO отделы конкурентов за вас провели работу по сбору тегов, то нам остаётся просто спарсить H1, в котором тег находится в нужном регистре и в правильной словоформе. Используя XPath и немного наблюдательности запускаем скан только на категории и теги (которые часто не отличить от категорий). Забрать нужно следующие данные:
URL | H1 | Хлебные крошки (для понимания принадлежности к категории)
Нормально столкнуться с тем, что скан лягушкой забанен, тогда с аналогичной задачей идём на фриланс к специалистам по парсингу. Итоговый список категорий и тегов прогоняем на "частотность", чтобы срезать все пустышки. Зная нашу структуру категорий минусуем все прямые совпадения, остальное будем считать тегами.
2. Теперь наша задача привязать список тегов к категориям. Если бы теги мы забирали с одного проекта, за пару дней можно было подготовить связь структур, но что делать, когда доноров с тегами много? Правильно, включать мозг.
Кто у нас разбирается в релевантности? Яндекс и Google. Формируем Excel файл, в котором по формуле добавляем запросы:
📌 site:vashsite.ru {тут_название_тега} "какая-нибудь маска текста из тайтла категории"
Осталось по этой маске получить первый релевантный ответ из выдачи поисковика - это и будет ближайшая к тегу категория с вашего сайта. Сделать это можно, например, через KeyAssort.
3. Теперь имея тег, остаётся привязать товары. Используем вышеуказанный способ, только вместо маски категории используем маску товара, и результатов не 1, а например 50 или 100. Дальше остаётся импортировать всё на сайт. Как только появляется видимость по тегу - вручную корректируем подборку товаров, добавляем более релевантные или удаляем лишние.
🔴 Сегодня в 20:00 проведём прямой эфир на тему "Как пробивать стеклянные потолки"
«Вот бывает же так: упираешься в некую сумму и все. Ни вниз, ни вверх с нее не сойти. Пробуешь и так, и иначе: методы, подходы, инструменты, а результат тот же. И не понимаешь, что и как делать, чтобы этот потолок пробить.»
Всем кому актуально, интересно, есть чем поделиться - приходите. Формат следующий - приглашенный гость Тарас Усатый поделится своими мыслями и наблюдениями на этот счёт, а мы обсудим, поспорим и попробуем прийти к правильным выводам.
«Вот бывает же так: упираешься в некую сумму и все. Ни вниз, ни вверх с нее не сойти. Пробуешь и так, и иначе: методы, подходы, инструменты, а результат тот же. И не понимаешь, что и как делать, чтобы этот потолок пробить.»
Всем кому актуально, интересно, есть чем поделиться - приходите. Формат следующий - приглашенный гость Тарас Усатый поделится своими мыслями и наблюдениями на этот счёт, а мы обсудим, поспорим и попробуем прийти к правильным выводам.
⚙️ 4 способа выгрузить запросы из панелей Google и Яндекс
—
Привет, друзья, в связи с осенней хандрой и возросшей нагрузкой, немного выпал из регулярного постинга нового контента, но обязательно продолжу чуть позже, теперь к теме.
—
Google Search Console и Yandex Webmaster / Metrika - лучший способ получить живые ключи для дальнейшей работы, идеально подходят для поиска упущенной семантики, а также при поиске точек роста и точечной доработке страниц.
❗️Важно помнить! Предоставляя доступ к своим аккаунтам, вы даёте право сервисам выгружать запросы от всех добавленных в панели сайтов. Из первых уст знаю, что такие случаи были. Если для вас это недопустимо, необходимо писать свой коннектор через API сервисов.
Теперь разбираемся, какими готовыми инструментами это можно сделать:
1️⃣ Search Analytics for Sheets - надстройка для Google Sheets, позволяющая выгружать данные прямо в таблицу.
К сожалению, совсем недавно они перешли на платную модель.
Бесплатная осталась, но с сильным ограничением функционала - можно получить 25 000 запросов, еще неделю назад я выгружал 700 000 запросов.
Для небольших проектов все еще подходит, для больших - нужно будет оплатить. Плагин работает только с GSC.
2️⃣ TopVisor - позволяет выгружать сразу из 4-х сервисов: Yandex Webmaster / Metrika, Google Search Console / Analytics.
Из минусов - ооочень долгая подготовка данных для больших проектов. Инструмент называется "Магнит". Пользоваться можно бесплатно, выгружая запросы и экспортируя их к себе.
3️⃣ Key Collector - представлять не нужно. Позволяет выгружать данные из всех сервисов, кроме Яндекс.Вебмастер. Программа платная - 2200 руб.
4️⃣ SimpleWebAnalytics - бесплатная программа, разработанная специально для выгрузки всех запросов из указанных сервисов. Но есть один жирный нюанс, при попытке подключить GA - Google запрещает доступ с сообщением:
Приложение заблокировано - Это приложение пыталось получить доступ к конфиденциальной информации в вашем аккаунте Google.
При этом Google Search Console подключается без проблем.
Расскажите, какими способами пользуете вы?
—
Привет, друзья, в связи с осенней хандрой и возросшей нагрузкой, немного выпал из регулярного постинга нового контента, но обязательно продолжу чуть позже, теперь к теме.
—
Google Search Console и Yandex Webmaster / Metrika - лучший способ получить живые ключи для дальнейшей работы, идеально подходят для поиска упущенной семантики, а также при поиске точек роста и точечной доработке страниц.
❗️Важно помнить! Предоставляя доступ к своим аккаунтам, вы даёте право сервисам выгружать запросы от всех добавленных в панели сайтов. Из первых уст знаю, что такие случаи были. Если для вас это недопустимо, необходимо писать свой коннектор через API сервисов.
Теперь разбираемся, какими готовыми инструментами это можно сделать:
1️⃣ Search Analytics for Sheets - надстройка для Google Sheets, позволяющая выгружать данные прямо в таблицу.
К сожалению, совсем недавно они перешли на платную модель.
Бесплатная осталась, но с сильным ограничением функционала - можно получить 25 000 запросов, еще неделю назад я выгружал 700 000 запросов.
Для небольших проектов все еще подходит, для больших - нужно будет оплатить. Плагин работает только с GSC.
2️⃣ TopVisor - позволяет выгружать сразу из 4-х сервисов: Yandex Webmaster / Metrika, Google Search Console / Analytics.
Из минусов - ооочень долгая подготовка данных для больших проектов. Инструмент называется "Магнит". Пользоваться можно бесплатно, выгружая запросы и экспортируя их к себе.
3️⃣ Key Collector - представлять не нужно. Позволяет выгружать данные из всех сервисов, кроме Яндекс.Вебмастер. Программа платная - 2200 руб.
4️⃣ SimpleWebAnalytics - бесплатная программа, разработанная специально для выгрузки всех запросов из указанных сервисов. Но есть один жирный нюанс, при попытке подключить GA - Google запрещает доступ с сообщением:
Приложение заблокировано - Это приложение пыталось получить доступ к конфиденциальной информации в вашем аккаунте Google.
При этом Google Search Console подключается без проблем.
Расскажите, какими способами пользуете вы?
⁉️ Почему у тебя нет результатов в SEO
Недавний поиск людей в команду подсветил интересный факт - большинство годами занимается SEO и не имеют результатов.
И под результатами я понимаю даже не взрывной рост трафика, а просто хорошо выполненные задачи, например, собранная семантика или разработанная структура сайта.
Мы сейчас опустим момент смысловой нагрузки на занятие той или иной деятельностью, а коснёмся лишь профессиональной составляющей.
Разберём на конкретных ситуациях, как поступает большинство и как нужно действовать, чтобы со временем начать видеть позитивный отклик, а не просто отчитываться о проделанной работе.
—
➡️ Работа с контентом
Просто: несколько поисковых фраз с вордстата, которые отправляются в сервис автоматической генерации ТЗ. Копирайтер пишет рерайт на основе 1-2 источников, которые он нашёл по самой частотной фразе из кластера.
Правильно: сбор всей семантики для кластера из нескольких источников, поиск самых видимых по кластеру страниц в топе, разработка лучшей структуры текста в топе, определение главного интента и попытка дать максимально ёмкий ответ в статье, использование изображений, видео, списков.
➡️ Сбор семантического ядра
Просто: выгрузить запросы по нескольким маскам из Wordstat
Правильно: использовать все доступные источники для сбора запросов: сервисы Яндекс и Google, Bukvarix, Keys.so, подсказки.
➡️ Разработка структуры сайта
Просто: в лучшем случае копирование структуры одного найденного конкурента
Правильно: анализ структур минимум 5 конкурентов с наибольшей видимостью, которые найдены на основе полного семантического ядра.
➡️ Ссылочная стратегия
Просто: купить несколько ссылок в рамках бюджета на GGL / MiraLinks
Правильно: изучить ссылочные стратегии ключевых конкурентов, измерить скорость прироста ссылочной массы, источники ссылок, не ограничиваться только статейным продвижением, а подключать перехват дропов, участие в аукционах, восстанавливать и подклеивать дропы, работать с tier2-tier3 ссылками.
—
На простой путь затрачивается кратно меньше сил, энергии и вы гарантировано не получите результат, потому что базовое SEO делают все. К сожалению, именно так работают во многих студиях, поскольку сотрудник заинтересован в выполнении поставленного плана, а не в достижении результата у клиента, ведь его ЗП от этого не меняется.
Правильный путь всего лишь повышает шанс получить трафик, но ответственный подход к каждой задаче на длительной дистанции приводит к фундаментально более качественному пониманию закономерностей в работе ПС.
Недавний поиск людей в команду подсветил интересный факт - большинство годами занимается SEO и не имеют результатов.
И под результатами я понимаю даже не взрывной рост трафика, а просто хорошо выполненные задачи, например, собранная семантика или разработанная структура сайта.
Мы сейчас опустим момент смысловой нагрузки на занятие той или иной деятельностью, а коснёмся лишь профессиональной составляющей.
Разберём на конкретных ситуациях, как поступает большинство и как нужно действовать, чтобы со временем начать видеть позитивный отклик, а не просто отчитываться о проделанной работе.
—
➡️ Работа с контентом
Просто: несколько поисковых фраз с вордстата, которые отправляются в сервис автоматической генерации ТЗ. Копирайтер пишет рерайт на основе 1-2 источников, которые он нашёл по самой частотной фразе из кластера.
Правильно: сбор всей семантики для кластера из нескольких источников, поиск самых видимых по кластеру страниц в топе, разработка лучшей структуры текста в топе, определение главного интента и попытка дать максимально ёмкий ответ в статье, использование изображений, видео, списков.
➡️ Сбор семантического ядра
Просто: выгрузить запросы по нескольким маскам из Wordstat
Правильно: использовать все доступные источники для сбора запросов: сервисы Яндекс и Google, Bukvarix, Keys.so, подсказки.
➡️ Разработка структуры сайта
Просто: в лучшем случае копирование структуры одного найденного конкурента
Правильно: анализ структур минимум 5 конкурентов с наибольшей видимостью, которые найдены на основе полного семантического ядра.
➡️ Ссылочная стратегия
Просто: купить несколько ссылок в рамках бюджета на GGL / MiraLinks
Правильно: изучить ссылочные стратегии ключевых конкурентов, измерить скорость прироста ссылочной массы, источники ссылок, не ограничиваться только статейным продвижением, а подключать перехват дропов, участие в аукционах, восстанавливать и подклеивать дропы, работать с tier2-tier3 ссылками.
—
На простой путь затрачивается кратно меньше сил, энергии и вы гарантировано не получите результат, потому что базовое SEO делают все. К сожалению, именно так работают во многих студиях, поскольку сотрудник заинтересован в выполнении поставленного плана, а не в достижении результата у клиента, ведь его ЗП от этого не меняется.
Правильный путь всего лишь повышает шанс получить трафик, но ответственный подход к каждой задаче на длительной дистанции приводит к фундаментально более качественному пониманию закономерностей в работе ПС.
Некоторое время назад писал пост, что техничка в SEO крайне слабо коррелирует с результатами в виде позиций и трафика.
Ожидаемо были несогласные, а сегодня я принёс пруфы, пациент - Sravni.ru.
Полный скан (500 тыс. страниц) даёт следующий расклад:
- 23% - 301 редиректов (это 100 тыс. страниц);
- 5% - 404 страницы (ещё 25 тыс. страниц);
- 1% дублей Title;
- 4% дублей Description
Причины возникновения проблем забавные:
- Раздел /otzyv/ переехал в /otzyvy/, ссылки не поменяли, срабатывает редирект;
- Для раздела "Страховые компании" в шаблоне забыли переменную города, поэтому для всех страниц там Нижний Новгород;
- При формировании шаблона метатегов не подставляется город (Банки у метро Площадь Ленина), считать, что в России только одна площадь Ленина - фатальная ошибка 😀
Ошибок там вагон, связаны они с невнимательностью и хорошо бы их исправить.
Выводов не будет, только пара риторических вопросов:
- мешают ли им эти ошибки быть топ-1 в финансовой сфере?
- сколько трафика они получат, если исправят их?
Ожидаемо были несогласные, а сегодня я принёс пруфы, пациент - Sravni.ru.
Полный скан (500 тыс. страниц) даёт следующий расклад:
- 23% - 301 редиректов (это 100 тыс. страниц);
- 5% - 404 страницы (ещё 25 тыс. страниц);
- 1% дублей Title;
- 4% дублей Description
Причины возникновения проблем забавные:
- Раздел /otzyv/ переехал в /otzyvy/, ссылки не поменяли, срабатывает редирект;
- Для раздела "Страховые компании" в шаблоне забыли переменную города, поэтому для всех страниц там Нижний Новгород;
- При формировании шаблона метатегов не подставляется город (Банки у метро Площадь Ленина), считать, что в России только одна площадь Ленина - фатальная ошибка 😀
Ошибок там вагон, связаны они с невнимательностью и хорошо бы их исправить.
Выводов не будет, только пара риторических вопросов:
- мешают ли им эти ошибки быть топ-1 в финансовой сфере?
- сколько трафика они получат, если исправят их?
🗣 Навык активного языка или как быстрее приступать к сложным задачам
Привет, друзья, сегодня хочу поделиться одной небольшой привычкой, которая серьёзно повысила эффективность выполнения больших и сложных задач.
Раньше, планируя рабочий день/неделю, я фиксировал их примерно в таком виде:
- Обсудить условия договора;
- Найти проблему плохого ранжирования сайта;
- Начать учить английский язык.
Эти задачи могли переезжать изо дня в день, из месяца в месяц, без какого-либо намека на прогресс. Так продолжалось, пока я не наткнулся на не очень популярный термин в рамках платного курса, который звучал как "Навык активного языка".
Проблематика обозначалась следующим образом: формулируя задачу, мы отправляем её в подсознание и мозг фоном ищет способы её решения, и если к моменту когда вы захотите к ней подступиться - конкретного решения нет, вы её откладываете.
Суть подхода - избавиться от неопределенных слов "найти", "придумать", "обсудить" и т.д. Эти слова не подразумевают никакого конкретного действия, подсознание, ожидаемо, не знает, что значит подумать над проблемой и как следствие ни в какой момент времени решения задачи у него нет.
Всё что необходимо сделать, на этапе формулировки задачи для себя самого не просто декомпилировать её на более простые пункты, а сделать это с указанием конкретных действий, не подразумевающих вариаций, разберём на примере:
Было: Найти проблему плохого индексирования сайта
Стало: Проблема плохого индексирования. 1. Запустить сканирование сайта. 2. Зайти в раздел "Статистика сканирования". 3. Запросить логи сервера у Имя Фамилия. 4. Импортировать логи в Log Analyser.
Теперь возвращаясь к задаче, вам уже понятно что с ней делать: для начала запустить лягушку, дело сдвинулось.
Слышали про такой подход? Используете ли его в работе?
Привет, друзья, сегодня хочу поделиться одной небольшой привычкой, которая серьёзно повысила эффективность выполнения больших и сложных задач.
Раньше, планируя рабочий день/неделю, я фиксировал их примерно в таком виде:
- Обсудить условия договора;
- Найти проблему плохого ранжирования сайта;
- Начать учить английский язык.
Эти задачи могли переезжать изо дня в день, из месяца в месяц, без какого-либо намека на прогресс. Так продолжалось, пока я не наткнулся на не очень популярный термин в рамках платного курса, который звучал как "Навык активного языка".
Проблематика обозначалась следующим образом: формулируя задачу, мы отправляем её в подсознание и мозг фоном ищет способы её решения, и если к моменту когда вы захотите к ней подступиться - конкретного решения нет, вы её откладываете.
Суть подхода - избавиться от неопределенных слов "найти", "придумать", "обсудить" и т.д. Эти слова не подразумевают никакого конкретного действия, подсознание, ожидаемо, не знает, что значит подумать над проблемой и как следствие ни в какой момент времени решения задачи у него нет.
Всё что необходимо сделать, на этапе формулировки задачи для себя самого не просто декомпилировать её на более простые пункты, а сделать это с указанием конкретных действий, не подразумевающих вариаций, разберём на примере:
Было: Найти проблему плохого индексирования сайта
Стало: Проблема плохого индексирования. 1. Запустить сканирование сайта. 2. Зайти в раздел "Статистика сканирования". 3. Запросить логи сервера у Имя Фамилия. 4. Импортировать логи в Log Analyser.
Теперь возвращаясь к задаче, вам уже понятно что с ней делать: для начала запустить лягушку, дело сдвинулось.
Слышали про такой подход? Используете ли его в работе?
🎯 Быстро находим страницы для проработки
Сегодня понедельник, а значит пора решать с какими страницами будем работать на этой неделе. Предлагаю свой способ по поиску перспективных страниц для доработки.
1. Любым понравившимся способом выгружаем запросы из GSC, больше - лучше, данные будут точнее;
2. Создаём и настраиваем проект в TopVisor;
3. Импортируем всю пачку запросов без предварительной кластеризации;
4. Снимаем позиции, точную частотность и переходим в раздел "Поисковые запросы";
5. Не забываем переключиться в расширенный режим (цифра 1);
6. Жмём на кнопку "Кластеризация" -> "Группировка по релевантности" (цифра 2);
7. Настраиваем вид блока с группами - добавляем отображение суммарной частотности и средней позиции;
8. Сортируем группы по убыванию частоты и ищем те, что имеют среднюю близкую к топ-10;
9. Используя готовый кластер запросов, проверяем на вхождения текст на странице в любом анализаторе (раз, два, три, мне нравится три);
10. Проверяем, все ли запросы учли, если не все - дорабатываем текст.
Готово, работой на ближайшую неделю вы обеспечены.
📸 Скриншоты с пояснениями в первом комментарии.
Сегодня понедельник, а значит пора решать с какими страницами будем работать на этой неделе. Предлагаю свой способ по поиску перспективных страниц для доработки.
1. Любым понравившимся способом выгружаем запросы из GSC, больше - лучше, данные будут точнее;
2. Создаём и настраиваем проект в TopVisor;
3. Импортируем всю пачку запросов без предварительной кластеризации;
4. Снимаем позиции, точную частотность и переходим в раздел "Поисковые запросы";
5. Не забываем переключиться в расширенный режим (цифра 1);
6. Жмём на кнопку "Кластеризация" -> "Группировка по релевантности" (цифра 2);
7. Настраиваем вид блока с группами - добавляем отображение суммарной частотности и средней позиции;
8. Сортируем группы по убыванию частоты и ищем те, что имеют среднюю близкую к топ-10;
9. Используя готовый кластер запросов, проверяем на вхождения текст на странице в любом анализаторе (раз, два, три, мне нравится три);
10. Проверяем, все ли запросы учли, если не все - дорабатываем текст.
Готово, работой на ближайшую неделю вы обеспечены.
📸 Скриншоты с пояснениями в первом комментарии.
Telegram
Hey, moneymaker!
⚙️ 4 способа выгрузить запросы из панелей Google и Яндекс
—
Привет, друзья, в связи с осенней хандрой и возросшей нагрузкой, немного выпал из регулярного постинга нового контента, но обязательно продолжу чуть позже, теперь к теме.
—
Google Search Console…
—
Привет, друзья, в связи с осенней хандрой и возросшей нагрузкой, немного выпал из регулярного постинга нового контента, но обязательно продолжу чуть позже, теперь к теме.
—
Google Search Console…
Forwarded from SEO без воды
SEO Black Friday
keys.so — -25% на все тарифы по ссылке.
PixelTools — -25% по коду BlackFriday2022.
Arsenkin Tools — -30% по коду BLACKFRIDAY2022.
Rush Analytics — -40% по ссылке.
CheckTrust — -25% на тарифы по коду CT556772F8.
SEMRush — -40% на тариф Gugu по ссылке.
SurferSEO — скидки 25.11.2022 по ссылке.
GSA Search Engine Ranker — -20% по ссылке и коду Spring.
SEO Autopilot — скидки по ссылке.
KWFinder — -30% по ссылке и ссылке.
RankerX — -200$ по коду BLACKFRIDAY2022.
RankMath — -62% по ссылке.
Labrika — -90% по ссылке.
Long Tail Pro — -93% на лайфтайм по ссылке.
KnowEm — -30% по ссылке.
Group Buy SEO Tools — -70% по ссылке.
Ranktracker — -79% на лайфтайм по ссылке.
WhitePress — -5% по коду blackfriday-uk.
KontentMachine — -59% по ссылке.
Domain Hunter Gatherer — скидки 25-50% по ссылке.
RankWatch — -25% по коду RW25OFF.
CloserCopy — -25% по коду Superpower.
Sumo Content Pro — -50% по коду blackfriday.
Rankd SEO — -43% по коду BF2022.
KeySearch — -40% по коду BLACKFRIDAY.
Index Inject — -25% по коду BLACKFRIDAY.
OnPage.ai — -55% по ссылке.
SerpStat — -30% по ссылке.
CrawIQ — -60% по ссылке.
Linkly — -92% по ссылке.
keys.so — -25% на все тарифы по ссылке.
PixelTools — -25% по коду BlackFriday2022.
Arsenkin Tools — -30% по коду BLACKFRIDAY2022.
Rush Analytics — -40% по ссылке.
CheckTrust — -25% на тарифы по коду CT556772F8.
SEMRush — -40% на тариф Gugu по ссылке.
SurferSEO — скидки 25.11.2022 по ссылке.
GSA Search Engine Ranker — -20% по ссылке и коду Spring.
SEO Autopilot — скидки по ссылке.
KWFinder — -30% по ссылке и ссылке.
RankerX — -200$ по коду BLACKFRIDAY2022.
RankMath — -62% по ссылке.
Labrika — -90% по ссылке.
Long Tail Pro — -93% на лайфтайм по ссылке.
KnowEm — -30% по ссылке.
Group Buy SEO Tools — -70% по ссылке.
Ranktracker — -79% на лайфтайм по ссылке.
WhitePress — -5% по коду blackfriday-uk.
KontentMachine — -59% по ссылке.
Domain Hunter Gatherer — скидки 25-50% по ссылке.
RankWatch — -25% по коду RW25OFF.
CloserCopy — -25% по коду Superpower.
Sumo Content Pro — -50% по коду blackfriday.
Rankd SEO — -43% по коду BF2022.
KeySearch — -40% по коду BLACKFRIDAY.
Index Inject — -25% по коду BLACKFRIDAY.
OnPage.ai — -55% по ссылке.
SerpStat — -30% по ссылке.
CrawIQ — -60% по ссылке.
Linkly — -92% по ссылке.