Продолжаем рубрику: "Простейшие SEO ошибки", которые мешают вашему проекту расти в поиске.
Почему это проблема?
Если ваш текст выглядит так:
«Купить диван недорого в Москве. Диваны купить дешево. Недорогие диваны Москва»
Google подумает, что это спам, и понизит сайт при очередном обновлении алгоритмов.
Почему это плохо?
Как проверить?
Базово: Откройте любую страницу сайта и прочитайте вслух. Упор в первую очередь на пользу для ваших потенциальных клиентов и уместность текста на странице. Проверьте сервисом, чтобы не было явного перебора по частоте слов.
Дополнительно: Помимо классических текстовых анализов и проверки уникальности, проверьте текст на детекторе генерации с помощью ИИ (на всякий случай).
Что делать?
Представьте, что вы в магазине выбираете товар и задаёте вопросы продавцу-консультанту. Какие ответы вы получите? Цельтесь в первую очередь в пользу для клиента, а не во вписывание ключевых фраз.
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
💯8❤6👍3
💹 Биржа Serpzilla
Serpzilla — это платформа линкбилдинга и зарубежный партнер Sape. Предоставляет те же услуги по покупке и аренде ссылок, но удобнее для нерезидентов. Также на ней больше зарубежных сайтов (говорят что 140 000 сайтов из 29 стран). Обзор платформы выложили на нашем сайте, а ниже лишь приводим выдержку с впечатлениями.
Понравилось большое число фильтров для поиска по базе сайтов, простота их использования. Все интуитивно понятно. Столбцы настраиваются. Сайты легко ищутся и казалось бы, всё норм, но есть один нюанс.
Для одного из зарубежных клиентов мы искали доноров по финансовой тематике. По таким фильтрам:
Нашлось 104 результата. Окей. Смотрим.
Serpzilla берет общие визиты донора (Visits) из сервиса Semrush.com — это просто визиты, не органические, а общие (скрин). У нас в агентстве “Релианта” есть железное правило по выбору доноров — наличие у них органического трафика. Поэтому показатель Visits оказался бесполезным.🤕
Чтобы проверить наличие органики, воспользовались пакетной проверкой в ахрефсе. Сортируем по трафику и видим, что приемлемый органический трафик из Google есть лишь у первых 11 сайтов (из них 2 сомнительных).
А где большие сайты СМИ со 100К органическим трафиком? Мы постоянно их покупаем на Adsy. А здесь их нет совсем.
Вероятно, большинство сайтов в Serpzilla число визитов накручивают, эксплуатируя этот нюанс. Для несведущих людей же прокатывает. Странно, что сама площадка не стремится показывать именно органический трафик, как это реализовано, например, в том же Adsy.
В заключение отметим, что мы искали только финансовые сайты и анализировали не очень большую выборку. Подробный обзор здесь.
@SEOsekretiki
Serpzilla — это платформа линкбилдинга и зарубежный партнер Sape. Предоставляет те же услуги по покупке и аренде ссылок, но удобнее для нерезидентов. Также на ней больше зарубежных сайтов (говорят что 140 000 сайтов из 29 стран). Обзор платформы выложили на нашем сайте, а ниже лишь приводим выдержку с впечатлениями.
Понравилось большое число фильтров для поиска по базе сайтов, простота их использования. Все интуитивно понятно. Столбцы настраиваются. Сайты легко ищутся и казалось бы, всё норм, но есть один нюанс.
Для одного из зарубежных клиентов мы искали доноров по финансовой тематике. По таким фильтрам:
DR Ahrefs — от 20.
Spam Score — до 30%.
Traffic — от 2000 визитов в месяц.
Topic — Финансы.
Нашлось 104 результата. Окей. Смотрим.
Serpzilla берет общие визиты донора (Visits) из сервиса Semrush.com — это просто визиты, не органические, а общие (скрин). У нас в агентстве “Релианта” есть железное правило по выбору доноров — наличие у них органического трафика. Поэтому показатель Visits оказался бесполезным.
Чтобы проверить наличие органики, воспользовались пакетной проверкой в ахрефсе. Сортируем по трафику и видим, что приемлемый органический трафик из Google есть лишь у первых 11 сайтов (из них 2 сомнительных).
А где большие сайты СМИ со 100К органическим трафиком? Мы постоянно их покупаем на Adsy. А здесь их нет совсем.
Вероятно, большинство сайтов в Serpzilla число визитов накручивают, эксплуатируя этот нюанс. Для несведущих людей же прокатывает. Странно, что сама площадка не стремится показывать именно органический трафик, как это реализовано, например, в том же Adsy.
В заключение отметим, что мы искали только финансовые сайты и анализировали не очень большую выборку. Подробный обзор здесь.
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7🔥4
Список такой:
— Видимость по семантическому ядру.
— Количество ключевых фраз в топе (например, по Кейсо и/или Ахрефсу).
— Трафик без роботов.
— Конверсии (цели: звонки, заявки, письма).
— Электронную торговлю для интернет-магазинов (заказы, объем продаж).
— ROI (если подключена сквозная аналитика, например, через Ройстат + коллтрекинг).
Пример. Внедрили "сложные" правки по сайту (по улучшению коммерческих факторов и юзабилити сайта) и получили вот такой красивый график. Всё просто. Бизнесу нужны деньги. Увеличив процент конверсии в звонках, можем с текущего трафика получать больше заявок и продаж для бизнеса нашего клиента.
PS. Обратиться за услугой SEO-продвижения можно написав мне в личку.
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжаем разбирать самые распространенные SEO ошибки, которые мешают расти в органике.
Почему это проблема?
Если у вас маленький сайт, а в топе «М.Видео» или «Авито» вы никогда их не обгоните.
Как проверить?
Вбейте ваш главный запрос в Яндексе или в Google (например, «купить холодильник»). Скриншот топа.
Оцените конкуренцию по наличию в нём “гигантов” типа Ozon или Яндекс.Маркета. Эти сайты невозможно обогнать классическими SEO методами.
Что делать?
Искать нишевые запросы:
Вместо «доставка цветов» → «подписка на цветы москва».
Трафика меньше, но он более целевой и конверсионный. Плюс можно скорректировать бизнес-модель на подписочный вариант. Пока таких конкурентов не так много.
Делайте упор при анализе сайтов конкурентов, которые вам по зубам.
Видео по теме: Как конкурировать с “крупняками”?
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6
📌 Обо мне — https://www.tg-me.com/seosekretiki/3
📌 Ютуб-канал: https://www.youtube.com/@seosekretiki
1 июля — 31 июля
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
Как вы считаете, поведенческие факторы с контекстной рекламы учитываются при ранжировании сайта в органике?
Anonymous Poll
62%
Да
16%
Нет
22%
Посмотреть результаты
👍4
Clean-param
В этом опросе SEO-спецы отвечали, используют ли они в своей работе директиву Clean-param при составлении файла robots.txt или нет. Ответы вы можете посмотреть в самом опросе, ну а в этом посте будет немного теории по теме. С радостью выслушаю дополнения, возможно, где-то я не прав.
Clean-param (далее клины) — если сравнивать с другими методами деиндексации документов, то основным преимуществом будет то, что за счет них можно полноценно учитывать показатели страниц. Последняя фраза не очень понятна, но именно это каждый раз говорит поддержка Яндекса.
Сейчас будет текст, он сложный, но постарайтесь понять.
Учитывая, что директива Disallow просто исключит дальнейшее сканирование документов, мета-тег robots noindex в коде страницы запретит её индексировать (уже после сканирования), теги каноникал, скорее всего, не отработают так как вы хотели, то остается хороший метод сохранить “полноценный учет показателей страниц” — это директива Clean-param в файле robots.txt. Поэтому лучше всего использовать этот метод при закрытии от индексации дубликатов.
🫠 К слову, не забудьте, что клины можно писать в одну строку, перечисляя сразу все GET-параметры, которые мы хотим исключить из поиска. Сам синтаксис представлен в официальной инструкции: https://yandex.ru/support/webmaster/robot-workings/clean-param.html
Обратите внимание на то, что в данной директиве (Clean-param) учитывается регистр — источник.
Не забудьте про то, что клины могут конфликтовать с другими методами деиндексации документов, в частности с директивой Disallow в файле robots.txt и запрещающим мета-тегом robots (noindex), но с тегом каноникал конфликтов не будет (так как это рекомендация) — источник, источник, источник. Плюс эта же рекомендация будет работать для роботов Google. По поводу заголовков ответов сервера (X-Robots-Tag) тестов не было и нигде не встречал, поэтому добавить по этому поводу ничего не могу.
Под “полноценным учетом показателей страниц”, скорее всего, имеется ввиду их возраст и самое главное, набранные поведенческие факторы (это не точно, но подтверждающей информации ни у кого нет и не может быть) — ответ от поддержки.
Данный пост является дополнением к официальной справке Яндекса. Больше информации приходилось получать именно в переписке с Платонами. Надеюсь, вам данный пост был полезен. Спасибо, что дочитали до конца. Не забудьте поделиться этим постом со своими коллегами!
❤️ - если было полезно.
@SEOsekretiki
В этом опросе SEO-спецы отвечали, используют ли они в своей работе директиву Clean-param при составлении файла robots.txt или нет. Ответы вы можете посмотреть в самом опросе, ну а в этом посте будет немного теории по теме. С радостью выслушаю дополнения, возможно, где-то я не прав.
Clean-param (далее клины) — если сравнивать с другими методами деиндексации документов, то основным преимуществом будет то, что за счет них можно полноценно учитывать показатели страниц. Последняя фраза не очень понятна, но именно это каждый раз говорит поддержка Яндекса.
Сейчас будет текст, он сложный, но постарайтесь понять.
Давайте разберемся, каким методом можно закрыть от индексации страницы дублей (в понимании сеошника). Директива Disallow в файле robots.txt просто закроет от индексации документ и робот не пойдет даже её сканировать. При получении запрещающего мета-тега robots (noindex), робот сначала потратит ресурсы на сканирование страницы, только потом увидит запрещающий мета-тег и не будет её добавлять в индексную базу. В случае с тегом каноникал тут вообще все просто. Если содержимое страниц отличается (по мнению робота), то страницы не будут склеены тегом каноникал в Яндексе и соответственно не будут исключены из индексной базы. Например, SEO-специалист может думать, что страницы пагинации не представляют какой-либо ценности (для роботов), поэтому они не должны находиться в поиске и просто добавляет тег каноникал на первую страницу пагинации (так часто делают), думая, что это просто дубли. Тоже самое и с элементами сортировки в листингах, например, в интернет-магазинах. Для сеошника в классическом понимании это дубли, но для робота Яндекса наличие тега каноникал будет служить лишь рекомендацией. И, скорее всего, на практике из индекса эти страницы не будут удаляться, так как робот Яндекса будет думать, что содержимое на них отличается, так как на них меняется раскладка товаров. Разные товары на странице, хоть и при совпадении других элементов (мета-теги и тексты — их наличие или отсутствие), будут свидетельствовать роботам Яндекса, что это разные страницы (так как показываются разные товары) — ответ от Яндекса.
Учитывая, что директива Disallow просто исключит дальнейшее сканирование документов, мета-тег robots noindex в коде страницы запретит её индексировать (уже после сканирования), теги каноникал, скорее всего, не отработают так как вы хотели, то остается хороший метод сохранить “полноценный учет показателей страниц” — это директива Clean-param в файле robots.txt. Поэтому лучше всего использовать этот метод при закрытии от индексации дубликатов.
🫠 К слову, не забудьте, что клины можно писать в одну строку, перечисляя сразу все GET-параметры, которые мы хотим исключить из поиска. Сам синтаксис представлен в официальной инструкции: https://yandex.ru/support/webmaster/robot-workings/clean-param.html
Обратите внимание на то, что в данной директиве (Clean-param) учитывается регистр — источник.
Не забудьте про то, что клины могут конфликтовать с другими методами деиндексации документов, в частности с директивой Disallow в файле robots.txt и запрещающим мета-тегом robots (noindex), но с тегом каноникал конфликтов не будет (так как это рекомендация) — источник, источник, источник. Плюс эта же рекомендация будет работать для роботов Google. По поводу заголовков ответов сервера (X-Robots-Tag) тестов не было и нигде не встречал, поэтому добавить по этому поводу ничего не могу.
Под “полноценным учетом показателей страниц”, скорее всего, имеется ввиду их возраст и самое главное, набранные поведенческие факторы (это не точно, но подтверждающей информации ни у кого нет и не может быть) — ответ от поддержки.
Выводы: дубли на GET-параметрах для Яндекса лучше всего закрывать через клины.
Данный пост является дополнением к официальной справке Яндекса. Больше информации приходилось получать именно в переписке с Платонами. Надеюсь, вам данный пост был полезен. Спасибо, что дочитали до конца. Не забудьте поделиться этим постом со своими коллегами!
❤️ - если было полезно.
@SEOsekretiki
❤23👍7🔥1
🧐 Как пошагово раскачать сайт в поиске?
В этом видео делюсь процессами, которые организованы у нас по всем направлениям работ в SEO отделе. От семантики до простановки ссылок. Интересен ваш опыт. С чем согласны или нет. Пишите в комментариях к видео.
✅ Смотреть тут:
YouTube
RuTube
VK video
✅ Читать тут:
vc.ru
В этом видео делюсь процессами, которые организованы у нас по всем направлениям работ в SEO отделе. От семантики до простановки ссылок. Интересен ваш опыт. С чем согласны или нет. Пишите в комментариях к видео.
YouTube
RuTube
VK video
vc.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤1
🎟 Разыгрываю 3 билета на Optimization 2025
🗓 9–10 октября / СКОЛКОВО
Конференция Optimization 2025 станет ключевым событием для SEO-специалистов, где ведущие эксперты отрасли обсудят самые горячие вопросы продвижения бизнеса в интернете, поделятся кейсами по работе с ИИ-поиском и обсудят стратегии роста органического трафика в новых реалиях.
Условия участия простые:
1️⃣ Быть подписанным на канал
2️⃣ Реакция на этот пост
3️⃣ Обязательно отправьте его трем друзьям, кому это может быть интересно
25 августа бот выберет трех счастливчиков, которые получат бесплатный билет на Optimization 2025! Удачи!
🗓 9–10 октября / СКОЛКОВО
Конференция Optimization 2025 станет ключевым событием для SEO-специалистов, где ведущие эксперты отрасли обсудят самые горячие вопросы продвижения бизнеса в интернете, поделятся кейсами по работе с ИИ-поиском и обсудят стратегии роста органического трафика в новых реалиях.
Условия участия простые:
1️⃣ Быть подписанным на канал
2️⃣ Реакция на этот пост
3️⃣ Обязательно отправьте его трем друзьям, кому это может быть интересно
25 августа бот выберет трех счастливчиков, которые получат бесплатный билет на Optimization 2025! Удачи!
👍58⚡9🔥9✍7❤1
Когда мы работаем со ссылочными профилями, анализируем конкурентов и ищем дроп-домены, часто приходится просматривать десятки и сотни сайтов.
Открывать их по одной ссылке неудобно, поэтому мы используем браузерное расширение Bulk URL Open, с помощью которого можно разом открыть 10-20 ссылок.
Работает оно просто: копируете список нужных вам ссылок (главное чтобы каждая была с новой строки), вставляете в рабочее окно и жмёте «Open Links». Вкладки открываются в том же порядке, в каком были расположены ссылки из вашего списка.
Есть у этого расширения и другие функции:
👍 - если было полезно.
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19❤5
За счет раздела "Статистика" в GSC стало удобнее анализировать, что упало или выросло, без всяких ручных сведений информации. По ощущениям визуально нагляднее стало. 👌
@SEOsekretiki
@SEOsekretiki
🤝10❤7⚡3
🖥 Анализ сайтов конкурентов
Не забывайте исследовать своих конкурентов на постоянной основе. Особенно молодых и быстро набирающих обороты. Заказывайте независимый “взгляд” со стороны, если не хватает профессионализма или насмотренности. Рекомендую посмотреть видео (YouTube; VK) по этой теме. Важно анализировать и сравнивать хотя бы статистику. В идеале корректировать стратегию и делать упор на реальные точки роста проекта.
@SEOsekretiki
Не забывайте исследовать своих конкурентов на постоянной основе. Особенно молодых и быстро набирающих обороты. Заказывайте независимый “взгляд” со стороны, если не хватает профессионализма или насмотренности. Рекомендую посмотреть видео (YouTube; VK) по этой теме. Важно анализировать и сравнивать хотя бы статистику. В идеале корректировать стратегию и делать упор на реальные точки роста проекта.
@SEOsekretiki
👍6❤5🔥1
Продолжаем ковырять самые частые SEO ошибки, из-за которых не получается привлекать больше трафика из органики.
Почему это важно?
Сайт без ЧПУ, хлебных крошек и заголовков H1-H3 — это лабиринт для робота.
Как проверить?
site.ru/category123/product456
site.ru/index.php?route=product&id=789
Что делать?
Постройте четкую структуру вида:
Главная → Услуги → Ремонт iPhone → Ремонт экрана iPhone 15
И на сайте (вложенная структура) и в URL-адресах. Если корректных URL-адресов нет, то лучше переехать на ЧПУ вариант под контролем SEO-специалиста (301-е редиректы важны). Стоит помнить, что это всего лишь один из многочисленных факторов.
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
👨💻6👍4🔥2❤1
SEO-секретики
🎟 Разыгрываю 3 билета на Optimization 2025 🗓 9–10 октября / СКОЛКОВО Конференция Optimization 2025 станет ключевым событием для SEO-специалистов, где ведущие эксперты отрасли обсудят самые горячие вопросы продвижения бизнеса в интернете, поделятся кейсами…
1. Андрей 2А (@artemenko2a)
2. Evgeny (@ivanarcher)
3. Булат (@rucontent)
✔️Проверить результаты
Поздравляю победителей!
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉8👍6🔥6❤4
Продолжаем разбирать самые частые SEO ошибки на сайтах.
Почему это важно?
Ссылки с других сайтов — это как отзывы для Google. Без них вас не заметят.
Как проверить?
Введите в Google: link:вашсайт.ru. Важно: Данный оператор работает не совсем корректно, но для быстрой оценки подойдет.
Если меньше 10 ссылок — то это мало. Скриншот для примера.
Для оценки ссылочной массы желательно воспользоваться специализированными ресурсами. Например, keys.so (условно-бесплатный).
Что делать?
@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤6👍4
