Telegram Web Link
🤖 Вы пишете для роботов, а не для людей!

Продолжаем рубрику: "Простейшие SEO ошибки", которые мешают вашему проекту расти в поиске.

Почему это проблема?
Если ваш текст выглядит так:
«Купить диван недорого в Москве. Диваны купить дешево. Недорогие диваны Москва»

Google подумает, что это спам, и понизит сайт при очередном обновлении алгоритмов.

Почему это плохо?
Явная переоптимизация.
Перечисление ключевых фраз.
Нет полезной информации.

Как проверить?
Базово: Откройте любую страницу сайта и прочитайте вслух. Упор в первую очередь на пользу для ваших потенциальных клиентов и уместность текста на странице. Проверьте сервисом, чтобы не было явного перебора по частоте слов.

Дополнительно: Помимо классических текстовых анализов и проверки уникальности, проверьте текст на детекторе генерации с помощью ИИ (на всякий случай).

Что делать?
Представьте, что вы в магазине выбираете товар и задаёте вопросы продавцу-консультанту. Какие ответы вы получите? Цельтесь в первую очередь в пользу для клиента, а не во вписывание ключевых фраз.

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
💯86👍3
💹 Биржа Serpzilla

Serpzilla — это платформа линкбилдинга и зарубежный партнер Sape. Предоставляет те же услуги по покупке и аренде ссылок, но удобнее для нерезидентов. Также на ней больше зарубежных сайтов (говорят что 140 000 сайтов из 29 стран). Обзор платформы выложили на нашем сайте, а ниже лишь приводим выдержку с впечатлениями.

Понравилось большое число фильтров для поиска по базе сайтов, простота их использования. Все интуитивно понятно. Столбцы настраиваются. Сайты легко ищутся и казалось бы, всё норм, но есть один нюанс.

Для одного из зарубежных клиентов мы искали доноров по финансовой тематике. По таким фильтрам:
DR Ahrefs — от 20.
Spam Score — до 30%.
Traffic — от 2000 визитов в месяц.
Topic — Финансы.


Нашлось 104 результата. Окей. Смотрим.

Serpzilla берет общие визиты донора (Visits) из сервиса Semrush.com — это просто визиты, не органические, а общие (скрин). У нас в агентстве “Релианта” есть железное правило по выбору доноров — наличие у них органического трафика. Поэтому показатель Visits оказался бесполезным. 🤕

Чтобы проверить наличие органики, воспользовались пакетной проверкой в ахрефсе. Сортируем по трафику и видим, что приемлемый органический трафик из Google есть лишь у первых 11 сайтов (из них 2 сомнительных).

А где большие сайты СМИ со 100К органическим трафиком? Мы постоянно их покупаем на Adsy. А здесь их нет совсем.

Вероятно, большинство сайтов в Serpzilla число визитов накручивают, эксплуатируя этот нюанс. Для несведущих людей же прокатывает. Странно, что сама площадка не стремится показывать именно органический трафик, как это реализовано, например, в том же Adsy.

В заключение отметим, что мы искали только финансовые сайты и анализировали не очень большую выборку. Подробный обзор здесь.

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7🔥4
🤔 Какие метрики отслеживать в SEO?

Список такой:
— Видимость по семантическому ядру.
— Количество ключевых фраз в топе (например, по Кейсо и/или Ахрефсу).
— Трафик без роботов.
— Конверсии (цели: звонки, заявки, письма).
— Электронную торговлю для интернет-магазинов (заказы, объем продаж).
— ROI (если подключена сквозная аналитика, например, через Ройстат + коллтрекинг).

Пример. Внедрили "сложные" правки по сайту (по улучшению коммерческих факторов и юзабилити сайта) и получили вот такой красивый график. Всё просто. Бизнесу нужны деньги. Увеличив процент конверсии в звонках, можем с текущего трафика получать больше заявок и продаж для бизнеса нашего клиента. 😑

PS. Обратиться за услугой SEO-продвижения можно написав мне в личку. ✏️

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
☺️Вы боретесь не с теми конкурентами

Продолжаем разбирать самые распространенные SEO ошибки, которые мешают расти в органике.

Почему это проблема?
Если у вас маленький сайт, а в топе «М.Видео» или «Авито» вы никогда их не обгоните. 🤕

Как проверить?
Вбейте ваш главный запрос в Яндексе или в Google (например, «купить холодильник»). Скриншот топа.

Оцените конкуренцию по наличию в нём “гигантов” типа Ozon или Яндекс.Маркета. Эти сайты невозможно обогнать классическими SEO методами.

Что делать?
Искать нишевые запросы:
Вместо «доставка цветов» → «подписка на цветы москва».


Трафика меньше, но он более целевой и конверсионный. Плюс можно скорректировать бизнес-модель на подписочный вариант. Пока таких конкурентов не так много.

Делайте упор при анализе сайтов конкурентов, которые вам по зубам.
Видео по теме: Как конкурировать с “крупняками”?

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6
👍 Топ постов на канале за июль

📌 Обо мне — https://www.tg-me.com/seosekretiki/3
📌 Ютуб-канал: https://www.youtube.com/@seosekretiki

1 июля — 31 июля

1⃣ Рубрика "Нелепо внедрённые ссылки с бирж". https://www.tg-me.com/seosekretiki/1426
2⃣ ИИ все глубже проникает в нашу жизнь и работу. https://www.tg-me.com/seosekretiki/1419
3⃣ Настолки. https://www.tg-me.com/seosekretiki/1427
4⃣ Вы пишете для роботов, а не для людей. https://www.tg-me.com/seosekretiki/1430
5⃣ Как правильно определить конкурентов в своей ниши? https://www.tg-me.com/seosekretiki/1433

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Как вы считаете, поведенческие факторы с контекстной рекламы учитываются при ранжировании сайта в органике?
Anonymous Poll
62%
Да
16%
Нет
22%
Посмотреть результаты
👍4
Clean-param

В этом опросе SEO-спецы отвечали, используют ли они в своей работе директиву Clean-param при составлении файла robots.txt или нет. Ответы вы можете посмотреть в самом опросе, ну а в этом посте будет немного теории по теме. С радостью выслушаю дополнения, возможно, где-то я не прав.

Clean-param (далее клины) — если сравнивать с другими методами деиндексации документов, то основным преимуществом будет то, что за счет них можно полноценно учитывать показатели страниц. Последняя фраза не очень понятна, но именно это каждый раз говорит поддержка Яндекса.

Сейчас будет текст, он сложный, но постарайтесь понять.

Давайте разберемся, каким методом можно закрыть от индексации страницы дублей (в понимании сеошника). Директива Disallow в файле robots.txt просто закроет от индексации документ и робот не пойдет даже её сканировать. При получении запрещающего мета-тега robots (noindex), робот сначала потратит ресурсы на сканирование страницы, только потом увидит запрещающий мета-тег и не будет её добавлять в индексную базу. В случае с тегом каноникал тут вообще все просто. Если содержимое страниц отличается (по мнению робота), то страницы не будут склеены тегом каноникал в Яндексе и соответственно не будут исключены из индексной базы. Например, SEO-специалист может думать, что страницы пагинации не представляют какой-либо ценности (для роботов), поэтому они не должны находиться в поиске и просто добавляет тег каноникал на первую страницу пагинации (так часто делают), думая, что это просто дубли. Тоже самое и с элементами сортировки в листингах, например, в интернет-магазинах. Для сеошника в классическом понимании это дубли, но для робота Яндекса наличие тега каноникал будет служить лишь рекомендацией. И, скорее всего, на практике из индекса эти страницы не будут удаляться, так как робот Яндекса будет думать, что содержимое на них отличается, так как на них меняется раскладка товаров. Разные товары на странице, хоть и при совпадении других элементов (мета-теги и тексты — их наличие или отсутствие), будут свидетельствовать роботам Яндекса, что это разные страницы (так как показываются разные товары) — ответ от Яндекса.


Учитывая, что директива Disallow просто исключит дальнейшее сканирование документов, мета-тег robots noindex в коде страницы запретит её индексировать (уже после сканирования), теги каноникал, скорее всего, не отработают так как вы хотели, то остается хороший метод сохранить “полноценный учет показателей страниц” — это директива Clean-param в файле robots.txt. Поэтому лучше всего использовать этот метод при закрытии от индексации дубликатов.

🫠 К слову, не забудьте, что клины можно писать в одну строку, перечисляя сразу все GET-параметры, которые мы хотим исключить из поиска. Сам синтаксис представлен в официальной инструкции: https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Обратите внимание на то, что в данной директиве (Clean-param) учитывается регистр — источник.

Не забудьте про то, что клины могут конфликтовать с другими методами деиндексации документов, в частности с директивой Disallow в файле robots.txt и запрещающим мета-тегом robots (noindex), но с тегом каноникал конфликтов не будет (так как это рекомендация) — источник, источник, источник. Плюс эта же рекомендация будет работать для роботов Google. По поводу заголовков ответов сервера (X-Robots-Tag) тестов не было и нигде не встречал, поэтому добавить по этому поводу ничего не могу.

Под “полноценным учетом показателей страниц”, скорее всего, имеется ввиду их возраст и самое главное, набранные поведенческие факторы (это не точно, но подтверждающей информации ни у кого нет и не может быть) — ответ от поддержки.

Выводы: дубли на GET-параметрах для Яндекса лучше всего закрывать через клины.


Данный пост является дополнением к официальной справке Яндекса. Больше информации приходилось получать именно в переписке с Платонами. Надеюсь, вам данный пост был полезен. Спасибо, что дочитали до конца. Не забудьте поделиться этим постом со своими коллегами!

❤️ - если было полезно.

@SEOsekretiki
23👍7🔥1
🧐 Как пошагово раскачать сайт в поиске?

В этом видео делюсь процессами, которые организованы у нас по всем направлениям работ в SEO отделе. От семантики до простановки ссылок. Интересен ваш опыт. С чем согласны или нет. Пишите в комментариях к видео.

Смотреть тут:
YouTube
RuTube
VK video

Читать тут:
vc.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍101
🎟 Разыгрываю 3 билета на Optimization 2025
🗓 9–10 октября / СКОЛКОВО


Конференция Optimization 2025 станет ключевым событием для SEO-специалистов, где ведущие эксперты отрасли обсудят самые горячие вопросы продвижения бизнеса в интернете, поделятся кейсами по работе с ИИ-поиском и обсудят стратегии роста органического трафика в новых реалиях.

Условия участия простые:

1️⃣ Быть подписанным на канал
2️⃣ Реакция на этот пост
3️⃣ Обязательно отправьте его трем друзьям, кому это может быть интересно

25 августа бот выберет трех счастливчиков, которые получат бесплатный билет на Optimization 2025! Удачи!
👍589🔥971
⚡️ Расширение Bulk URL Open

Когда мы работаем со ссылочными профилями, анализируем конкурентов и ищем дроп-домены, часто приходится просматривать десятки и сотни сайтов.

Открывать их по одной ссылке неудобно, поэтому мы используем браузерное расширение Bulk URL Open, с помощью которого можно разом открыть 10-20 ссылок.

Работает оно просто: копируете список нужных вам ссылок (главное чтобы каждая была с новой строки), вставляете в рабочее окно и жмёте «Open Links». Вкладки открываются в том же порядке, в каком были расположены ссылки из вашего списка.

Есть у этого расширения и другие функции:
🛑 При открытии плагина по умолчанию в поле «URLs» подставляется список открытых недавно ссылок. Вы можете скопировать ссылки на регулярно нужные вам сайты, чтобы затем открывать их все в один клик.

🛑 Здесь же можно сохранять, редактировать, загружать списки ссылок. Это может пригодиться, например, если у вас под разные задачи свой набор постоянных вкладок. Удобно же!

🛑 Можно загонять запросы с операторами. Например, вот так можно проверить, есть ли в индексе на указанных доменах ссылки на наш агентский сайт relianta.agency. Это может быть полезно, когда не хочешь клиенту наставить ссылок, которые у него уже есть. 🤓 Применить можно для пробива наличия ссылок в определенных каталогах или по своим базам ссылок.

👍 - если было полезно.

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
👍195
За счет раздела "Статистика" в GSC стало удобнее анализировать, что упало или выросло, без всяких ручных сведений информации. По ощущениям визуально нагляднее стало. 👌

@SEOsekretiki
🤝1073
А вам как? Нраица?)
Anonymous Poll
58%
Да
11%
Нет
31%
Посмотреть результаты
Пятёрик пробили)

Спасибо что читаете! ❤️

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍34🔥146
🖥 Анализ сайтов конкурентов

Не забывайте исследовать своих конкурентов на постоянной основе. Особенно молодых и быстро набирающих обороты. Заказывайте независимый “взгляд” со стороны, если не хватает профессионализма или насмотренности. Рекомендую посмотреть видео (YouTube; VK) по этой теме. Важно анализировать и сравнивать хотя бы статистику. В идеале корректировать стратегию и делать упор на реальные точки роста проекта.

@SEOsekretiki
👍65🔥1
☀️ Важность корректной структуры

Продолжаем ковырять самые частые SEO ошибки, из-за которых не получается привлекать больше трафика из органики.

Почему это важно?
Сайт без ЧПУ, хлебных крошек и заголовков H1-H3 — это лабиринт для робота.

Как проверить?
🌸Визуально пройдитесь по URL-адресам вашего проекта → site.ru/kupit-iphone-15 лучше чем site.ru/?p=123

🌸Есть ли иерархия в структуре URL-адресов? Откройте 5-10 страниц сайта. Если URL выглядят так — есть проблемы:
site.ru/category123/product456
site.ru/index.php?route=product&id=789


Что делать?
Постройте четкую структуру вида:
Главная → Услуги → Ремонт iPhone → Ремонт экрана iPhone 15


И на сайте (вложенная структура) и в URL-адресах. Если корректных URL-адресов нет, то лучше переехать на ЧПУ вариант под контролем SEO-специалиста (301-е редиректы важны). Стоит помнить, что это всего лишь один из многочисленных факторов.

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
👨‍💻6👍4🔥21
Золотая коллекция анкоров и околоссылочных текстов. 🤓

#пятница

@SEOsekretiki
🤓3310🤗10🔥8💯3
😱 Вас никто не рекомендует

Продолжаем разбирать самые частые SEO ошибки на сайтах.

Почему это важно?
Ссылки с других сайтов — это как отзывы для Google. Без них вас не заметят.

Как проверить?
Введите в Google: link:вашсайт.ru. Важно: Данный оператор работает не совсем корректно, но для быстрой оценки подойдет.

Если меньше 10 ссылок — то это мало. Скриншот для примера.

Для оценки ссылочной массы желательно воспользоваться специализированными ресурсами. Например, keys.so (условно-бесплатный).

Что делать?
🔵Получать ссылки: либо добывать “бесплатно”, либо покупать.
🔵Перед этим не забудьте составить ссылочную стратегию и узнать способы получения ссылок.

@SEOsekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥96👍4
Типичный крик сеошника при анализе дропов: "Сукааа казино!". 😁

#пятница

@SEOsekretiki
🔥27👍13🤓8🤗82
2025/10/26 08:24:41
Back to Top
HTML Embed Code: