⁉️ Сколько можно зарабатывать на брендовом трафике
На волне вчерашней новости своим кейсом поделился вебмастер @myowneyes.
vkusnoitchka.ru - его сайт "мимикрия" официального сайта vkusnoitochka.ru
Проект запущен даже до того, как официальный сайт бывшего Макдака был выложен на нормальном домене. Сделан на шаблоне Вебнавоза, который раздавали на его потоке по созданию инфосайтов.
На сайт было потрачено 2к рублей (домен + работа контента для копирования меню с официального Макдака). Также был подклеен тематичный сайт про меню макдональдс, но там почти не было трафика и пузомерок. Через 4-5 дней сайт практически сразу влетел в топ Яндекс и Google.
Посещаемость на пике составляла 30к в сутки, затем плавное падение (конкуренты, новостники, спрос) и сейчас трафик около 7к в сутки. Сегодня, по словам вебмастера, сайт попал под "мимикрию", и по прогнозам просадка ожидается на 30%, так как остальной трафик с гугла.
На площадке потестили разные партнерки/рекламные сети (в РСЯ добавить не получилось). Несмотря на большую посещаемость, доход слабый +- 15к в месяц. Для примера, у него же есть сайт с трафиком 1к в сутки и РСЯ приносит - аналогичный доход (фуд тематика).
Вопросы по проекту можно задать в комментариях или в личных сообщениях.
На волне вчерашней новости своим кейсом поделился вебмастер @myowneyes.
vkusnoitchka.ru - его сайт "мимикрия" официального сайта vkusnoitochka.ru
Проект запущен даже до того, как официальный сайт бывшего Макдака был выложен на нормальном домене. Сделан на шаблоне Вебнавоза, который раздавали на его потоке по созданию инфосайтов.
На сайт было потрачено 2к рублей (домен + работа контента для копирования меню с официального Макдака). Также был подклеен тематичный сайт про меню макдональдс, но там почти не было трафика и пузомерок. Через 4-5 дней сайт практически сразу влетел в топ Яндекс и Google.
Посещаемость на пике составляла 30к в сутки, затем плавное падение (конкуренты, новостники, спрос) и сейчас трафик около 7к в сутки. Сегодня, по словам вебмастера, сайт попал под "мимикрию", и по прогнозам просадка ожидается на 30%, так как остальной трафик с гугла.
На площадке потестили разные партнерки/рекламные сети (в РСЯ добавить не получилось). Несмотря на большую посещаемость, доход слабый +- 15к в месяц. Для примера, у него же есть сайт с трафиком 1к в сутки и РСЯ приносит - аналогичный доход (фуд тематика).
Вопросы по проекту можно задать в комментариях или в личных сообщениях.
🤖Генератор уникальных изображений для сайта
Сегодня наткнулся на подробный мануал по генерации уникальных изображений с помощью искусственного интеллекта - Midjourney. Всё что необходимо - дать правильное описание будущей картинки.
Очень похоже на язык операторов поиска - чем точнее мы составим запрос, тем более релевантную выдачу получим. Фактическая структура запроса крайне простая - Объект :: Параметры.
Умение формировать правильный запрос вполне возможно выльется в популярную профессию, и оказывается она есть уже сейчас - промт-инжиниринг.
Пока не сильно востребована, однако, я легко себе представляю как новостные или информационные ресурсы нанимают профессионала в штат для ежедневой генерации десятков и сотен тематических уникальных изображений, при которых не будет никаких проблем с правообладателями.
Ну а уже сейчас за 10$ в месяц можно отправить 200 запросов, а за 30$ - безлимитное количество. Magic одним словом.
Сегодня наткнулся на подробный мануал по генерации уникальных изображений с помощью искусственного интеллекта - Midjourney. Всё что необходимо - дать правильное описание будущей картинки.
Очень похоже на язык операторов поиска - чем точнее мы составим запрос, тем более релевантную выдачу получим. Фактическая структура запроса крайне простая - Объект :: Параметры.
Умение формировать правильный запрос вполне возможно выльется в популярную профессию, и оказывается она есть уже сейчас - промт-инжиниринг.
Пока не сильно востребована, однако, я легко себе представляю как новостные или информационные ресурсы нанимают профессионала в штат для ежедневой генерации десятков и сотен тематических уникальных изображений, при которых не будет никаких проблем с правообладателями.
Ну а уже сейчас за 10$ в месяц можно отправить 200 запросов, а за 30$ - безлимитное количество. Magic одним словом.
⚔️ Отбиваемся от поведенческих ботов, парсеров, краулеров и прочих роботов
Подготовил подробный мануал по бесплатной защите сайта с помощью сервиса CloudFlare и встроенного в него файрвола от ненужной нагрузки, к которой также относятся поведенческие боты.
—
Кого фильтруем:
- Активность из ненужных стран (аккуратнее, у многих сейчас VPN);
- Ботов под IPV6 и тех, кто стучится без HTTPS;
- Тех, кто обращается по протоколу ниже HTTP/2;
- Краулеры различных сервисов - Ahrefs, MegaIndex, ...;
- Запрещаем парсить сайт программами - Screaming Frog SEO Spider, Netpeak Spider, ...;
—
Видео версия на YT - https://www.youtube.com/watch?v=ucb2Z6QD0jo
Подробная статья на VC - https://vc.ru/seo/477451-nastraivaem-cloudflare-dlya-filtracii-botov
Подготовил подробный мануал по бесплатной защите сайта с помощью сервиса CloudFlare и встроенного в него файрвола от ненужной нагрузки, к которой также относятся поведенческие боты.
—
Кого фильтруем:
- Активность из ненужных стран (аккуратнее, у многих сейчас VPN);
- Ботов под IPV6 и тех, кто стучится без HTTPS;
- Тех, кто обращается по протоколу ниже HTTP/2;
- Краулеры различных сервисов - Ahrefs, MegaIndex, ...;
- Запрещаем парсить сайт программами - Screaming Frog SEO Spider, Netpeak Spider, ...;
—
Видео версия на YT - https://www.youtube.com/watch?v=ucb2Z6QD0jo
Подробная статья на VC - https://vc.ru/seo/477451-nastraivaem-cloudflare-dlya-filtracii-botov
⚡️ В Яндекс.Бизнесе теперь можно рекламировать телеграм-каналы
Всё что необходимо:
1) Указываем ссылку на свой канал
2) Выбираем посты для рекламы
3) Система создаёт автоматический рекламный блок из записей
Ссылка на лендинг от Яндекса.
—
В виду отсутствия адекватных методов рекламы у самого телеграмма выглядит вполне интересно, особенно первое время, пока формат не успел примелькаться, но решать будет итоговая стоимость подписчика.
Для понимания, сейчас в SEO нише она варьируется от 50 до 150 рублей (если оценивать по эффективности рекламы в тематических каналах).
Всё что необходимо:
1) Указываем ссылку на свой канал
2) Выбираем посты для рекламы
3) Система создаёт автоматический рекламный блок из записей
Ссылка на лендинг от Яндекса.
—
В виду отсутствия адекватных методов рекламы у самого телеграмма выглядит вполне интересно, особенно первое время, пока формат не успел примелькаться, но решать будет итоговая стоимость подписчика.
Для понимания, сейчас в SEO нише она варьируется от 50 до 150 рублей (если оценивать по эффективности рекламы в тематических каналах).
Forwarded from SEO без воды
Google потряхивает
— Позавчера у них был пожар в датацентре.
— Вчера поиск был периодически недоступен у некоторых пользователей
— Вчера выдачу начало дико трясти во всех странах, в том числе в России. Сегодня продолжает.
— Многие говорят, что их сайты просели
Что делать: Пока просто ждать. Многое из того, что просело — результат сбоя и откатится.
— Позавчера у них был пожар в датацентре.
— Вчера поиск был периодически недоступен у некоторых пользователей
— Вчера выдачу начало дико трясти во всех странах, в том числе в России. Сегодня продолжает.
— Многие говорят, что их сайты просели
Что делать: Пока просто ждать. Многое из того, что просело — результат сбоя и откатится.
🔥 Alaev SEO Tools - Must Have расширение для Google Chrome
Александр Алаев выпустил реально полезный плагин, который закрывает 90% потребностей по быстрому анализу страницы.
Из основного, за один клик можно проверить:
– Title и description.
– URL (и canonical).
– meta-robots.
– Robots.txt and sitemap.xml.
– Заголовки в тексте (H1, H2, H3, H4, H5 and H6).
– Количество ссылок (с разбивкой на http и https).
– Изображения (alt и title).
– Проверка микроразметки.
– Яндекс ИКС.
Есть куча и вспомогательных инструментов, но о них лучше почитать в оригинальном посте.
—
История с бесплатным софтом простая и понятная, и тянется она со времён Big Duglas'a (салют олдам).
Напомню, человек тогда бесплатно запилил лучшую панель для мониторинга за сайтами и параллельно рекламировал пуш ПП.
Цели вполне себе корыстные, но софт от этого хуже не стал :)
—
Плагин установил, рекомендую и вам.
Александр Алаев выпустил реально полезный плагин, который закрывает 90% потребностей по быстрому анализу страницы.
Из основного, за один клик можно проверить:
– Title и description.
– URL (и canonical).
– meta-robots.
– Robots.txt and sitemap.xml.
– Заголовки в тексте (H1, H2, H3, H4, H5 and H6).
– Количество ссылок (с разбивкой на http и https).
– Изображения (alt и title).
– Проверка микроразметки.
– Яндекс ИКС.
Есть куча и вспомогательных инструментов, но о них лучше почитать в оригинальном посте.
—
История с бесплатным софтом простая и понятная, и тянется она со времён Big Duglas'a (салют олдам).
Напомню, человек тогда бесплатно запилил лучшую панель для мониторинга за сайтами и параллельно рекламировал пуш ПП.
Цели вполне себе корыстные, но софт от этого хуже не стал :)
—
Плагин установил, рекомендую и вам.
🔝 Использование подборок с конкурентами для брендового сайта
Занимаясь продвижением брендового сайта неизбежно сталкиваешься с большим пластом запросов с подборками:
- Лучший VPS хостинг на SSD
- Топ-10 мясорубок 2022
- Рейтинг лучших смартфонов цена-качество
—
Частотность запросов огромная и их популярность связана с желанием пользователя, не тратя времени на поиск, выбрать лучший продукт на рынке.
Эту нишу активно окучивают аффилейт и инфо-сайты, но упорно избегают сами бренды, не желая рекламировать у себя конкурентов.
Одно из решений - статейный маркетинг или сателлиты. Размещая свою подборку на сторонней площадке, вы частично решаете задачу, но куда эффективнее комбинировать и не бояться опубликовать такой рейтинг еще и у себя.
—
Примеры реализаций от продуктовых компаний:
- https://gitmind.com/online-mind-map-tools.html
- https://www.movavi.com/learning-portal/free-video-editing-software-no-watermark.html
Более того, они успешно занимают топ с этими подборками, для этого важно следовать требованиям:
- Вы на первом месте, но честно рассказываете о плюсах и минусах других продуктов;
- Чем больше продуктов в рейтинге, тем лучше, не стремитесь оставить рядом с собой только двух слабых конкурентов;
- Внешние ссылки на сторонние продукты - это естественно, но закрываем их в nofollow.
—
А вы используете подборки с конкурентами у себя на сайте?
#content
Занимаясь продвижением брендового сайта неизбежно сталкиваешься с большим пластом запросов с подборками:
- Лучший VPS хостинг на SSD
- Топ-10 мясорубок 2022
- Рейтинг лучших смартфонов цена-качество
—
Частотность запросов огромная и их популярность связана с желанием пользователя, не тратя времени на поиск, выбрать лучший продукт на рынке.
Эту нишу активно окучивают аффилейт и инфо-сайты, но упорно избегают сами бренды, не желая рекламировать у себя конкурентов.
Одно из решений - статейный маркетинг или сателлиты. Размещая свою подборку на сторонней площадке, вы частично решаете задачу, но куда эффективнее комбинировать и не бояться опубликовать такой рейтинг еще и у себя.
—
Примеры реализаций от продуктовых компаний:
- https://gitmind.com/online-mind-map-tools.html
- https://www.movavi.com/learning-portal/free-video-editing-software-no-watermark.html
Более того, они успешно занимают топ с этими подборками, для этого важно следовать требованиям:
- Вы на первом месте, но честно рассказываете о плюсах и минусах других продуктов;
- Чем больше продуктов в рейтинге, тем лучше, не стремитесь оставить рядом с собой только двух слабых конкурентов;
- Внешние ссылки на сторонние продукты - это естественно, но закрываем их в nofollow.
—
А вы используете подборки с конкурентами у себя на сайте?
#content
🌎 Региональное продвижение на поддоменах и папках на примере Zoon.ru
Если вы когда-нибудь работали с регионами, то наверняка знаете какая головная боль получить хорошую видимость и трафик по всей России.
Классический метод работы с регионами:
- Развернуть поддомены на все города;
- Подменять в шаблонах метатегов топоним;
- Доработать страницу контакты.
—
Типичный результат:
- Проблемы с индексированием (попадает 5-30% от общего числа страниц)
- Плавает релевантность между основным доменом и поддоменом;
- Проблема с краулинговым бюджетом для больших сайтов
—
Интересный подход с хорошими результатами показывает сайт Zoon.ru, как делают они:
- Разворачивают поддомены под крупные города (всего нашлось около 100 поддоменов);
- На поддомене поднимают папки городов спутников;
- Если поддомен плохо ранжируется - переносят его в папку основного домена (например, с поддомена переехали Москва, Кострома и Воронеж);
- Итог - хорошая индексация поддоменов и основных доменов с охватом всех городов.
#technical
Если вы когда-нибудь работали с регионами, то наверняка знаете какая головная боль получить хорошую видимость и трафик по всей России.
Классический метод работы с регионами:
- Развернуть поддомены на все города;
- Подменять в шаблонах метатегов топоним;
- Доработать страницу контакты.
—
Типичный результат:
- Проблемы с индексированием (попадает 5-30% от общего числа страниц)
- Плавает релевантность между основным доменом и поддоменом;
- Проблема с краулинговым бюджетом для больших сайтов
—
Интересный подход с хорошими результатами показывает сайт Zoon.ru, как делают они:
- Разворачивают поддомены под крупные города (всего нашлось около 100 поддоменов);
- На поддомене поднимают папки городов спутников;
- Если поддомен плохо ранжируется - переносят его в папку основного домена (например, с поддомена переехали Москва, Кострома и Воронеж);
- Итог - хорошая индексация поддоменов и основных доменов с охватом всех городов.
#technical
Forwarded from SEO практика | Кравцов Виталий (Виталий Кравцов)
Google лютует!
После того, как сайт будет классифицирован поиском как ресурс с низкокачественным и бесполезным контентом, он будет понижен в ранжировании. Вернуть прежнюю видимость в поиске такие сайты смогут только через несколько месяцев после удаления некачественных текстов – Google должен будет убедиться, что бесполезный контент не вернулся в долгосрочной перспективе.
https://searchengines.guru/ru/news/2055619
После того, как сайт будет классифицирован поиском как ресурс с низкокачественным и бесполезным контентом, он будет понижен в ранжировании. Вернуть прежнюю видимость в поиске такие сайты смогут только через несколько месяцев после удаления некачественных текстов – Google должен будет убедиться, что бесполезный контент не вернулся в долгосрочной перспективе.
https://searchengines.guru/ru/news/2055619
SearchEngines
Google начинает борьбу с низкокачественным контентом
Helpful content update пройдет в связке с очередным Product Reviews Update
🐸 Как спарсить 10 млн страниц с помощью Screaming Frog SEO Spider
Давно ищу пределы возможностей для лучшего SEO краулера и новая планка (почти) взята - 10 млн страниц за неделю бесперерывного парсинга (🏞 скриншоты в комментариях).
Настройки не изменились, за исключением одной галочки - Configuration - Spider - Page links (отключить Store напротив Internal Hyperlinks).
Эта настройка отвечает за сбор всех входящих и исходящих на страницу ссылок.
С помощью неё удобно находить местоположение битых ссылок (301/404) и рассчитывать ссылочный вес, но проблемы начинаются после первого миллиона страниц:
- Скорость парсинга начинает стремительно падать (все больше параметров надо обновлять в базе у старых ссылок);
- Размер проекта растёт в космос, каждый следующий миллион страниц начинает весить 100+ гб. Хранить и обрабатывать такое становится больно.
Мы лишаемся этих функций, однако огромный плюс в том, что текущий размер проекта составляет всего 30 гб и дальнейший поиск проблем будет осуществляться выборочно на основе итогового анализа (перезапуск для конкретных разделов).
—
Обновление по железу:
- При попытке парсить на HDD скорость не поднималась больше 7 URL/сек, при переключении на SSD - 30-40 URL/сек;
- 32 гб оперативной памяти маловато, для комфортной работы с такими объёмами лучше иметь не меньше 64 гб.
—
Почти все уже написали про обновление программы до 17 версии.
Из основного:
- Появилась вкладка, которая сообщает о "критичности" найденных проблем, удобно для новичков;
- Можно ограничить глубину парсинга отдельных разделов, а не только всего сайта.
Из личных наблюдений:
- Увеличилась скорость работы, заметно как намного быстрее происходит фильтрация и переключение табов для больших проектов;
- Оптимизировали размер базы (примерно на 10%).
Давно ищу пределы возможностей для лучшего SEO краулера и новая планка (почти) взята - 10 млн страниц за неделю бесперерывного парсинга (🏞 скриншоты в комментариях).
Настройки не изменились, за исключением одной галочки - Configuration - Spider - Page links (отключить Store напротив Internal Hyperlinks).
Эта настройка отвечает за сбор всех входящих и исходящих на страницу ссылок.
С помощью неё удобно находить местоположение битых ссылок (301/404) и рассчитывать ссылочный вес, но проблемы начинаются после первого миллиона страниц:
- Скорость парсинга начинает стремительно падать (все больше параметров надо обновлять в базе у старых ссылок);
- Размер проекта растёт в космос, каждый следующий миллион страниц начинает весить 100+ гб. Хранить и обрабатывать такое становится больно.
Мы лишаемся этих функций, однако огромный плюс в том, что текущий размер проекта составляет всего 30 гб и дальнейший поиск проблем будет осуществляться выборочно на основе итогового анализа (перезапуск для конкретных разделов).
—
Обновление по железу:
- При попытке парсить на HDD скорость не поднималась больше 7 URL/сек, при переключении на SSD - 30-40 URL/сек;
- 32 гб оперативной памяти маловато, для комфортной работы с такими объёмами лучше иметь не меньше 64 гб.
—
Почти все уже написали про обновление программы до 17 версии.
Из основного:
- Появилась вкладка, которая сообщает о "критичности" найденных проблем, удобно для новичков;
- Можно ограничить глубину парсинга отдельных разделов, а не только всего сайта.
Из личных наблюдений:
- Увеличилась скорость работы, заметно как намного быстрее происходит фильтрация и переключение табов для больших проектов;
- Оптимизировали размер базы (примерно на 10%).
vc.ru
Сканируем большие сайты через Screaming Frog SEO Spider — SEO на vc.ru
Привет! Последнее время всё чаще начал сталкиваться со сканирование больших сайтов (от 1 млн страниц), а также встретился со множеством заблуждений от людей, которые этим никогда не занимались. Этот пост не про то, зачем вам парсить сайт, вы наверняка знаете…
⚡️⚡️⚡️ Глобальные изменения в структуре Яндекса
- Дзен и Новости переедут на dzen.ru
- Новой главной страницей Яндекса станет ya.ru 😯
- Открывая yandex.ru, вы будете попадать не на главную страницу Яндекса, а на портал dzen.ru 😮
- Приложения Яндекс продолжат работу
- Яндекс Еда объединится с Delivery Club
- Изменения не затронут остальные сервисы Яндекса
—
Источник
UPD: Новый дизайн Яндекса будет выглядеть так
- Дзен и Новости переедут на dzen.ru
- Новой главной страницей Яндекса станет ya.ru 😯
- Открывая yandex.ru, вы будете попадать не на главную страницу Яндекса, а на портал dzen.ru 😮
- Приложения Яндекс продолжат работу
- Яндекс Еда объединится с Delivery Club
- Изменения не затронут остальные сервисы Яндекса
—
Источник
UPD: Новый дизайн Яндекса будет выглядеть так
Блог Яндекса
У Яндекса будет новая главная. Что изменится
Яндекс договорился о продаже Дзена и Новостей компании VK. Сделку планируется закрыть в течение нескольких месяцев. Когда все формальности будут улажены, на наших сервисах произойдут важные изменения. Дзен и Новости переедут на портал dzen.ru, который будет…
44 млн посетителей из поиска в месяц: как OZON стал маркетплейсом №1 в Рунете
(по данным SimilarWeb за июль 2022).
Проект с трафиком в пару миллионов уников в месяц есть у каждого SEO-специалиста Senior-уровня. Но вот кейсы с трафиком в 44 млн бывают нечасто.
Во-первых, не всем случается сделать такой оффер и заполучить клиента.
Во-вторых — даже получив такого масштабного клиента, не все могут показать такие результаты как равномерный предсказуемый рост с 15 до 44 млн за два с лишним года.
Сегодня на vc.ru вышел кейс совместной работы OZON и MOAB, в котором рассказано, как маркетплейс стал ТОП-1 по трафику и видимости в поиске.
Спойлеры:
→ 700.000+ кластеров за 3 года
→ проектная команда 53 человека на стороне агентства (на пике одномоментно — 31 чел.)
→ 1+ млн знаков текста ежемесячно
→ уникальная автоматизация для подбора семантики и анализа конкурентов
Читать тут
UPD: Это был рекламный пост, но решил оставить для истории
(по данным SimilarWeb за июль 2022).
Проект с трафиком в пару миллионов уников в месяц есть у каждого SEO-специалиста Senior-уровня. Но вот кейсы с трафиком в 44 млн бывают нечасто.
Во-первых, не всем случается сделать такой оффер и заполучить клиента.
Во-вторых — даже получив такого масштабного клиента, не все могут показать такие результаты как равномерный предсказуемый рост с 15 до 44 млн за два с лишним года.
Сегодня на vc.ru вышел кейс совместной работы OZON и MOAB, в котором рассказано, как маркетплейс стал ТОП-1 по трафику и видимости в поиске.
Спойлеры:
→ 700.000+ кластеров за 3 года
→ проектная команда 53 человека на стороне агентства (на пике одномоментно — 31 чел.)
→ 1+ млн знаков текста ежемесячно
→ уникальная автоматизация для подбора семантики и анализа конкурентов
Читать тут
UPD: Это был рекламный пост, но решил оставить для истории
Возьметесь ли продвигать проект, не соответствующий вашим этическим нормам?
Anonymous Poll
10%
Возьмусь, без вопросов
39%
Совсем чернуху нет, серое - да
14%
Зависит от бюджета
37%
Не возьмусь
Forwarded from SEO без воды
"Видимость сайта в поиске" в Я.Вебмастере
Яндекс запускает в панели вебмастера в тестовом режиме новый инструмент "Ниша сайта" или "Видимость сайта в поиске".
Можно будет:
— Видеть динамику видимости сайта по регионам
— Проверить, соответствует ли посадочная страница поисковому запросу
— Узнать, есть ли на посадочной странице ошибки, влияющие на оптимизацию
— Посмотреть страницы конкурентов по подобранным запросам
Пока в режиме beta-теста у некоторых сайтов.
Выборочно проверил сайтов 20, ни у одного не доступен этот инструмент.
Проверить доступен ли у вас можно здесь: https://webmaster.yandex.ru/site/niche/scope-rivals/
Источник: Яндекс.
Яндекс запускает в панели вебмастера в тестовом режиме новый инструмент "Ниша сайта" или "Видимость сайта в поиске".
Можно будет:
— Видеть динамику видимости сайта по регионам
— Проверить, соответствует ли посадочная страница поисковому запросу
— Узнать, есть ли на посадочной странице ошибки, влияющие на оптимизацию
— Посмотреть страницы конкурентов по подобранным запросам
Пока в режиме beta-теста у некоторых сайтов.
Выборочно проверил сайтов 20, ни у одного не доступен этот инструмент.
Проверить доступен ли у вас можно здесь: https://webmaster.yandex.ru/site/niche/scope-rivals/
Источник: Яндекс.
☝️ Миллионы на SEO делаются не в агентстве
Сегодня удалось пообщаться с владельцем сетки сайтов, о которой ни раз упоминал на канале. Пытаясь осознать масштаб цифр, с которыми работают люди я сталкиваюсь с той же проблемой, когда пытаюсь осознать размеры космоса.
Сотни миллионов страниц на каждом из проектов, еще больше поисковых запросов на регулярном отслеживании, никаких паблик сервисов, только своя разработка (по разным причинам).
Десятки миллионов рублей на запуск каждого следующего проекта, с основными расходами на линкбилдинг и тексты, 3-4 сервера с террабайтом оперативки суммарно под проект, прокси фермы для нагона ПФ ботов, крутые технологии по техничке и действительно биг дата по тестам и экспериментам.
Такие кейсы взорвали бы SEOшное коммьюнити, но есть один нюанс - нет ни одной причины рассказывать интернету о своих технологиях, поэтому их владельцев никогда не увидите на конференциях, в кулуарах и с кейсами на VC.
Сегодня удалось пообщаться с владельцем сетки сайтов, о которой ни раз упоминал на канале. Пытаясь осознать масштаб цифр, с которыми работают люди я сталкиваюсь с той же проблемой, когда пытаюсь осознать размеры космоса.
Сотни миллионов страниц на каждом из проектов, еще больше поисковых запросов на регулярном отслеживании, никаких паблик сервисов, только своя разработка (по разным причинам).
Десятки миллионов рублей на запуск каждого следующего проекта, с основными расходами на линкбилдинг и тексты, 3-4 сервера с террабайтом оперативки суммарно под проект, прокси фермы для нагона ПФ ботов, крутые технологии по техничке и действительно биг дата по тестам и экспериментам.
Такие кейсы взорвали бы SEOшное коммьюнити, но есть один нюанс - нет ни одной причины рассказывать интернету о своих технологиях, поэтому их владельцев никогда не увидите на конференциях, в кулуарах и с кейсами на VC.
🤡 Как клоачит Яндекс.Маркет
То что Яндекс превратился в помойку, которая трижды обувает екоммерс давно известно.
Следите за руками:
- Сначала они в себестоимость или убыток продают владельцам магазинов спецразмещение в поиске, где их не скликивает только ленивый;
- затем с них же собирают деньги за переходы на Я.Маркете,
который чуть ли не с момента появления стал эталонным дорвеем и лезет в выдачу с результатами поиска (за что сам Яндекс упорно пессимизирует другие сайты);
- комплиментом от «шеф-повара» становится засилье сайтов, вроде RegMarkets, выполняющие функцию прокладки между поиском и, снова Я.Маркетом, не пуская в топ интернет-магазины 😄
Я бы добавил, что без трафика с директа новые магазины почему-то плохо ранжируются, но это уже перебор.
Но вернёмся к Маркету. Он тем временем не стесняется еще и клоачить (ботам и людям показывать разный контент). Помогите Даше найти пропавшие заголовки H2 (см. скриншот).
То что Яндекс превратился в помойку, которая трижды обувает екоммерс давно известно.
Следите за руками:
- Сначала они в себестоимость или убыток продают владельцам магазинов спецразмещение в поиске, где их не скликивает только ленивый;
- затем с них же собирают деньги за переходы на Я.Маркете,
который чуть ли не с момента появления стал эталонным дорвеем и лезет в выдачу с результатами поиска (за что сам Яндекс упорно пессимизирует другие сайты);
- комплиментом от «шеф-повара» становится засилье сайтов, вроде RegMarkets, выполняющие функцию прокладки между поиском и, снова Я.Маркетом, не пуская в топ интернет-магазины 😄
Я бы добавил, что без трафика с директа новые магазины почему-то плохо ранжируются, но это уже перебор.
Но вернёмся к Маркету. Он тем временем не стесняется еще и клоачить (ботам и людям показывать разный контент). Помогите Даше найти пропавшие заголовки H2 (см. скриншот).
🐸 Путаете Crawl Depth и Folder Depth в Screaming Frog? Фатальная ошибка!
Те, кто плотно работает с лягушкой, наверняка знает раздел "Site Structure". В нём в понятной форме отображается структура сайта с простой навигацией по уровням вложенности.
Внизу есть визуальный блок "Crawl Depth", глядя на который интуитивно считаешь, что видишь распределение страниц по уровням вложенности.
Даже в техническом курсе известного SEO-специалиста говорится, что данный блок можно использовать для оценки распределения страниц по уровням вложенности.
Но так ли это?
Я и сам долгое время ошибался, пока сканируя один из проектов, не обнаружил, что на 10+ уровне вложенности находится бОльшая часть сайта.
Фактически, глядя на график я должен понимать это так (см. скриншот): на сайте есть 125 000 страниц, имеющих 10+ уровень вложенности, примерно такой:
Идём в справку и читаем:
Limit crawl depth
- You can choose how deep the SEO Spider crawls a site (in terms of links away from your chosen start point).
- Вы можете выбрать, насколько глубоко SEO Spider будет сканировать сайт (с точки зрения ссылок, удаленных от выбранной вами начальной точки).
Так вот в этом распределении мы видим, как много кликов по ссылкам мы должны сделать от стартовой страницы, чтобы добраться до нужной страницы, а не распределение страниц по уровням вложенности.
В моем случае, до бОльшей части страниц можно добрать только через пагинацию и данная проблема решается хорошей кольцевой перелинковкой, но о ней в другой раз.
Больше не ошибайтесь ☝️
#technical
Те, кто плотно работает с лягушкой, наверняка знает раздел "Site Structure". В нём в понятной форме отображается структура сайта с простой навигацией по уровням вложенности.
Внизу есть визуальный блок "Crawl Depth", глядя на который интуитивно считаешь, что видишь распределение страниц по уровням вложенности.
Даже в техническом курсе известного SEO-специалиста говорится, что данный блок можно использовать для оценки распределения страниц по уровням вложенности.
Но так ли это?
Я и сам долгое время ошибался, пока сканируя один из проектов, не обнаружил, что на 10+ уровне вложенности находится бОльшая часть сайта.
Фактически, глядя на график я должен понимать это так (см. скриншот): на сайте есть 125 000 страниц, имеющих 10+ уровень вложенности, примерно такой:
site.ru/url2/url3/url4/url5/url6/url7/url8/url9/url10Но дело в том, что мне известен максимальный уровень вложенности страниц - 6, тогда что означают 125 000 страниц с вложенностью 10+?
Идём в справку и читаем:
Limit crawl depth
- You can choose how deep the SEO Spider crawls a site (in terms of links away from your chosen start point).
- Вы можете выбрать, насколько глубоко SEO Spider будет сканировать сайт (с точки зрения ссылок, удаленных от выбранной вами начальной точки).
Так вот в этом распределении мы видим, как много кликов по ссылкам мы должны сделать от стартовой страницы, чтобы добраться до нужной страницы, а не распределение страниц по уровням вложенности.
В моем случае, до бОльшей части страниц можно добрать только через пагинацию и данная проблема решается хорошей кольцевой перелинковкой, но о ней в другой раз.
Больше не ошибайтесь ☝️
#technical
💡 Идея сервиса для заработка на екоммерсе
—
Общее описание
Создать площадку, которая по запросу предоставляет готовую структуру с соответствующими кластерами запросов по любому сегменту для ИМ и агрегаторов.
Какую проблему решает
ИМ при запуске вынужден тратить от месяца и более для того, чтобы SEO-специалист собрал СЯ, кластеризовал и разработал структуру сайта.
Эта работа уже многократно сделана другими ресурсами и находится в (относительно) свободном доступе.
Сервис должен объединить в себя структуры категорий, подкатегорий и теговых страниц крупнейших агрегаторов и интернет-магазинов и сопоставить с поисковыми запросами.
Техническая реализация
- Спарсить структуру всех крупных агрегаторов и ИМ;
- Объединить в одну большую структуру с помощью сопоставления (на основе выдачи/нечеткого соответствия);
- С помощью баз поисковых запросов привязать кластеры запросов;
- Для пустых категорий и тегов генерировать запросы по маске (название +цена, +купить, +стоимость);
- Актуальность сервиса поддерживать постоянным расширением СЯ и теговых страниц;
Монетизация
Рассчитать среднюю стоимость создания одной категории SEO-специалистом, продавать любое количество готовых листингов с фиксированной ценой одной категории/тега.
Верхний уровень вложенности самый дорогой (содержит больше всего поисковых запросов), теги - дешевле всего (содержат меньше запросов).
Дополнительная монетизация - продавать готовое решение для Bitrix, а также услугу по интеграции структуры на любой движок.
Почему будут покупать
При тех же или меньших затратах получается выигрывать время (от месяца и более), а также избежать ошибок SEO-специалистов на этапе проектирования структуры.
Почему могут не покупать
- Структуру при желании можно выкупить целиком в складчину, что может срезать бОльшую часть продаж.
Решение: продавать не структуру, а структуру + специалиста, который её интегрирует, таким образом выкупить целиком будет сильно сложнее.
- Опасения, что такая же структура есть у кого-то еще.
Решение: каждую структуру кастомизировать (свой набор фильтров/параметров).
⁉️ Какие подводные видите? Почему нет такого сервиса до сих пор?
—
Общее описание
Создать площадку, которая по запросу предоставляет готовую структуру с соответствующими кластерами запросов по любому сегменту для ИМ и агрегаторов.
Какую проблему решает
ИМ при запуске вынужден тратить от месяца и более для того, чтобы SEO-специалист собрал СЯ, кластеризовал и разработал структуру сайта.
Эта работа уже многократно сделана другими ресурсами и находится в (относительно) свободном доступе.
Сервис должен объединить в себя структуры категорий, подкатегорий и теговых страниц крупнейших агрегаторов и интернет-магазинов и сопоставить с поисковыми запросами.
Техническая реализация
- Спарсить структуру всех крупных агрегаторов и ИМ;
- Объединить в одну большую структуру с помощью сопоставления (на основе выдачи/нечеткого соответствия);
- С помощью баз поисковых запросов привязать кластеры запросов;
- Для пустых категорий и тегов генерировать запросы по маске (название +цена, +купить, +стоимость);
- Актуальность сервиса поддерживать постоянным расширением СЯ и теговых страниц;
Монетизация
Рассчитать среднюю стоимость создания одной категории SEO-специалистом, продавать любое количество готовых листингов с фиксированной ценой одной категории/тега.
Верхний уровень вложенности самый дорогой (содержит больше всего поисковых запросов), теги - дешевле всего (содержат меньше запросов).
Дополнительная монетизация - продавать готовое решение для Bitrix, а также услугу по интеграции структуры на любой движок.
Почему будут покупать
При тех же или меньших затратах получается выигрывать время (от месяца и более), а также избежать ошибок SEO-специалистов на этапе проектирования структуры.
Почему могут не покупать
- Структуру при желании можно выкупить целиком в складчину, что может срезать бОльшую часть продаж.
Решение: продавать не структуру, а структуру + специалиста, который её интегрирует, таким образом выкупить целиком будет сильно сложнее.
- Опасения, что такая же структура есть у кого-то еще.
Решение: каждую структуру кастомизировать (свой набор фильтров/параметров).
⁉️ Какие подводные видите? Почему нет такого сервиса до сих пор?
🐸🥖 Достаём структуру любого сайта из хлебных крошек
Изучая структуру конкурентов, вы наверняка заходите в раздел "Site Structure" в программе Screaming Frog SEO Spider.
Она прекрасно визуализирует уровни вложенности по URL, но только для сайтов, которые имеют правильную иерархию адресов.
Пример древовидной иерархии:
Она реализована у множества сайтов, а раз последнее время больше постов про агрегаторы, снова приведу в пример RegMarkets, у которого все категории на втором уровне вложенности:
- regmarkets_ru/tufli-belye/
- regmarkets_ru/tufli-dlya-devochek-62183/
- regmarkets_ru/ekskavator-na-radioupravlenii/
Как тогда анализировать их структуру? Крайне просто:
- Ищем на сайте хлебные крошки;
- Правой кнопкой на элемент - Посмотреть код;
- В открывшемся окне кликаем правой кнопкой по коду с анкорной ссылкой элемента Copy -> XPath;
- Открываем SF и переходим в Configuration - Custom - Extraction
- Нажимаем Add -> XPath -> /html/body/div[2]/div[2]/a[1];
- Меняем в конце [1] на [*] (нам же нужны все элементы);
- Последний элемент хлебных крошек у них в обычном <span>, для него добавляем отдельное правило - /html/body/div[2]/div[2]/span
- Запускаем парсинг;
- Теперь у нас есть список всех страниц с понятной иерархией.
Как использовать XPath на примере сайта Леруа с динамическими ID у классов показываю в видео.
Кстати, у них 13 тысяч категорий и теговых страниц, а за использование структуры РегМаркетса вас ждёт суд, но это совсем другая история🤫
📂 Шпаргалка по XPath (RUS) | Мануал по XPath и CSSPath от SF (ENG)
Изучая структуру конкурентов, вы наверняка заходите в раздел "Site Structure" в программе Screaming Frog SEO Spider.
Она прекрасно визуализирует уровни вложенности по URL, но только для сайтов, которые имеют правильную иерархию адресов.
Пример древовидной иерархии:
site_ru/category/subcategory/page/
Таких становится всё меньше и сайты активно переходят на плоскую структуру.Она реализована у множества сайтов, а раз последнее время больше постов про агрегаторы, снова приведу в пример RegMarkets, у которого все категории на втором уровне вложенности:
- regmarkets_ru/tufli-belye/
- regmarkets_ru/tufli-dlya-devochek-62183/
- regmarkets_ru/ekskavator-na-radioupravlenii/
Как тогда анализировать их структуру? Крайне просто:
- Ищем на сайте хлебные крошки;
- Правой кнопкой на элемент - Посмотреть код;
- В открывшемся окне кликаем правой кнопкой по коду с анкорной ссылкой элемента Copy -> XPath;
- Открываем SF и переходим в Configuration - Custom - Extraction
- Нажимаем Add -> XPath -> /html/body/div[2]/div[2]/a[1];
- Меняем в конце [1] на [*] (нам же нужны все элементы);
- Последний элемент хлебных крошек у них в обычном <span>, для него добавляем отдельное правило - /html/body/div[2]/div[2]/span
- Запускаем парсинг;
- Теперь у нас есть список всех страниц с понятной иерархией.
Как использовать XPath на примере сайта Леруа с динамическими ID у классов показываю в видео.
Кстати, у них 13 тысяч категорий и теговых страниц, а за использование структуры РегМаркетса вас ждёт суд, но это совсем другая история🤫
📂 Шпаргалка по XPath (RUS) | Мануал по XPath и CSSPath от SF (ENG)
YouTube
Достаём структуру любого сайта из хлебных крошек
💲 Платные услуги 💲
► SEO-консультации/аудиты - https://www.tg-me.com/zimin_consult
► SEO-продвижение под ключ - https://www.tg-me.com/zimin_seo
► Накрутка поведенческих факторов (ПФ) - https://www.tg-me.com/zimin_pf
► По всем коммерческим вопросам - https://www.tg-me.com/angetgrowth
--…
► SEO-консультации/аудиты - https://www.tg-me.com/zimin_consult
► SEO-продвижение под ключ - https://www.tg-me.com/zimin_seo
► Накрутка поведенческих факторов (ПФ) - https://www.tg-me.com/zimin_pf
► По всем коммерческим вопросам - https://www.tg-me.com/angetgrowth
--…