Telegram Web Link
⚡️ E-A-T факторы для контентных проектов

Еще в ноябре 2021 года публиковал список страниц, которые в обязательном порядке создаю на всех клиентских проектах.
К слову, сам регулярно пользуюсь этим постом как памяткой и периодические его обновляю.

В этом посте собираю список E-A-T факторов (экспертность и доверие) для контентных проектов (новостники, статейники). В большинстве своём легко внедряется минимальными трудозатратами.

Доработка статьи

Блок с информацией об авторе в конце статьи
Краткая биография автора статьи с фотографией. Образование, дипломы, опыт работы в нише, в которой он пишет, обязательно ссылка хотя бы на одну соц. сеть.

Проверено экспертом
Под блоком с автором размещаем блок "Проверено экспертом". Аналогично блоку выше - фотография, биография, образование и опыт эксперта. Полезно использовать, когда в штате работают неквалифицированные копирайтеры.

Время чтения статьи
Легко внедряется с помощью плагинов.

Содержание статьи
Table-of-content. Комментарии не требуются, оглавление к статье сейчас размещают почти все.

Дата обновления статьи
Информация о том, что статья поддерживается в актуальном состоянии. Размещается рядом или под датой публикации.

Технические страницы

* Редакционная политика - информация о редакционной политике. Пример 1 | Пример 2
* Политика проверки фактов - Пример
* Политика конфиденциальности - Пример
* Пользовательское соглашение - Пример
* Отказ от ответственности - Пример

Ссылки размещаются в футере, чтобы не сочинять текст, можно найти примеры страниц из вашей тематики и заказать рерайт.

Дополнительная информация

Сертификаты - информация о всех сертификатах и дипломах сотрудников (копирайтеров и редакторов). Можно размещать на отдельной странице или в рамках страницы "О нас"

Вакансии - актуальные вакансии. Даже если их нет, рекомендую разместить 2-3 вакансии с поиском копирайтеров/редакторов.

Команда сайта - полная информация о каждом из сотрудников. Фотография, биография, опыт работы, ссылки на соц. сети. Сокращенная информация из этих блоков используется для вывода под статьями.

#content
📝 Контент-хабы - что это такое и почему за ними будущее

На днях проводил опрос по контент-хабам. Как и ожидалось - абсолютное большинство не в курсе, малая часть знает, еще меньше использует.
Разберёмся с термином и попробую убедить, что в мире статейников всё рано или поздно сведётся к ним.

Хорошее определение дано в статьей lead-dealer, даже не буду пытаться его улучшить:

Принцип создания контент хаба довольно прост: вы берете какую-то большую тему и пишите по ней поверхностный контент.
Вы намеренно не углубляетесь в детали этой темы, но постоянно ссылаетесь на статьи, где эти темы полностью разобраны.
Таким образом, ваша статья становится контент-хабом.

Зачем вообще делать контент-хаб?
Самые трафиковые статьи чаще всего как раз касаются очень обширных тем. Сейчас в рунете общепринятая практика раздувания подобных статей до космических масштабов, увидеть статью на 30-40-50 тысяч символов в порядке вещей.
Копирайтеры дотошно раскрывают каждую из подтем, все время соревнуясь в объемах. Контент хаб позволяет уложить материал в умеренный объем, не заставляя пролистывать тонны символов, при этом любая из заинтересовавших тем раскрыта подробно и в деталях.
Хорошая перелинковка между статьями и подстатьями накачивает весом важные страницы и улучшает поведенческие, заставляя ранжироваться статью и весь сайт еще лучше.

Кстати, именно так работают категории и карточки товаров в интернет-магазинах. Трафик в абсолютном большинстве случаев собирает именно категория за счёт ряда факторов:
- получает ссылочный вес с каждой карточки товара (чаще через хлебные крошки);
- даёт представление о всём ассортименте на одной странице;
- даёт возможность выбирать товары по интересующим фильтрам (аналог оглавления);
- содержит ссылки на листинги с подборками товаров (подробный пост о том, как интернет-магазину расти на листингах).

Теперь к примерам. Первый и самый наглядный пример сайта, который работает по модели контент хаба - Википедия.
Любая статья - это структурированный текст с огромным числом отсылок к более подробным статьям. Чем более общая тема, тем больше ссылок уходят на подстатьи, те в свою очередь ссылаются на еще более подробные статьи и так до бесконечности.
Стоит заметить, что каждая из дочерних статей обязательно ссылается на родительскую, в Википедии это сделано через фразу "Основная статья: название" под соответствующим заголовком.

Сейчас у меня в работе проект по крипте, поэтому более приближенным к реальности и наглядным примером будет вот эта статья. Она затрагивает очень общую тему "Что такое майнинг". При этом большая часть статей с примера разобрана отдельно (обратите внимание как с почти каждого блока уходит релевантная ссылка).
Главным недостатком их построения контент хаба - отсутствие ссылок с дочерних статей на родительскую, что конкретно в этом случае не мешает ей заниматься топ по видимости, обгоняя статью на Википедии.

Тема "Майнинг" включает в себя огромное количество информации, начиная с того, как строить ферму и начинать майнинг, закачивая информацией как избавиться от скрытого майнинга.
У меня получилось собрать 58 пунктов, из них 30 будут раскрываться более подробно, о результатах захвата топ-1 расскажу в дальнейшем.

О том как строить контентный хаб, на что обращать внимание и как заставить его работать - расскажу в следующем посте.

#content
⚡️ «Сбер» выложил в открытый доступ версию нейросети GPT-3

Модель называется mGPT, она может генерировать тексты на 61 языке мира, включая языки народов России и стран СНГ, объявил «Сбер».

- Базовая версия (1,3 млрд параметров) уже лежит на «СберДиске» (2.8 GB)
- Полная версия (13 млрд параметров) скоро будет доступна на ML Space от SberCloud

Ждём появления SEO-шных сервисов по генерации метатегов, описаний карточек в ИМ и текстов для сайтов услуг. С удовольствием буду тестировать и пользоваться.

Правда тексты на GPT-2 не давали никакого результата, по крайней мере у меня. Страницы индексировались, но не ранжировались.

Ещё на бета-тест присылали вот этот сервис по рерайту, который заявляется как GPT-3, однако все мои попытки отрерайтить заканчивались получением того же текста с редкими заменами некоторых слов на синонимы.

#seonews
💻 Серые дорвеи под Яндекс на копипасте

Тема не новая, но более чем живая, регулярно попадаются сайты по этой технологии.
Потенциал - до 15 тыс. трафика в сутки (из того что встречалось).

Общий принцип по этапам:
- Парсим ТОП-10 выдачи по запросу;
- Выгружаем контент первых 5-10 сайтов;
- Формируем структуру будущей статьи как поочередной расположенное всех собранных текстов;
- Изображения забираем себе или оставляем URL с источника, работают оба варианта;
- В конце каждой статьи ставим ссылку на источник, можно через JS, для сокрытия, либо помечая параметром rel="noopener"
- Переходим к следующему ключу;

Обратить внимание:
- Сайты чисто под Яндекс. в Google быстро улетают в бан;
- Работа с выдачей происходит через Яндекс.XML;
- Title формируются из поискового запроса, Description из первого предложения в тексте;
- Стреляют сайты на дропах, новореги с большой вероятностью тут же попадут под фильтр, в лучшем случае будет индекс, без трафика;
- Обязательно наличие категорий и подкатегорий;
- Ключи предварительно можно очеловечить через сервис, исправляющий запросы;
- Время жизни - долго и счастливо.

Примеры:
- https://santehnika-terra.ru/ - 5000 трафика в сутки | ~ 100 000 страниц
- https://htfi.ru/ - 15 000 трафика в сутки | ~ 10 000 страниц

#content
🌐 Региональное продвижение сайтов

Меня давно просили рассказать про особенность работы с поддоменами, но всё уже рассказал Дмитрий Севальнев и краткую выжимку дал Андрей Буйлов.

Два доклада Дмитрия Севальнева:
- Хорошая техническая база, которая почти не поменялась - https://youtu.be/6hFQWVh6gEw (ссылка на презентацию)
- Более актуальная версия для Коллаборатора - https://youtu.be/WefhG2KPzpM

Кратко и ёмко о том на что сейчас обратить внимание рассказал Андрей Буйлов - https://youtu.be/KgZJUBYmTgc

Поддомены работают все хуже и хуже, но заметил интересную корреляцию - если ниша узкая (специфичное оборудование или производство), поддомены ранжируются хорошо во всех регионах, популярная ниша (любой екоммерс с товарами массового потребления) - ранжируется всегда крайне плохо и часто в выдаче вместо поддомена оказывается основной домен.

И несколько советов от меня:
1) Принимать решение о запуске поддоменов лучше всего на основе выдачи;
2) Ссылки на важные поддомены желательно разместить в футере сайта для перелинковки их между собой;
3) Обязателен выбор городов в хедере;
3) Вместо представительств на странице контакты размещаю пункты выдачи СДЭК, пока работает;
4) И небольшой лайфхак - добавляем в alt/title вашего логотипа указание соответствующего города. Например, alt="{название_компании} в г. Санкт-Петербург", тем самым увеличиваем текстовое вхождение соответствующего региона на страницах поддомена.

#ecommerce
🙄 Как одновременно вести 20 проектов и не сдохнуть (хотя бы временно)

В течении профессиональной карьеры SEO-специалистом, у меня были разные цели и этапы. Одним из таких этапов было одновременное ведение 20 проектов.
Причём, слыша эту цифру, первое что приходит в голову - это невозможно. Возможно и с хорошими результатами. Рассказываю как я к ней пришёл и почему отказался.

Имея в голове какую-либо цель, ты прокладываешь к ней путь теми методами, которые тебе известны. Цель была финансовая, а поскольку работал я с клиентскими проектами, то логика следующая:
- 1 проект приносит Х рублей
- 10 проектов принесут 10Х рублей

Клиентов никогда не искал, качественная работа даёт свои плоды, тебя советуют и рекомендуют, поэтому масштабироваться по количеству было не проблемой, более того, приходилось отказывать людям или говорить, что смогу взять в работу не ранее, чем через полгода, большинство готовы были ждать. Одновременное число проектов в работе увеличивал следующим образом - оптимизировал (именно оптимизировал, а не ухудшал) работу с текущими, как только понимал, что есть время на новый проект, связывался с владельцем и говорил - да, готов взять. За время такой работы, с этой оптимизацией я достиг какого-то невероятного дзена:

Первое и главное правило
Экономия времени на типовых работах. Я начал подмечать, что для разных проектов я делаю много одинаковых действий, в основном связанных с ТЗ.
В итоге получается, что паттернов по работе с проектами крайне много и каждый раз тратишь уйму времени на написание одного и того же разными словами.
Решение пришло само - папка с шаблонами всех файлов, открываешь нужный файл, кастомизируешь под клиента, отдаёшь в работу.

Второе правило
Делегирование на проверенных исполнителей. Максимум работы, которую могу качественно сделать не сам - нужно отдавать, также это позволяет распараллелить процесс.
По способу нахождения крутых исполнителей за адекватный прайс стоит написать отдельно. Со многими фрилансерами работаю по нескольку лет, они понимают меня с полуслова, я принимаю работу без задержек, зная что выполнена она хорошо.
По итогу, самостоятельно я только собирал семантику (необходимо для понимания ниши и выстраивания стратегии) и проектировал структуру сайта. Это фундамент, от которого зависит успех проекта, ошибка на этих этапах может съесть кучу времени на повторный анализ и проектирование в дальнейшем.

Третье, не менее важное.
Собственное расписание. Я уже касался темы дисциплины и сильно много добавить тут нечего.

Теперь о том, почему отказался.
Как говорил отец-основатель, клиентские деньги это клиентские деньги.
Имея свободный график и возможность отлучиться, я вынужден всегда находится на связи, отвечать на любые вопросы, всегда быть в курсе каждого проекта.
Результатом является регулярное выгорание. Механизм налажен и работает, но в какой-то момент тебя вырубает и ты овощем лежишь перед телевизором не в силах что-либо делать.

Ощущения радости от дохода отсутствует, цифра увеличивается, а потратить на себя некогда. Поняв и приняв этот момент, начал корректировать стратегию -много средних проектов заменил на 2-3 крупных. Так куда проще держать в голове план и стратегию работ, глубже можно уходить в аналитику и получать больше удовольствия от результата.

Такой режим многому меня научил и позволил переосмыслить. Сразу начинаю замечать деструктивные действия в своей работе, видеть таймкиллеры и лучше чувствовать свое эмоциональное состояние, предупреждая выгорание и апатию. Нет я все еще не гуру эффективности, могу залипнуть в ютуб или проваляться на диване, но стараюсь делать шаги к более осознанной и продуктивной жизни.

Какое максимальное число проектов вели вы?
💶 Сколько стоит запустить накрутку ПФ в 2022 году на своём оборудовании

Сервер
Комплект из материнки, 12 ядерного процессора XEON E5 2678v3 и 32GB на борту - 20 000 руб.
БП, видеокарта-затычка, корпус, эмулятор монитора - до 10 000 рублей.
Windows Server полгода бесплатный, потом в течении трех лет бесплатно пролонгируется тестовый период.

Модемы и симки
Модемы - Huawei e3372h-153, продаются оптом, на авито от 2500 руб. за шт., новые - от 4000 руб.
В среднем, каждый модем может давать ~50 уников в сутки, накрутка до 10% от реального трафика. Дальше зависит от ваших объёмов.
Симки - самые выгодные тарифы у Мегафона и Йота. Безлимит выходит в 400 руб и 200 руб соответственно. Если усреднять, то 300 руб. в месяц.
Хорошие прокси стоят от 900 руб. за общие и от 3000 руб. за приватные.

Софт
Софта много и разного. Некоторые даже обещают накрутку в Google. Средняя стоимость устаканилась и составляет ~100$ в месяц.

Прочие расходы
Электричество. Конфиг выше уверенно кушает 0,200-0,250 квт/час. При стоимости порядка 4 руб. (для Москвы), получаем 720 руб. в месяц.

Итого
Стартовый конфиг из сервера и 4х модемов - 40 000 руб.
Ежемесячные расходы - 8-10 тыс. руб
​​Топ-5 причин, почему я не советую учиться на SEO

С последнего осмысленного поста прошло уже почти месяц, пора разбавить череду рекламных постов и немного накинуть на вентилятор.

То, что SEO умирает любой уважающий себя вебмастер слышит ежегодно, однако вот уже больше полугода я не могу отделаться от мысли, что это и правда так.
Главный контраргумент умирающему SEO - "поиском будут пользоваться всегда, значит SEO будет жить", всё так, но как обычно, есть нюанс и не один.
Ниже факты, которые наблюдаю лично я и предостережение для тех, кто решил освоить профессию. Возможно вы передумаете, поехали:

Психологический фактор
Проведя X часов за работой в большинстве профессий вы получаете измеримый и понятный результат. Но только не здесь. Можно закопаться в аналитику, подготовить кучу данных, внедрить, прождать месяц и ... ничего, или даже в минус 😄
Одна ситуация, когда работаешь в клиентском на абонентке и твои эксперименты оплачиваются, совсем другая ситуация - свои проекты, свои вложения. В обоих случаях, длительная череда неудач или стагнации может серьезно бить по мотивации.
А еще случаются фаталити в виде обновления алгоритмов ПС, которые могут в 0 обрушить трафик, и великий рандом, когда одни и те же действия для двух разных проектов дают противоположный результат.

Потолок зарплат
У нас есть уютный чатик, где мы обсуждаем вакансии по SEOшке, так вот сеньору больше 150 никто не предлагает, даже в Москве, 200 - сказка.
При это вилка среднего проджекта 150-250, не говоря уже о программистах, тестировщиках и прочих айтишных специальностях, у которых при том же опыте это минимальная оплата труда.

Региональное продвижение мертво
Кто бы что не говорил, но любые потуги на региональном SEO - слив бюджета, ведь конкурируете вы не с такими же ребятами из условного миллионика. Вы конкурируете с Москвой, где топовые проекты давно доставляют во все города, а также агрегаторами, которые гвоздями прибиты к первым 3-5 местам.
Последнее время я отказываюсь от любых региональных проектов, потому что перемножая небольшой ассортимент на небольшой бюджет получаем вялое отклонение видимости в пределах погрешности, как следствие возвращаемся к психологии.

Базовые работы не дают результат
Идеальная структура сайта, микроразметка, качественные тексты и проработка коммерческим факторов не гарантирует ничего. Это минимальный набор действий для старта продвижения проекта, всё потому что 30 ваших конкурентов сделали тоже самое и довольно давно.
Готовьте ссылки, накрутку ПФ, искусственную генерацию страниц и парсинг, чтобы начать получать видимость.

Спецоперация
Уход клиентов, сокращение бюджетов, увольнение сотрудников. На любую вакансию по SEO с более менее адекватной ЗП сейчас не менее сотни откликов. Комментарии излишни.

Спрашиваете, живо ли SEO?
☠️ Не тратьте время на оптимизацию тегов

Система тегирования у новостных и статейных ресурсов работает по аналогии с листингом в интернет-магазине - есть общее свойство, которое объединяет ряд товаров на одной странице (большие 4К телевизоры Samsung).
В случае екоммерса это хорошая точка роста, там где расти больше некуда, в случае статейных и новостных ресурсов (пример) попытка оптимизировать эти страницы не даёт никакого ощутимого эффекта, да и не должна и вот почему.

Знакомясь с техническим аудитом одной известной SEO студии, увидел рекомендацию - собрать "словарь" для системы тегов, а затем его вручную оптимизировать (задать уникальные Title, Description и подготовить блок текста).
Идея состоит в том, чтобы в полуавтоматическом режиме нагенерировать страниц под запросы с частотностью и выводить на них связанные новости и статьи. Звучит заманчиво, а что на практике?

Работают ли теги на других сайтах
Проведя аудит более двух десятков крупных ресурсов, куда входили сайты из самых разных тематик (rbc.ru, lenta.ru, iphones.ru, journal.tinkoff.ru, ...) , получил следующие результаты - независимо, от количества и качества тегов, они собирают менее 0.1% трафика сайта.
Лучше результат показывали теги на новостных ресурсах, совсем отвратительно работали теги на статейных ресурсах.

На это я вижу следующие причины:
- Под любой частотный запрос найдётся подробная статья с более релевантным ответом;
- Шаблонная оптимизация метатегов не позволяет работать выборочно;
- В теги чаще всего попадают фразы из 1-2 слов, по которым очень высокая конкуренция;

Что можно сделать
Функция тегов - перелинковать связанные между собой публикации.
Но не увлекайтесь, до 100 страниц тегов будет достаточно. На некоторых ресурсах количество страниц тегов составляет 30% от общего числа страниц и исчисляется десятками тысяч.
Не давая трафик, страницы-тегов забирают на себя внутренний ссылочный вес, перелинковка должна быть умной и проводиться между целевыми страницами, а не между бесполезными страницами-хабами.

Что еще можно сделать - задать универсальный шаблон метатегов:
- {тег} - последние новости (для новостного ресурса)
- {тег} - подборка материалов (для статейного ресурса)

Где теги работают? У любых агрегаторов и баз данных, но это совсем другая история.

#content
🎩 Проксирующий дорвей или сетка сателлитов?

Работая с выдачей регулярно встречаю различные технические решения, которые живут на копипасте и собирают ощутимый трафик.
На канале я периодически публикую разборы этих проектов, например:
- Трафик на чужом бренде
- Каталог товаров Яндекс.Маркета и копия YouTube
- База отзывов к сайтам

Но тут на глаза попался сервис, который в наглую проксирует чужой сервис и собирает дорогой коммерческий трафик. Итак, пациент - needspec.ru

Что имеем:
- Домен от 2017 года, возможно дроп
- Посещаемость по SimilarWeb - 200+k в месяц
- Донор для многих очевиден - profi.ru
- Движок самопис, использует многие элементы от донора
- Индексацию в Яндексе пробить проблематично, в Google - 800k (Сам факт того, что домен не забанен в Google говорит о том, что ПС не воспринимают его как дорвей на копипасте, а это редкость)
- В футере указан ОГРН, домен зарегистрирован в reg.ru, хостинг московский.

А дорвей ли это?
Главный вопрос куда и как уходит заказ, ведь сервис теряет смысл, если нет возможности связаться с исполнителем. Кликаю на оформление заказа и попадаю на крайне знакомую форму от profi.ru, исследую элемент - бинго! Просто айфрейм с сайта Профи.
А теперь попробуем оценить вероятность того, что достаточно популярный сайт с 2017 года так и не был замечен источником. Всё верно - вероятность нулевая. До кучи не скрывает юридическую информацию, размещается в России и на .ru домене.

Сетка сателлитов
Паззл сходится, вспоминаю из кулуарных обсуждений, как топы незаметно поднимают сетки своих же копий для того, чтобы расти там, где расти то и некуда.
Очень крупная сетка сайтов активно работает в нише проверки контрагентов (это там где лидер rusprofile.ru).
Беглый поиск не позволил найти остальные сайты, возможно их и нет, а это экземпляр был экспериментальной попыткой.
Активно слежу за развитием искусственного интеллекта для написания текстов, но все сервисы оказывались крайне слабыми.

Основные проблемы:
- Малый объем выходящего текста (в среднем 500 символов);
- Много встречающегося мусора - кавычки, скобочки, даты;
- Низкое качество текста для узких тематик;
- Смысловые ошибки даже для популярных тем;

Но похоже переломный момент произошёл, активно тестирую новый сервис, который выдаёт впечатляющие результаты.
За несколько секунд можно генерировать до 2.5 тыс. символов подавая на вход всего лишь один поисковый запрос.

Уже сейчас SEO-специалист может применять сервис для следующих задач:
- Описания категорий для ИМ;
- Описание карточек товаров;
- Тексты для сайтов услуг;
- Генерация статей для ссылочного продвижения;
- Тексты для PBN сеток и саттелитов;
- Тексты для обзорников;
- И разумеется дорвеи;

Видеообзор сервиса с кейсом применения для ИМ уже завтра на канале.

А пока можете получить 10 000 бесплатных символов на знакомство с инструментом.

#content
🖍 ИИ копирайтинг - мои выводы по тесту сервиса

В прошлом посте рассказал о новом сервисе для генерации текстов на базе GPT-3.
Последнюю неделю тестировал его на многочисленных тематиках, в первую очередь сложных - финансы, медицина, стройка.

Плюсы сервиса
* Отлично работает "описательный" формат в почти любой нише, т.е когда необходимо развернутое определение услуге, объекту или какому-то явлению.

* При поэтапном подходе хорошо показывает формат "инструкций", когда по очереди генерируем каждый отдельный пункт структуры текста.

* При генерации структуры статьи получается от 5 до 10 пунктов, чаще 5. Этого может быть недостаточно для подготовки большой статьи, но есть решение в виде генерации нескольких вариантов с дальнейшим объединением в одну общую структуру.

* Также к плюсам - не видел уникальность ниже 90%, по Главреду стабильно набираются 7-7.5 баллов ( посты в телегу я пишу примерно с такой же оценкой 🥲)

Главный вопрос состоит в том, может ли сгенерированная статья занять топ-1 в сложной нише.
Тексты будем размещать на финансовом и строительном сайте.
Как только соберу достаточно данных, поделюсь результатами.

О минусах
Есть тематики, о которые сервис откровенном спотыкается.

* Не удалось получить хороший результат по текстам о каршеринге. Например, при описании сервиса Делимобиль ИИ выдал, что стоимость аренды составляет 500 рублей в месяц, а в инструкции по закрытию автомобиля сказал, что надо заглушить мотор и нажать на кнопку сигнализации (в реальности для каждого автомобиля своя процедура). Видно что из-за нехватки текстов в базе подтягивает совсем не то.

* Также не получилось ничего толкового по тематике "сэндвич панели". Несмотря на то, что ниша сэндвичей в стройке далеко не самая маленькая, тексты откровенно слабые.

* В авто тематике сервис не справился с описанием спецтехники;

К минусам отнесу цену, за пусть и качественные, но автоматически сгенерированные тексты.
В зависимости от тарифа составляет от 7 до 33 рублей за 1к символов.

Сейчас я вижу данный инструмент как надежного помощника для следующих специалистов:
- Вебмастеру для работы с сайтами, солидная экономия на копирайтерах, при работе с не самыми сложными тематиками;
- SEO оптимизатору для самостоятельного поэтапного формирования статей с последующей вычиткой экспертом;
- Владельцу малого бизнеса для наполнения сайта информацией без сторонней помощи;

И небольшой мануал о том, как с помощью сервиса подготовить текст на инфо. тематику.
🤓 Субботняя задачка по SEO

Вебмастер Ибрагим - дорвейщик. У него есть сайт, который на голой копипасте собирает 3 000 посетителей в сутки в сложной нише - финансы, но ниша кредитов это, или пачка обзорников личного кабинета Сбера говорить отказывается.
Ибрагим сидит в сеошных чатах и регулярно хвастается посещаемостью его детища.
Чуть реже он делится доходами из партнерки, периодически жалуясь, что Google Adsense ушёл из России, а в РСЯ его не принимают.
Ибрагим уверен, что найти его сайт невозможно, а значит и дальше зарабатывать на этой схеме будет только он.

⁉️ Вопрос: можно ли не используя паяльник и звонки с угрозами найти сайт Ибрагима, и если да, то как?

➡️ Ответ можно написать в комментариях, своё решение опубликую на следующей неделе.
🥸 Мой ответ на субботнюю задачу по SEO

Под постом получилось отличное обсуждение с различными вариантами поиска сайта, вплоть до соц. инженерии, на которую я бы полагаться точно не стал, но звучит интересно.
А входных данных было немного - финансовая тематика, 3000 уников в сутки (100к в месяц) и скриншот партнёрки.
Некоторые зацепились за копипаст, но определять у большой выборки сайтов копипаст весьма проблематично, это был отвлекающий фактор.

Для начала хочу прояснить, где может пригодиться опыт поиска сайтов:
* Понравился кейс на конференции/в портфолио/в статьей, но адрес сайта под NDA;
* Увидели скриншоты трафика/доходов в пабликах или чатах, но URL никто и не собирался показывать;
* Скрытый URL на Telderi и вы не понравились владельцу лота.

Во всех перечисленных случаях чаще всего мы как раз и имеем два обязательных параметра:
- Тематика (без уточнения);
- Посещаемость;

И от того, спалят ли третий параметр зависит успех в поиске.
Третьим параметром, который укажет на сайт, может быть: ИКС, партнёрка (чаще скриншот), фрагмент текста, кол-во страниц в индексе, счётчик, дата регистрации домена.
Чем их больше, тем выше вероятность найти сайт.

Общий ход мысли в обсуждении получился верным, нам нужна выборка сайтов, из которой мы и будем доставать нужный URL, но решения имеют недостатки, разбираемся.

1) Собирать выборку на основе парсинга выдачи для маркерных поисковых запросов.
Во-первых, можем промахнуться в запросах и, в условной стройке, так и не найти проект, 3000 уников - капля в море. Увеличивая число запросов - увеличиваем выборку, как следствие, найти становится всё сложнее.
Во-вторых, в задаче не было речи о том, что трафик поисковый. Ровно на этом моменте всё может и закончится, но уверен таким способом найдёте кучу других интересных проектов и, как правильно сказали в комментариях, на Ибрагима уже будет по*уй.

2) Повысить точность можно с помощью с сервиса PublicWWW. Зная партнёрку и её код, сделать выгрузку по сайтам. Хорошо, если ПП малоизвестная, а что если это Google Adsense с миллионами сайтов в выдаче?
Дополнительным ограничением вижу скорость обновления базы PublicWWW, по моим наблюдениям, далеко не всегда туда попадают сайты с возрастом до полугода.
И, разумеется, применение крайне нишевое, когда у нас есть точный код для ПП, зная ИКС вместо ПП метод уже работать не будет.

3) Третий способ был завязан на том, что зная URL от ПП можно через SimilarWeb найти все сайты, которые на эту ПП льют. В случае с Ибрагимом это решение рабочее, но если ПП снова Google Adsense сайт мы не найдём.

Как я находил сайты
1) Первое что нам потребуется - выгрузка рейтинга сайтов из SimilarWeb по заданной тематике. Не многие знают, но сделать это можно через Kwork. Здесь же кроется и минус, каждый запрос выборки будет для нас платным.
В отчёте получаем 10 000 сайтов по любой тематике с нужным регионом. Осталось выбрать диапазон в 300-500 сайтов с требуемой посещаемостью и с учетом погрешности. Плюс подхода - мы не зависим от типа трафика, пусть хоть закладки, хоть социальные сети.

2) Зная скриншот партнёрки, находим её и узнаем код размещения. Большинство ПП имеют уникальный дизайн, найти не составит труда.

3) Ищем код ПП в небольшой выборке с помощью Screaming Frog SEO Spider (Configuration - Custom - Search) по списку сайтов (Mode - List).

Если отойти от задачи из прошлого поста, то работаем мы всё с той же выборкой сайтов, но нужные параметры ищем другими инструментами, например, ИКС, индексацию и Whois можно массово проверить через FastTrust.

Вот и всё, сайт с очень большой вероятностью будет найден. Успешных расследований 🤟
Вчера провели прямую трансляцию и основной вопрос касался личного бренда для любого специалиста - как он может помочь зарабатывать больше, как его развивать и какие инструменты для этого использовать. Затронули вопрос привлечения клиентов и некоторым процессам по работе с ними и, конечно, поговорили про маркетплейсы и их будущее в борьбе с интернет-магазинами.

Тезисно основные моменты:
- Чтобы стать SEO-специалистом необязательно работать в агентстве, но придётся набивать очень много своих ошибок;
- Заводить сайт частного специалиста большого смысла не имеет, пробиться по коммерческим запросам в топ будет критически сложно, а вести свой блог удобнее на сторонних площадках с готовой аудиторией;
- Важнейший канал привлечения клиентов - коммуникации, "сарафан" даёт самый качественный и стабильный поток лидов;
- С точки зрения лидогенерации SEO-конференции не имеют большого смысла;
- Личный бренд можно сформировать в 3 этапа: дистрибуция своего опыта на различные площадки, обработка входящих лидов, отладка процессов;
- Качественный и интересный материал не равно продающий! Если не умеете себя продавать - отдайте задачу подготовки кейсов в контент-агентство;
- Рано или поздно маркетплейсы победят екоммерс, но всегда будут исключения для определенных ниш;

Видео целиком у меня на канале, телеграм при записи трансляции решил, что важнее показывать меня, чем спикера, буду разбираться, как в дальнейшем исправить 🤙
⭐️⭐️⭐️ Крутое обновление SiteAnalyzer 2.8

Теперь программа умеет массово собирать данные Whois, коды ответа сервера, искать поддомены, проверять CMS, а также проводить семантический анализ и анализ релевантности текстов на сайте.

Эти функции подходят для множества задач, например, для розыска доменов, массового аудита конкурентов и отсеивания мёртвых доменов при сборе площадок для накрутки ПФ. Всегда отдавал предпочтение Screaming Frog'у, но теперь беру на вооружение и этот краулер.

Полный список обновлений на официальном сайте. До сих пор не понимаю, как такой софт остаётся бесплатным.
⚡️ Помните я писал пост о том, как многие паразитирируют на бренде ?
Похоже Яндексу надоело делиться с этими сайтами трафиком и уже сейчас полетели новые уведомления - Мимикрия.
У меня есть 3 сайта по такой технологии с ощутимой посещаемостью, но уведомлений пока нет, значит раскатывают постепенно, либо есть критерии отбора. Слежу за ситуацией.

UPD: Поддержка вот что ответила:
«Чтобы снять ограничение, нужно, чтобы сайт перестал вводить пользователей в заблуждение. Т.е. убрать очевидное сходство с популярным сайтом. Алгоритм отследит внесенные изменения и ограничение уйдет в течение месяца.

Добавлю, что самому ограничению нет еще месяца. Он проверяет все сайты поочереди и обязательно затронет всех нарушителей.»
2025/10/03 15:12:33
Back to Top
HTML Embed Code: