Примерно так могут выглядеть поисковики будущего. Знакомая строка поиска, ответ от ИИ и ссылки на источники, с которых информация агрегирована.
Мне не удалось найти информации о том, как строится логика работа движка, но по ответам поисковой системы на различные запросы алгоритм вероятно такой:
1) Обращение через API к Bing / Google (вряд ли они обошли весь интернет, поскольку в результатах есть и небольшие локальные сайты)
2) Парсинг текстов с топ-5 результатов выдачи
3) Выбор наиболее близких к запросу заголовков и их саммари (заметно при раскрытии подробной инфорамции с источников, что всегда фигурирует H заголовок + текст под ним)
В общем, почти готовая дорвейная технология 😂
Что касается удобства, есть ощущение, что в таком виде взлететь не сможет, а то что делает Bing с одновременным быстрым ответом и ссылками на классическую выдачу - выглядит вполне жизнеспособно.
Мне не удалось найти информации о том, как строится логика работа движка, но по ответам поисковой системы на различные запросы алгоритм вероятно такой:
1) Обращение через API к Bing / Google (вряд ли они обошли весь интернет, поскольку в результатах есть и небольшие локальные сайты)
2) Парсинг текстов с топ-5 результатов выдачи
3) Выбор наиболее близких к запросу заголовков и их саммари (заметно при раскрытии подробной инфорамции с источников, что всегда фигурирует H заголовок + текст под ним)
В общем, почти готовая дорвейная технология 😂
Что касается удобства, есть ощущение, что в таком виде взлететь не сможет, а то что делает Bing с одновременным быстрым ответом и ссылками на классическую выдачу - выглядит вполне жизнеспособно.
В итоге, пришел к выводу, что именно для данной задачи, чем проще промпт тем лучше. Все что нужно получить ИИ для генерации метатегов уже есть в поисковых запросах, поэтому на вход подаем 10-15 запросов, отсортированных по частоте (можно выгрузить из Keys.so) и даём рекомендацию не использовать символы, разделяющие пассажи - ".", "!", "?". Для Description - ограничиваем размер ответа 160 символами и 3 предложениями.
Мои итоговые промпты
Title
=GPT("Составь Title до 90 символов для страницы, оптимизированной под следующие поисковые запросы: "&B10&". Не добавляй в текст названия компаний и знаки завершения предложений. Обязательно используй конструкцию в Москве")
Description =GPT("Составь Description длиной до 160 символов и не более трех предложений для страницы, отвечающей на поисковые запросы: "&C4)
P.S:- Для массовой генерации рекомендую использовать API от Keys.so, позволяющий постранично выгрузить все запросы с сайта, оставляя только 10 самых частотных
- На скриншоте для сравнения то, что получалось с попыткой обучать ИИ метатегам конкурентов и без них.
#chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
Сайт - logoza.ru, 1 страница (у конкурентов - сотни и тысячи), нет вхождений ключа в домен и, внимание, нет вхождения ключей в Title, старый год в футере (2017-2019), отсутствующий H1, минимальная текстовка, чуть больше 100 внешних ссылок, признаков накрутки ПФ через упоминание домена - не найдено, в Google не забанен, видимость ниже, но имеется. Возраст домена - 5 лет, robots.txt не создан, сайт перестал обновляться в 2021 году.
Итог - топ-2 по жирным запросам. Магия вне Хогвартса?
Please open Telegram to view this post
VIEW IN TELEGRAM
Пора сделать перерыв в рекламных постах, поэтому в продолжении пятничной темы, прикладываю два обкатанных промпта, которые отлично закрывают вопрос массовой оптимизации категорий интернет-магазина:
Текстовый блок для категории (вместо шаблонного текста с переменными):
=GPT("Напиши текст объемом до 500 символов с описанием того, что представляет из себя, где и как используется товар, указанный в поисковых запросах: "&C2&" Не пиши информацию о том, где и как можно купить товар")
Список вопросов для FAQ: =GPT("Составь список из 3 вопросов по тому, что представляет из себя, где и как используется товар, указанный в поисковых запросах: "&C3&" Не пиши вопросы связанные с покупкой, доставкой, установкой, ценой")
Список ответов для FAQ: =GPT("Составь список из 3 коротких ответов на эти вопросы: "&F2&")
(необходимо сослаться на ячейку со списком вопросов).Не забудьте разметить FAQ соответствующей микроразметкой.
Совсем массово генерировать данные через Google Docs / Sheets не выйдет, связанно это с тем, что OpenAI жёстко лимитирует частоту обращений в 1 запрос/30 сек. для бесплатной версии и не сильно быстрее на Plus версии (но там доступна GPT-4)
Обкатку промптов я выполняю именно в Google Таблицах, а для сбора данных использую Python-скрипт, который умеет обращаться к API с задержкой (можно заказать на kwork).
Еще один важный момент - так или иначе, но в ответах проскакивает мусор, который напрямую связан с качеством подаваемой семантики. Например, если в какой-то теме много накрутчиков, то в запросах регулярно встречаются домены, которые по итогу попадают в шаблон. Учитывайте этот момент и перед заливкой бегло отсматривайте получившиеся данные.
В следующем посте расскажу, как всё таки автоматизировать работу с ChatGPT в Google таблицах без помощи программистов.
#chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
Если вы делаете сайты, идете к пассивному заработку и ищите связь со вселенной - обязательно послушайте, я кайфанул, подскочил и побежал писать радостные письма клиентам, что больше с ними не работаю, потому что свобода теперь для меня важнее денег (кого я обманываю).
- На старте обрубил для себя пути заработка через работу на кого-то;
- Покупает сайты, заказывает у профессионалов настройку монетизации и только продлевает домены и хостинг;
- Статейники получили вторую жизнь и дают 25-30% годовых (привет банкам с 6-10%);
- 100$ в день чисто на рефералах и многое другое.
Please open Telegram to view this post
VIEW IN TELEGRAM
После публикации скрипта выгрузки ключей из Мониторинга запросов, прилетело несколько запросов на аналогичный функционал для раздела с внешними ссылками.
В данный момент в разделе "Внешние ссылки" доступны только ссылки с кодом ответа 404. Их изучение позволяет решить две важные задачи:
Подробнее про инструмент проверки неработающих ссылок можно почитать в блоге вебмастера. Выгрузку битых внутренних ссылок реализовывать смысла нет, это проще и удобнее делать через лягушку.
- Скрипт работает из консоли Google Chrome
- Выгрузка осуществляется постранично
- Итоговый массив данных формата CSV
- Можно указать любое число страниц для выгрузки (переменная var pages в первой строке);
- После выполнения копируем данные и импортируем в Google Таблицы или Excel
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
vc.ru
Восстановление утерянных внешних ссылок с помощью Яндекс Вебмастер — SEO на vc.ru
За один рабочий день я восстановил 300+ ссылок на 70 600 рублей. В статье делюсь своим опытом и даю пошаговый гайд.
Последние лет 10 каждые 2-3 года меняются площадки, которые за счёт различных факторов легко лезут в топ. Не так давно такой площадкой был VK, и было время, когда сам создавал группы под коммерческие запросы, которые после несложных манипуляций оказывались в топ-5. Потом (по слухам) SEO-шники ВК перемудрили со страницами, которые должны попадать в индекс и сайт потух. Сейчас посты или группы крайне редко встречаются в выдаче, при всём том, что траст у площадки остался.
В 2023 году по коммерческим и информационным запросам легко лезут две площадки, Дзен и VC, и если про Дзен вы наверняка слышали, то вторая площадка может быть открытием. Казалось бы, причем тут коммерческая выдача и сайт про стартапы и бизнес? Притом, что сайт имеет заметный буст в выдаче и статьи с него по многим запросам легко выходят в топ на абсолютно любую тематику. Держите наглядный пример со вчерашней консультации - статья держит топ-1 по огромному коммерческому кластеру запросов, собрала 60 тысяч просмотров, и разумеется, содержит ссылку на сайт с услугами (я такую штуку тоже проворачивал). При этом сайт владельца, даже при хорошей проработке, имеет посещаемость всего 2 человека в сутки.
👉 Теперь к делу, как собственно в этот топ попасть:
- Ищем все статьи по вашей теме на сайте VC через конструкцию site:vc.ru {запрос}
- Если подходящего раздела нет - публикуемся во /flood/
- Готовим контент лучше, чем у остальных
- Приправляем недорогими сслыками с ггл, миры или сапы (да хоть прогон с кворка)
- Ждём топа
Для сравнения, разместить свою статью на сайте kp.ru, у которой тоже будет неплохая вероятность выйти в топ стоит от 30 тыс. рублей, выгода очевидна.
Please open Telegram to view this post
VIEW IN TELEGRAM
🎁 Кстати, за лучший вопрос обещали подписку на месяц на базовый тариф, поэтому есть смысл спросить что-нибудь интересное, но конкуренция будет серьезная, уже сейчас есть претендент на победу с вопросом про Title.
Итак, задать вопрос можно в комментариях под постом - https://www.tg-me.com/keysso_public/511, но если промахнётесь и зададите вопрос здесь - не страшно, тоже увидим.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Keys.so – анализ конкурентов
📣 Задайте вопрос SEO-эксперту
В прямом эфире на ваши вопросы будет отвечать топовый профессионал в своей области — Иван Зимин:
🔹 Практикующий SEO-специалист
🔹 Автор телеграм-канала: @heymoneymaker
🔹 Автор ютуб-канала: https://www.youtube.com/@seo_stuff…
В прямом эфире на ваши вопросы будет отвечать топовый профессионал в своей области — Иван Зимин:
🔹 Практикующий SEO-специалист
🔹 Автор телеграм-канала: @heymoneymaker
🔹 Автор ютуб-канала: https://www.youtube.com/@seo_stuff…
Сколько бы не подходил к теме ссылок, всегда сталкивался со сложностью в замере их эффективности.
Закупая ссылки проект может расти, может не расти, может падать и достоверно оценить вклад ссылок не выходит.
С особым интересом читаю кейсы о том, как купили ссылок и проект вырос, а потом из кулуаров узнаешь, что график роста от накрутки ПФ
В блогах людей, которые специализируются на ссылках есть много высоких материй - вроде PBN и аутрича, сложных ссылочных аудитов, но по итогу всегда всё сводится к закупке вечных ссылок на всем известных площадках - GGL, Мира и Сапа без какой-то внятной стратегии.
🔗 Свою работу всегда строил так, чтобы сайт рос без ссылок, но есть две аксиомы:
- Внешние ссылки прямо коррелируют с объемом краулингового бюджета на проект
- Гугл позитивно реагирует на прирост ссылочной массы
- Выгружаю семантику по проекту (GSC / Yandex Webmaster / Keys so)
- Снимаю выдачу в Google по запросам с помощью Key Assort или TopSite (обе платные)
- Выгружаю все встретившиеся домены в выдаче из "Топ по видимости" в Key Assort или "Конкуренты" в TopSite
- Проверяю наличие списка доменов в биржах:
— наличие доменов в MiraLinks
— наличие доменов в GoGetLinks
— наличие доменов в Sape, Rookee, Seopult
- Равномерно закупаю до 30 ссылок в месяц по найденным площадкам
Please open Telegram to view this post
VIEW IN TELEGRAM
🔗 Сайт имеет всего 250 ссылающихся доменов, бОльшую часть из которых набрал за последние пару месяцев, как раз то, о чём говорил в предыдущем посте.
Please open Telegram to view this post
VIEW IN TELEGRAM
Профи.ру в представлении не нуждается - пожалуй лидирующая площадка по поиску специалистов под большой спектр услуг. Яндекс.Услуги даже близко не стоят, и фактически конкурируют за счёт манипулирования выдачей, но речь о другом.
У них классный SEO отдел, который дотошно выжигает много кластеров по услугам, в том числе не чурается серых методов продвижения, об одном из них писал здесь.
- Регистрируемся в Профи как специалист;
- В своей анкете ищем раздел "Услуги и условия работы" и нажимаем "+"
- Через поиск ищем базовую услугу, которую вы предоставляете - пусть будет "Ремонт ноутбуков"
- Получаем в порядке иерархии все направления, которые могут быть нужны пользователям (разделы и подразделы)
- Отмечаем галочками те пункты, которые вам интересны и с тем уровнем проработки, который нужен, сохраняем
- Теперь в профиле у вас есть список всех услуг, под которые вы планируете создавать страницы на своем сайте
- Копируем их, чистим регулярками от цены и прочего мусора, отправляем в Key Collector на съем релевантной позиции (так находим посадочные страницы услуг на сайте Профи)
- В Кейс.со через API или в ручную получаем ключи для каждой страницы
Please open Telegram to view this post
VIEW IN TELEGRAM
Интересный кейс подъехал, у ВсеИнструменты через 301 редирект переехали сотни миллионов урлов, в итоге на 3 месяца потеряли 25% трафика, а это недозаработанные десятки миллионов рублей. Кейс от авторов не увидим, там скорее всего всё под NDA, поэтому копаем сами:
1️⃣ Все категории перенесли на третий уровень вложенности с прокладкой
Стало: https://www.vseinstrumenti.ru/category/avtomobilnye-detskie-kresla-avtokresla-162676/ (2 уровень)
2️⃣ Карточки товаров переехали на третий уровень с прокладкой
Было: http://vseinstrumenti.ru/krepezh/anker/bolt/tech-krep/10h100-1-sht-paket-108046 (5 уровень)
Стало: https://www.vseinstrumenti.ru/product/ankernyj-bolt-tech-krep-10h100-1-sht-paket-108046-855771/ (2 уровень)
Так уж вышло, что ВСИ является конкурентом моего клиента и отслеживаю данные с интервалом в 2 дня начиная с той осени, так вот переезд был прямо перед январскими праздниками.
Рисковали они не слабо, потому что массовый переезд для любого проекта это:
— Обнуление возрастных характеристик страниц (старая страница всегда растёт и ранжируется лучше новой)
— Обнуление данных по ПФ для страницы (привязка идет по урлу, ровно поэтому при пессимизации за накрутку выполняют 301 переезд, чтобы очистить данные)
— Появление 301 прокладок для внешних ссылок на старые страницы
— Необходимость в переиндексации новых страниц
В чаше плюсов не густо - чуть лучшее ранжирование за счёт коротких урлов, на которых уже давно едет весь остальной екоммерс.
В любом случае, получился наглядный пример того, как реагируют ПС на массовый переезд и сколько💲 можно потерять из-за неправильно разработанной структуры на старте проекта.
/category/
Было: http://vseinstrumenti.ru/avtogarazhnoe-oborudovanie/avtomobilnye-aksessuary/v-salon-avtomobilya/avtomobilnye-detskie-kresla (4 уровень)Стало: https://www.vseinstrumenti.ru/category/avtomobilnye-detskie-kresla-avtokresla-162676/ (2 уровень)
/product/
:Было: http://vseinstrumenti.ru/krepezh/anker/bolt/tech-krep/10h100-1-sht-paket-108046 (5 уровень)
Стало: https://www.vseinstrumenti.ru/product/ankernyj-bolt-tech-krep-10h100-1-sht-paket-108046-855771/ (2 уровень)
Так уж вышло, что ВСИ является конкурентом моего клиента и отслеживаю данные с интервалом в 2 дня начиная с той осени, так вот переезд был прямо перед январскими праздниками.
Рисковали они не слабо, потому что массовый переезд для любого проекта это:
— Обнуление возрастных характеристик страниц (старая страница всегда растёт и ранжируется лучше новой)
— Обнуление данных по ПФ для страницы (привязка идет по урлу, ровно поэтому при пессимизации за накрутку выполняют 301 переезд, чтобы очистить данные)
— Появление 301 прокладок для внешних ссылок на старые страницы
— Необходимость в переиндексации новых страниц
В чаше плюсов не густо - чуть лучшее ранжирование за счёт коротких урлов, на которых уже давно едет весь остальной екоммерс.
В любом случае, получился наглядный пример того, как реагируют ПС на массовый переезд и сколько
Please open Telegram to view this post
VIEW IN TELEGRAM
🔗 Внутренняя и внешняя оптимизация
- Проектирование структуры сайта
- Сбор семантического ядра на основе структуры сайта
- Быстрый сбор семантического ядра (групповой отчёт)
- Сбор семантики для отдельных страниц
- Чистка семантического ядра на основе структуры урлов
- Текстовый анализатор для взятия топа (word-keeper)
- Ручное составление идеальных Title / Description
- Идеальная структура текста на основе топа
- Контент план для информационных и коммерческих сайтов
- Анализ качества текста
- Как дожать страницу из топ-10 в топ-3
- Про малоценные страницы
- Находим утечку краулингового бюджета
- Анализ перелинковки сайта (LinkScore)
- Как эффективно покупать внешние ссылки в рунете
- Ищем качественные площадки на биржах ссылок
- Поиск трафиковых страниц конкурентов, которых у вас нет
- Находим самые популярные страницы у конкурентов
- Как продвигать крупные сайты
- Все виды регионального продвижения сайта
- Находим точки роста через Keys.so + PowerBI
- Как определить, что в вашей нише крутят ПФ
- Тюнинг Screaming Frog для парсинга миллионов страниц
- Мгновенный анализ структуры конкурентов (SF + Keys.so)
- Достаём структуру конкурента из хлебных крошек
- Анализируем логи сервера
- Обход защиты от сканирования
- Сканирование SPA сайтов
- Анализ внешних ссылок с помощью SF
- Kinorium - 300к в сутки на парсинге в кинотематике
- Trend1c - идеальная накрутка ПФ
- Ножиков - идеальный интернет-магазин
- Кулинария - аномалия в нише рецептов
- КП.ру - эталонный статейник
- Мой набор расширений в Chrome
- Детальная настройка проекта в ТопВизор
- Разбор сервисов по определению посещаемости сайта
- Разбор бесплатных текстовых анализаторов
💠 ChatGPT для SEO
- Готовим структуру текста с помощью ИИ
- Шаблон промпта для подготовки текста
- Массовая оптимизация категорий ИМ
⚙️ Прочее
- Почему нет результатов в SEO (разбор неэффективных работ)
- Когда привлекать SEO-специалиста при разработке сайта
- Как вырасти от джуна до сеньёра
- Как составить хорошее резюме
- Защищаем сайт от ботов
🔄 Пост будет обновляться
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 Сбор семантики для отдельных страниц
У меня регулярно возникает задача собрать полную семантику для отдельных страниц на сайте, например, нужно доработать категорию интернет-магазина или собрать семантику для конкретной страницы услуг/статьи.
Есть несколько способов, но почти везде вагон недостатков - либо собирать всю семантику по нише, кластеризовать её и работать с наиболее близким кластером (долго, трудозатратно, много лишнего), либо отправить свою страницу/страницу конкурента в Keys.so (много лишних запросов в отчете).
📊 Я решаю задачу следующим образом:
- Вбиваю в Wordstat основной ключ по нужной теме;
- Копирую первую страницу запросов с хвостом и отправляю в сервис Анализа топа выдачи;
- Получаю список страниц с наибольшей видимостью по маркерной семантике из вордстата;
- Отправляю эти страницы в сервис Список запросов страниц;
- Фильтрую по частоте (Wordstat > 10) и по весу (Вес > 5). Вес означает минимальное число страниц, в которых встречается каждый поисковый запрос.
☑️ На все уходит не более 5 минут и фактически, нахожу всю семантику, по которой имеет видимость топ-20 страниц в нужной нише. За счёт фильтрации по весу отсекаю запросы, по которым страницы начали ранжироваться случайно (мусор), и главный плюс - получаю запросы, которые мог бы упустить, собирая семантику в ручную.
У меня регулярно возникает задача собрать полную семантику для отдельных страниц на сайте, например, нужно доработать категорию интернет-магазина или собрать семантику для конкретной страницы услуг/статьи.
Есть несколько способов, но почти везде вагон недостатков - либо собирать всю семантику по нише, кластеризовать её и работать с наиболее близким кластером (долго, трудозатратно, много лишнего), либо отправить свою страницу/страницу конкурента в Keys.so (много лишних запросов в отчете).
- Вбиваю в Wordstat основной ключ по нужной теме;
- Копирую первую страницу запросов с хвостом и отправляю в сервис Анализа топа выдачи;
- Получаю список страниц с наибольшей видимостью по маркерной семантике из вордстата;
- Отправляю эти страницы в сервис Список запросов страниц;
- Фильтрую по частоте (Wordstat > 10) и по весу (Вес > 5). Вес означает минимальное число страниц, в которых встречается каждый поисковый запрос.
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Как собрать семантическое ядро для одной страницы
Друзья, привет! В этом видео рассказываю про свой метод сбор семантического ядра для отдельных страниц. Поисковые запросы можно собирать как для коммерческих сайтов (интернет-магазины, сайты услуг), так и для информационных (статейники). Для данного способа…
Вчера за просмотром заката на набережной Нижнего Новгорода с @max_fuckin и @pilot_bbk очередной раз услышал в свою сторону упрёк, что скучно читать про то, как заполнять тайтлы. А тут, как нельзя кстати, подоспел подкаст 🎵 Артура Саиткулова, так вот там не про тайтлы 😉
—
00:53 Вступление
01:37 Кем является Иван Зимин
04:39 Опыт продвижения сайтов в качестве школьника
05:49 Что изменилось в SEO с тех пор
07:55 Что побудило выйти в публичное поле
10:05 Ощущения во время запуска Youtube канала
14:00 Как изменилось работа после прихода более качественных клиентов
16:04 Зачем был куплен канал «Хей, манимейкер»
17:52 Как можно сократить путь Ивана
19:36 Про небольших клиентов в прошлом и их отличие от крупных заказчиков
21:21 Отношение Вани к нейросетям
25:40 Сколько зарабатывает Иван
30:06 Вопрос делегирования
32:54 Какую роль в жизни Ивана сыграл спорт
35:55 Советы самому себе от Ивана
39:18 Хотел бы Иван пойти в инфобиз
42:02 Что происходит, когда в жизни происходят неудачи
44:12 Как выбрать подрядчика для SEO или специалиста
47:13 В чем главный секрет успеха Ивана
48:45 Как выглядит стандартный день
50:49 Какой контент потребляет Иван
51:58 Что вдохновляет и к чему стремится Ваня
55:03 Какие планы на будущее
56:09 В чем заключается счастье
58:59 Блиц
59:21 Напутствие слушателям
—
00:53 Вступление
01:37 Кем является Иван Зимин
04:39 Опыт продвижения сайтов в качестве школьника
05:49 Что изменилось в SEO с тех пор
07:55 Что побудило выйти в публичное поле
10:05 Ощущения во время запуска Youtube канала
14:00 Как изменилось работа после прихода более качественных клиентов
16:04 Зачем был куплен канал «Хей, манимейкер»
17:52 Как можно сократить путь Ивана
19:36 Про небольших клиентов в прошлом и их отличие от крупных заказчиков
21:21 Отношение Вани к нейросетям
25:40 Сколько зарабатывает Иван
30:06 Вопрос делегирования
32:54 Какую роль в жизни Ивана сыграл спорт
35:55 Советы самому себе от Ивана
39:18 Хотел бы Иван пойти в инфобиз
42:02 Что происходит, когда в жизни происходят неудачи
44:12 Как выбрать подрядчика для SEO или специалиста
47:13 В чем главный секрет успеха Ивана
48:45 Как выглядит стандартный день
50:49 Какой контент потребляет Иван
51:58 Что вдохновляет и к чему стремится Ваня
55:03 Какие планы на будущее
56:09 В чем заключается счастье
58:59 Блиц
59:21 Напутствие слушателям
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Давно не читал действительно интересных методик в SEO и респект MOAB'у что делятся, потому что фактически отдают технологию, которая давала им конкурентное преимущество на пресейле.
🔗 Статья про быстрый сбор семантики для крупных порталов на основе масок урлов из топа. Кому нужны детали, лучше почитать в оригинале, а здесь краткая транскрибация от меня, потому что может восприниматься сложно, особенно для людей, которые с подобными задачами не сталкивались.
—
❓ Для чего - к вам пришёл клиент, этому клиенту надо показать наиболее чистое и полное семантическое ядро не из маркерных запросов с текущими позициями и видимостью для демонстрации потенциала роста.
➡️ Общий смысл следующий:
* Парсинг😀 Яндекс.Wordstat с глубиной 2 по общим маркерным запросам (например, "диваны", здесь собираются целевые коммерческие запросы, нецелевые и информационные запросы)
* Изучается выдача на предмет того, какие сайты чаще всего встречаются в топе по коммерческим запросам и анализируют их URL
* Фиксируют в Excel-таблице маски урлов с привязкой к нужной категории для самых сильных конкурентов (пример:
* Каждому запросу проставляют 1 или 0 рядом с маской - есть ли страница конкурента в топе с подходящим адресом
* Поскольку🛒 Яндекс.Маркет есть по всем коммерческим запросам - его делают ключевым при определении "коммерческости" запроса.
* По итогу каждый запрос проходит проверку на коммерциализацию (1 или 0 по маркету) и дальше набирает баллы. Если набрал больше X баллов (определяется индивидуально), то отправляется в целевые
😄 Для меня было крутым инсайтом определение типа запроса -
Снова обращаемся к маскам урлов с выдачей и проверяем, например, Ozon ранжируется с URL
☑️ Однозначно беру на вооружение, правда возится с вордстатом лень, для меня этот пункт пропускается и на анализ сразу буду отдавать всё ту же групповую семантику из Кейсо, которая собирается на основе конкурентов за 10 минут.
🔗 Статья про быстрый сбор семантики для крупных порталов на основе масок урлов из топа. Кому нужны детали, лучше почитать в оригинале, а здесь краткая транскрибация от меня, потому что может восприниматься сложно, особенно для людей, которые с подобными задачами не сталкивались.
—
* Парсинг
* Изучается выдача на предмет того, какие сайты чаще всего встречаются в топе по коммерческим запросам и анализируют их URL
* Фиксируют в Excel-таблице маски урлов с привязкой к нужной категории для самых сильных конкурентов (пример:
*citilink.ru*smartfon*
- если работа идёт с разделом "Смартфоны")* Каждому запросу проставляют 1 или 0 рядом с маской - есть ли страница конкурента в топе с подходящим адресом
* Поскольку
* По итогу каждый запрос проходит проверку на коммерциализацию (1 или 0 по маркету) и дальше набирает баллы. Если набрал больше X баллов (определяется индивидуально), то отправляется в целевые
категорийный
или продуктовый
, стыдно что не догадался сам, хотя ломал голову над такой задачей. Снова обращаемся к маскам урлов с выдачей и проверяем, например, Ozon ранжируется с URL
/product/
или /category/
, в зависимости от этого присваиваем тип. Please open Telegram to view this post
VIEW IN TELEGRAM
Глобальных плюсов, кроме того что можно козырнуть перед коллегами не вижу, но почему бы и нет. А если Вас зовут, например, Виктор Петров, то бонусом получаете неплохие охваты своего профиля, правда не с самым целевым трафиком.
Please open Telegram to view this post
VIEW IN TELEGRAM
Если используете OpenVPN, уверен заметили, что он начал барахлить, связано это с блокировкой его протокола.
☑️ Простой способ решить проблему - перейти на WireGuard:
- Устанавливаем WireGuard
- Покупаем самую дешевую VDS
- При активации выбираем любую OS
- Через FileZilla подключаемся к серверу
- Пользуемся🚀
Тестирую последние пару дней, скорость и стабильность подключения сильно выше, чем у OpenVPN
- Устанавливаем WireGuard
- Покупаем самую дешевую VDS
- При активации выбираем любую OS
Debian/Ubuntu + WireGuard
- На почту падает доступ к серверу (IP, логин, пароль, порт)- Через FileZilla подключаемся к серверу
(в поле хост указывайте sftp://ip)
и в папке /root/
лежит файл client.conf
- Скачиваем и импортируем в программу WireGuard
- Если нужно больше конфигураций - выполняем из консоли команду bash /root/wireguard.sh
(чтобы выдать доступ всей родне)- Пользуемся
Тестирую последние пару дней, скорость и стабильность подключения сильно выше, чем у OpenVPN
Please open Telegram to view this post
VIEW IN TELEGRAM