Telegram Web Link
Несколько мыслей про рынок фриланса

Если коротко - фрилансер как отдельная единица становится всё менее актуален, в силу того что один человек больше не может давать стабильно хороший результат в интересных нишах. Забавно как еще несколько лет назад я сам топил за то, что один фрилансер в большинстве случае сильно выигрывает у студии (конвеерной), но сейчас все поменялось и доминируют команды со своей узкой экспертизой.

Почему так?
🟠Конкуренция - за условный топ-5, среди которого пару сервисов Яндекса воюют не 10 компаний, а 50-100, при прочих равных будет побеждать тот, кто давит на правильные рычаги кратно сильнее рынка, потому что базу сделали если не все, то почти все, тогда как понять кто лучше? Тот кто значительно превосходит рынок, а здесь уже начинается борьба ресурсов - мозгов, серверов, бюджетов на ссылочное, а также оплата тестов.
🟠Если все доступные рычаги влияния разделить на основные, получится 3 кита - внутренняя часть (структура + контент), ссылочное, ПФ. Применение каждого из них в лоб результат не даёт, нужны детали (о них ниже), для погружения в каждое из направлений нужно заниматься только им. Вот и получается, что в одного даже сильный специалист либо хорошо проектирует сайт, либо крутит ПФ, либо наращивает ссылочное, охватить два других направления при всём желании не выйдет.
🟠Про детали, которые и дают результат - в паблике их нет, любые кейсы и видеоинструкции показывают лишь примерное направление действий, и то без самых важных моментов. Каждый из кейсов лишь демонстрирует, что "мы наработали экспертизу знаем что делать, но что конкретно не скажем". Это лишь френдли напоминание, что подписка на 100 каналов реальных знаний не даёт, их там нет.
🟠Чтобы понять какие детали работают нужна репрезентативная выборка, на которой сначала выдвигается, а затем тестируется гипотеза. Есть ли она у отдельного фрилансера? Нет, но есть у команды. При найденной успешной гипотезе она внедряется и масштабируется.

Что остаётся фрилансеру-одиночке:
🟠Работать на нишу в регионах/с низким чеком/конкуренцией. Да, там еще могут простые действия и небольшие вложения давать результат
🟠В проектах закрывать только ту область в которой он силен, но результат по одному направлению всегда имеет довольно низкий потолок роста. Сделали - получили, а что дальше?

Что с этим делать каждый решает сам 🙌
Please open Telegram to view this post
VIEW IN TELEGRAM
Так уж получилось что за последние пару месяцев я оплатил и активно тестил все основные ИИ - Gemini, ChatGPT и Claude. Ключевое что мне нужно от них - умение писать код, вторично - тексты, поэтому оцениваю с этой точки зрения.

➡️ ChatGPT, некогда флагман творит сейчас какую-то лютую дичь, постоянно забывает контекст диалога, код пишет криво, ооочень сильно ошибается в фактах и галлюционирует сильнее остальных. Из хоть сколько-то значимых плюсов - умение обрабатывать большие файлы, Claude например, имеет строгое (не очень большое) ограничение на размер прикрепленных файлов. Почти полностью отказался, продлеваться не буду, на то что изредка может решить эта ИИ хватает бесплатной версии.

➡️ Gemini неплохо справляется с проверкой фактов (всё же продукт крупнейшей поисковой системы, вот уж где данные должны быть актуальны), а вот код пишет на троечку, сложно добиться нужного функционала. Никаких существенных плюсов от покупки про версии не увидел. Оставил её для фактчекинга текстов после Claude.ai

➡️ Claude.ai - пока для меня абсолютный топ, за исключением того, что они очень сильно не любят обход блокировки. Получил мгновенный бан двух аккаунтов и привязанной карты после случайной попытки зайти с российского айпи. Из плюсов - артефакты (код в отдельном блоке), отлично программирует - улучшает и дорабатывает код, помнит контекст диалога и для объяснения не требуется повторять и уточнять в каждом сообщение про что надо не забыть. Минусы - мало лимитов, которые выжигаются за 20-30 минут активного общения с дальнейшей паузой в несколько часов.

➡️ А вот теперь к интересному: китайцы выпустили свою ИИ - DeepSeek, которая похоже будет претендовать на лучшую:
🟠Полностью бесплатная (можно авторизоваться через Google-почту)
🟠Не требует VPN из России
🟠Интерфейс похож на ChatGPT
🟠Говорит на русском, по рассуждениям напоминает Claude
🟠Отлично программирует 🙌

Последнюю активно изучаю, но вероятно при очередном бане в Claude полностью перейду на неё.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from SEO for DEP$ / iGaming
«Дзен + AI + быстробот Яндекса = 💵» или Как залетают в ТОП по гембле?

Палю реальный кейс по использованию «паразитного» SEO по самым жирным ключам вроде «лучшие казино».

1️⃣ Создается канал на Дзене на котором публикуются на автомате новые статьи с разницей в несколько минут под нужный запрос, типа «ТОП-10 казино 2025» с партнерскими ссылками на казиношки. Контент естественно генерируется на AI 📱

2️⃣ И… всё.
Повторяйте это упражнение несколько раз в день) Каждый свежий пост с канала залетает в ТОП Яндекса.

В чем секрет «успеха»?

Во-первых, Дзен идеально подходит в качестве площадки для паразитного SEO.

Во-вторых, главный секрет в том, чтобы добиться индексации быстробота. Тогда Яндекс подхватывает каждый свежий пост и выводит его в выдаче с пометкой «N минут назад».

В самих статьях я ничего особенного не заметил, сначала там идет список ссылок (рейтинг), затем простыня текста. Каждая статья «уникальна». Под этим постом я прикрепил статью 📕, которую нашел в ТОПе.

Что может пойти не так?

Конечно Дзен банит такие каналы, они живут пару дней.

А это значит, что нужно как-то автоматизировать регистрацию каналов и постинг. Возможно даже какое-то время «прогревать» аккаунты.

То есть в итоге схема превращается в соревнование софта, кто быстрее и чаще наладит постинг ради получения своей «минуты славы» в выдаче.
Please open Telegram to view this post
VIEW IN TELEGRAM
Курсы по SEO больше не нужны, да и любые другие тоже 😭

Вчера на встрече у «Хороших SEOшников» пообещал рассказать про интересную фичу с нейросетями, поехали. У Google есть бесплатный инструмент по созданию собственной базы знаний, в которую можно загружать документы, видео, страницы сайтов под названием NotebookLM.

Те кто задавал вопросы нейросети напрямую, наверняка знают, что ответы она даёт довольно обобщённые, сглаженные и нужно глубоко знать тему, чтобы выуживать из неё что-то стоящее. Здесь же мы формируем базу знаний на основе доверенных источников.

Какие источники поддерживаются (до 300 шт. в бесплатной версии):
➡️ Ссылки на страницы
➡️ Youtube видео
➡️ Документы и тексты

Хотите освоить линкбилдинг на основе знаний русскоязычных экспертов? Находим доверенных специалистов на 🖥, загружаем в базу. Хотите освоить новую сложную программу? Парсим ссылки на документацию и выгружаем в базу.

А дальше задаём все интересующие вопросы. В результате вместо десятков и сотен часов, потраченных на изучение и конспектирование видео, осваиваем софт, интересующее направление или что угодно прямо в чате.

Откуда доставать источники:
🟠Ссылки на документацию можно взять из выдачи: site:site.ru inurl:/slug/
🟠Cпарсить страницы сайта через A-Parser / Screaming Frog SEO Spider
🟠Под парсинг видео из Youtube со всего канала, или плейлиста я написал небольшой скрипт 📥

⚡️UPD: Серьезно обновил скрипты, теперь они генерируют код для консоли, которые позволяют автоматом добавлять ссылки в источники, также добавил скрипт, который из json файла истории канала/чата создаёт txt файл.
Please open Telegram to view this post
VIEW IN TELEGRAM
➡️Подготовка ТЗ на текст по SEO раньше:
- Собрать маркерный кластер запросов
- Собрать топ страниц по выдаче в Яндекс/Google
- На основе страниц конкурентов собрать полную семантику по теме
- Изучить структуру статей конкурентов
- Подготовить план своей статьи
- Отдать копирайтеру на написание, а затем редактору на вычитку
- Проверить SEO-специалисту вхождение ключей и корректность заголовков

➡️SEO текст сейчас
- Примитивный промпт, 3-5 минут пьем чай, исследование на основе сотен источников из поиска готово, а статья сохранена в Google Docs.

Всё это теперь делает новый Gemini 1.5 + Deep Research за скромные 20💲 в месяц.

Если почувствовали эйфорию от упрощения работы, то стоит помнить, что сейчас просто временной лаг между "Люди читают статьи, которые вы подготовили им в ИИ" и "Люди сами используют ИИ". Между ними будет еще этап - "Все владельцы сайтов научились генерировать статьи".

В общем, готовить контент стало еще проще, а получать трафик на него станет все сложнее, ничего нового.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Хороший разбор того, какие данные шлёт Яндекс.Браузер своим создателям.

➡️Если коротко, вот что получает Яндекс после установки браузера:

🟠Список установленного ПО на ПК пользователя 😚
🟠Текущие настройки DNS (и возможно подменяет на свои)
🟠Содержимое файла hosts
🟠Весь список пользователей в системе

Заодно скрывает все уведомления от пользователя, чтобы не возникало вопросов.

Вся эта движуха происходит легально, потому что при скачивании по умолчанию стоит галочка согласия на отправку, но за что респект, так это за то что при отключении вся слежка и правда выключается.

В комментариях тут же пришел один из разработчиков (?) и начал позитивно заверять что это на благо пользователя для борьбы с вирусами, попутно расхваливая автора за проявленную смекалку, но мы то знаем.

Источник 👥
Please open Telegram to view this post
VIEW IN TELEGRAM
Искать программистов сложно и больно. Даже при наличии хорошего бюджета.
Обычно отвечают кратко - не интересно или просто не возьмусь, а фриланс биржи заполонили писатели скриптов на 200 строк кода, если вы понимаете о чем я.

Но поскольку живём мы в удивительное время нейросетей, то с очередной задачей потратив пару вечеров на поиски исполнителя, плюнул и сел писать сам. До полноценного видео как всегда не доходят руки, но возможно пригодится мой опыт уже года нейпрограммирования в текстовом виде, чтобы писать почти что угодно самому. Без шуток, на скрине - комбайн в телеграме на тысячи строк кода, который жонглирует пол дюжиной апишек для получения того результата, который нужен мне.

Правда чтобы его написать, пришлось пройти тернистый путь, где я прочувствовал на себе что такое техдолг, а раньше о нем только слышал. Начинал писать с одного файла, файл разрастался, ответа в 300 строк кода (а ровно столько может в одном сообщении написать ИИ) быстро стало не хватать, расширение функционала громоздило огромные файлы, которые в какой-то момент стало невозможно обновлять и поддерживать.

Чтобы не повторять моих ошибок можно придерживаться следующих правил:

➡️Никакого ChatGPT, платно или бесплатно он творит дичь, лучший и единственный Claude.ai
➡️Сразу создаём проект (у GPT ограничение 20 файлов, тут ограничений пока не встретил). Проект - это набор файлов из будущей разработки. В настройках указываем как давать ответ: кратко, без комментариев в коде, чтобы экономить токены, в одном ответе - один файл, если планируется исправление нескольких файлов - сначала указать каких.
➡️В зависимости от языка программирование и типа проекта, очень рекомендую предварительно создать чат и спросить про структуру будущего проекта. Если бы я так сделал, то узнал сразу что в telegram ботах существуют хендлеры, кнопки клавиатуры хранятся в отдельном файле, а каждый модуль надо писать в отдельном файле.
➡️Главное правило - никогда не писать сразу большой функционал, один чат +1 простая функция. Уже сейчас, я могу понять, где стоит дать задачу в несколько функций, но по началу крайне сложно отследить что и где ломается, или работает не так.
➡️Для работы с API достаточно показать пример запроса и пример ответа (чаще всего json), а они почти всегда есть в документации.
➡️Чтобы получить хороший результат, надо четко понимать какие этапы есть в процессе и что за чем следует. Не знаете?Даём вводные и спрашиваем у ИИ как бы он решал задачу.

Пару недель практики и будете писать автоматизацию любой сложности, да еще и на любом языке, ни один курс вас такому не научит :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Я собрался с мыслями и в 45-минутном видео (в 4K!) на нескольких десятков слайдов положил своё понимание SEO в данный момент.

Чтобы сделать эти выводы,я прошел через много рефлексии, сомнений, вопросов и гипотез. Полезно будет посмотреть, если в фильме «Матрица» вы тоже выбирали красную, а не синюю таблетку.

⏱️ Таймкоды:
00:00 - Перед началом
1:30 - Траст и всё что с ним связано
12:15 - Сейчас ранжируется бизнес
19:30 - Главный драйвер роста
22:00 - Вы не знаете что такое интент
31:00 - Коротко о техничке
33:30 - Усиление
43:35 - Итоги

🖥 https://youtu.be/Zyf2C7IudPg 🖥
Please open Telegram to view this post
VIEW IN TELEGRAM
Периодически меня банят ИИ за чрезмерное использование, поэтому в очередной вынужденный перерыв, решил развернуть нейросеть у себя на ноутбуке.

Почему-то раньше думал, что это какая-то высокая материя, на которую надо потратить не меньше недели, а по факту - минут 15 времени.

🟠Для начала устанавливаем оболочку - lmstudio.ai
🟠Заходим в настройки (⚙️ снизу справа) и выбираем Model Search
🟠Скачиваем модель, которую потянет ваше устройство (их там много). Основное правило - модель должна помещаться в оперативную память.

➡️ Зачем все это нужно, когда есть бесплатный DeepSeek и полубесплатные Claude / ChatGPT / Gemini? Например, для обработки очень больших объемов несложных данных, на что тратить токены нерентабельно.

➡️ Скорость ответа упирается в производительность процессора - чем она больше, тем быстрее.
Для сравнения подал на вход аналогичный посту выше промпт, результат похуже, но как бы и модель не самая мощная и стоимость околонулевая.
Please open Telegram to view this post
VIEW IN TELEGRAM
Результаты текстовой оптимизации за две недели в Google (Яндекс на такое почти не реагирует) через нейросеть. Отсортировано по убыванию в дату начала эксперимента, чтобы показать откуда запросы заходят в топ, положительная динамика по всем посадкам.

Почему так:
🟠Яндекс - хорошо понимает контекст и смысл, поэтому ему подходит базовая информация со страницы, а дальше уходит в оценку поведения.
🟠Google - не очень хорошо понимает контекст и местные особенности языка, поэтому ему важно увидеть текстовое вхождение слов (биграмм) из кластера на странице.

В общем, ИИ вдохнуло вторую жизнь в SEO, сейчас открыто окно возможностей, за счет которого можно обогнать тех кто AI пока не использует, дальше рынок обязательно скорректируется (паблик сервисы, инструменты и прочее, ну а сейчас дикий запад).

⚙️ Дальнейшее развитие AI SEO вижу так:
🟠Генерация метаданных и контента через общедоступные модели (большинство сейчас тут)
🟠Генерация метаданных и контента через обученные модели под тематику сайта
🟠Проектирование и наполнение сайта целевыми посадочными раскрывающие весь интент в рамках ниши на основе обученной модели
🟠Загрузка в обученную модель всего сайта для динамической генерации контента под интент любого поискового запроса на ходу
🟠Сингулярность и конец света SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Смотрю на Youtube авторов контента по ИИ - все разрабатывают AI агентов, рассказывают про области применения, как продать ИИ бизнесам, а по факту почти все решения - это ChatGPT завернутый в Telegram бота под видом ассистента (лол). То ли еще не придумали, где это реально можно полезно применять, то ли в самой технологии и нет никакого прорыва, об этом кстати еще Ашманов говорил.

В итоге, для большинства, это умный саммаразийнг чего угодно, который полезнее конечному пользователю в ряде узких вопросов (чаще все инструкции и ответы на вопросы), чем реальный прорывной инструмент в бизнесе.

Окей, берём сеошку - за плечами 15 лет опыта, понимание тех. процесса и множества нюансов, где я это по факту применяю:
- Аналитика большого объема данных, раньше - сидел и собирал руками структуру сайта, сейчас - закидываю в нейросеть вводные и получаю структуру, но тут еще извернуться с промптом надо и форматом подачи данных, чтобы он не перемудрил с результатами, в общем спорно, но решаемо.
- Про тексты говорить нет смысла, подходит идеально, копирайтеры уже вымирают как профессия, скоро исчезнут окончательно
- Автоматизация - по постам заметно, что я с головой там, поскольку ИИ это эдакий кореш-программист, который с улыбкой бежит писать любую скучную программу. Часть процессов удалось перенести в одну кнопку, с другой частью еще воюю, но тут нет прорыва, тут замена субъективного восприятия задачи спецом, на конкретный алгоритм, который двигается в строгих рамках и даёт прогнозируемый результат.

Все это наглядно про то, что я тоже не вижу сильного прорыва, скорее всего в других нишах также.
Да, подрастёт качество сайтов (проще внедрять микроразметки, перелинковки, больше можно размещать текстов и больше контекста давать в тех нишах где нет экпертизы), но потолок у этого качества не так высоко, просто будет немного быстрее и дешевле чем сейчас.

Что-то, что раньше делал человек на уровне обобщения и сортировки да/нет/хорошо/плохо, теперь может делать нейросеть, но принятие итогового решения, а также оценка полученных результатов без глубокого понимания никакого преимущества не даст. Неожиданно, но нейросети не стали зарабатывать за нас.
Один из способов быстро оценить потенциал к росту по страницам - посчитать коэффициент по формуле:
Потенциал = (топ50-топ10)²/топ50

Откуда взять данные по топ50 и топ10 говорить думаю нет смысла (keys.so с промокодом на скидку 20%: heymm20), лучше рассказать почему именно такая формула. Задача - отдать приоритет страницам с наибольшим количеством запросов в топ-50 и с наименьшим в топ-10.

1️⃣Если считать просто вычитанием, то 1000 и 900 дадут такой же результат как и 101 и 1.
2️⃣Если считать отношением, то 10 и 1, дадут такой же результат как и 1000 и 100.

Поэтому получаем формулу, которая это всё учитывает. Через API можно делать следующий запрос с дополнительной фильтрацией по топ-50 (от 10 запросов или на больших проектах от 50).
https://api.keys.so/report/simple/organic/sitepages?base=msk&domain=kinopoisk.ru&sort=it50%7Cdesc&page=1&per_page=1000&filter=it50%3E=50

Либо по-старинке выгружаем отчет по страницам и в Excel считаем через формулу.

Получаемые данные не являются ответом на все вопросы, но могут здорово подсветить слабые места проекта:
🟠Не тот контент на странице
🟠Слабый контент на странице
🟠Нет нормальной релевантной
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Помните писал про AI агентов, которые будут управлять компьютером? Так вот они уже здесь и одного из них удалось даже протестировать. Задачу можно поставить в одно предложение, а нейросеть сама раскладывает на шаги и выполняет нужные действия в браузере.

На скриншоте одно из лучших на сегодняшний день решений - Browser Use, пока это не управление компьютером, но уже управление браузером.

Логика работы следующая:
🟠Запускается браузер, команда пользователя разбивается на этапы
🟠Далее либо через поиск, либо через заход сразу на сайт происходит взаимодействие
🟠Нейросети отдается текущая страница через список элементов с номером
🟠В зависимости от текущего действия она принимает решение на какую из кнопок нажать

Звучит так, что это очередной прорыв, но в реальности есть много скользких моментов:
🟠Каждый шаг ест приличное количество токенов
🟠При попытке запустить на простой модели - всё ломается (жмёт не туда, делает не то, ...), более менее работает на последних и предпоследних моделях
🟠Поп-ап бывает преградой, а всплывающих окон на сайтах реально много
🟠Промахнувшись нейросеть не понимает что делать дальше, потому что ни одна из кнопок не позволяет продолжить решать задачу

Если заинтересовало:
💬Протестировать без установки - operator.browserbase.com
📥Запустить локально без ограничений - github.com/browser-use/browser-use
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Наверняка помните новость про Динамические места на поиске, я даже писать не стал, очередная попытка сильнее и незаметнее зашить блок с рекламой в выдачу, кажется все стадии принятия тут сеошники прошли.

Но оказалось это далеко не все, после такого даже я охуел удивился. Читаем внимательно официальную новость:

Необходимо выиграть аукцион по совокупности ставки, показателей качества и релевантности. В аукционе могут участвовать только объявления, URL страниц которых были отобраны органическим ранжированием в топ-20 выдачи по соответствующему поисковому запросу. При этом учитываются настройки таргетинга: ключевые фразы, автотаргетинг, география и другие.


Так стоп, причем тут ранжирование в топ-20 и контекстная реклама? Читаем дальше:

В результате отдельного аукциона рекламное объявление появится на динамическом месте в поисковой выдаче и не повлияет на другие рекламные размещения. Объявление будет промаркировано в соответствии с законом и помечено как реклама.


Что-нибудь поняли? Давайте помогу вам разобраться, ведь Яндекс этому всячески препятствует: в аукционе могут участвовать страницы из топ-20 выдачи по соответствующим запросам, в результате чего сниппет из органической выдачи становится рекламным блоком и за клики из топа теперь вы платите деньги😂

Да-да, здесь нет ошибки - вы ранжируетесь по запросу в органике в топе и, если у вас включена реклама с динамическим показом, сниппет с сайтом меняют на рекламу и за переход берут деньги, при этом органический сниппет из выдачи пропадает.

Обнаружил я это совершенно случайно, есть ряд запросов по которым я знаю, что проект находится в топе, при очередной проверке увидел рекламу и не увидел в органике, перепроверил на ряде других - тоже самое, либо органика, либо контекст, начали копать и вот докопались.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from SEO ТРЕНД
Допустим у вас на сайте есть 3 релевантных урла и все они живут в топе, все они показываются и получают трафик по одинаковому ядру запросов и вы решаете на 2х из 3х поставить ноуиндекс для Яндексе чтобы все клики шли на одну страницу и на след день вы видите вот такую картину.

Часть семантики больше не в топе 50. Т.е. Яндекс не нашел релевантного ответа на вашем сайте, хотя еще вчера все было в топе.

Почему так происходит?

Дело в том что Яндекс для начала должен выбрать домен релевантный запросу и только затем он выбирает страницу на домене.

А мы по сути отрезали часть знаний по кликам по ядру запросов и теперь Яндекс не видит нашего домена при выборе релевантного хоста.

А страница которая осталась в индексе имеет недостаточного количества кликов именно по семантике, которая ушла в 0 и теперь нужно время чтобы статистика собралась.

Выходит что вся текстовая релевантность в Яндекса крепко завязана на клики по ядру, просто релевантности без кликов не существует.
Мысленный эксперимент

Есть три сайта, и с каждым работает по одному SEO-специалисту. Для примера возьмем нишу онлайн-кинотеатров. Всего в мире существует 3 фильма - A, B, C, которые можно смотреть онлайн. Так уж получилось, что сайт-1 имеет лицензии на все три кинокартины, сайт-2 — на A и B, а сайт-3 — на A и С. Задача перед каждым из специалистов — обогнать в выдаче два других проекта.

Если дело происходит в 2010, то ситуация примерно следующая:
- Сайт-1 забыл создать страницы под фильмы.
- Сайт-2 постарался и создал все три страницы, несмотря на то, что фильмов у него только 2 (да, обманул).
- Сайт-3 сделал страницы под свои фильмы, но нет ни описания, ни данных по фильму, только плеер.

Поисковая система пытается отранжировать этот цирк, и сайт-2 оказывается в топе, сайт-3 следует за ним, сайт-1 замыкает. Почему? Да просто нечего больше ранжировать.
Ровно так работал SEO-центрированный подход, который дал старт многим бизнесам на аудитории из поиска без учета конечной ценности продукта.

Возвращаемся в 2025, что имеем:
- Сайт-1 сменил SEO-специалиста, сделали три страницы, добавили всю информацию.
- Фильмы одинаковые, описания одинаковые, поэтому у сайта-2 больше нет преимущества.
- Сайт-3 создал страницы для двух фильмов, а еще нашел спрос на страницы с подборками фильмов и сделал их.

Теперь вопросы, на которые можно попробовать ответить самостоятельно:
1. Как быстро люди поймут, что нет смысла платить одновременно сайту-2 и сайту-3, когда полный каталог есть у сайта-1? Влияет ли на это SEO-специалист?
2. Как быстро поисковые системы заметят то, что поняли люди?
3. Если сайт-1 сделает подборки фильмов, сможет ли он обогнать сайт-3 и почему?
4. Если SEO-специалисты сайта-2 и сайта-3 начнут дорабатывать страницы со своими двумя фильмами, поможет ли им это обогнать сайт-1?
5. Будет ли итоговый топ зависеть от качества текстовой оптимизации страниц, перелинковки, количества ссылок на страницы?
6. В чём зона ответственности каждого специалиста и чем она ограничена?
7. Что необходимо каждому сайту, чтобы получить существенно бОльшие результаты в поиске?
Да, здесь нет ошибки - пункты работ просто перемешаны случайным образом, год действительно 2025, план работ не из 2005. Главная беда сеошки, что на рынке до сих пор работают такие спецы и агентства. Всё едет на том, что из-за низкой стоимости жалко отказаться (а вдруг что-то сработает), но по факту оплата идёт просто за ежемесячные отчёты.

Быстрый чеклист как проверить, что за сео платите не зря (буквально 10-15 минут):
🟠Самое простое - открываем Keys.so, листаем до графиков: изучаем динамику трафика, страниц, запросов в топ-50 (общий запросный индекс) и в топ-10. У всего должна быть положительная динамика, не стагнация, не отрицательная.
🟠Если хотим точнее, то заходим в метрику Источники - Поисковые системы
🟠Исключаем информационный раздел или включаем коммерческий (ловко можно растить блоговый раздел, показывать положительную динамику, без реального роста коммерческого трафика)
🟠Убираем роботов (да, могут подкручивать именно поисковый трафик, метрика в целом неплохо справляется с детектом)
🟠Смотрим динамику Яндекс/Google за последний год, а то и два, если бизнес сезонный

Как это всё трактовать: есть два критерия положительного результата - это лиды, но лиды не все и не всегда отслеживают, поэтому по пирамиде чуть спускаемся - это правильный трафик. Трафик - это перемножение кол-ва страниц (коммерческих) и кол-ва запросов на них.

Поэтому надо понять - растёт ли сайт по нужным страницам, и растёт ли количество запросов как в топе, так и в целом.

P.S - кейс с консультации, человеку полтора года продавали эти работы, за полтора года отрицательный рост.
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/10 06:17:57
Back to Top
HTML Embed Code: