Хороший разбор того, какие данные шлёт Яндекс.Браузер своим создателям.
➡️ Если коротко, вот что получает Яндекс после установки браузера:
🟠 Список установленного ПО на ПК пользователя 😚
🟠 Текущие настройки DNS (и возможно подменяет на свои)
🟠 Содержимое файла hosts
🟠 Весь список пользователей в системе
Заодно скрывает все уведомления от пользователя, чтобы не возникало вопросов.
Вся эта движуха происходит легально, потому что при скачивании по умолчанию стоит галочка согласия на отправку, но за что респект, так это за то что при отключении вся слежка и правда выключается.
В комментариях тут же пришел один из разработчиков (?) и начал позитивно заверять что это на благо пользователя для борьбы с вирусами, попутно расхваливая автора за проявленную смекалку, но мы то знаем.
Источник👥
Заодно скрывает все уведомления от пользователя, чтобы не возникало вопросов.
Вся эта движуха происходит легально, потому что при скачивании по умолчанию стоит галочка согласия на отправку, но за что респект, так это за то что при отключении вся слежка и правда выключается.
В комментариях тут же пришел один из разработчиков (?) и начал позитивно заверять что это на благо пользователя для борьбы с вирусами, попутно расхваливая автора за проявленную смекалку, но мы то знаем.
Источник
Please open Telegram to view this post
VIEW IN TELEGRAM
Искать программистов сложно и больно. Даже при наличии хорошего бюджета.
Обычно отвечают кратко - не интересно или просто не возьмусь, а фриланс биржи заполонили писатели скриптов на 200 строк кода, если вы понимаете о чем я.
Но поскольку живём мы в удивительное время нейросетей, то с очередной задачей потратив пару вечеров на поиски исполнителя, плюнул и сел писать сам. До полноценного видео как всегда не доходят руки, но возможно пригодится мой опыт уже года нейпрограммирования в текстовом виде, чтобы писать почти что угодно самому. Без шуток, на скрине - комбайн в телеграме на тысячи строк кода, который жонглирует пол дюжиной апишек для получения того результата, который нужен мне.
Правда чтобы его написать, пришлось пройти тернистый путь, где я прочувствовал на себе что такое техдолг, а раньше о нем только слышал. Начинал писать с одного файла, файл разрастался, ответа в 300 строк кода (а ровно столько может в одном сообщении написать ИИ) быстро стало не хватать, расширение функционала громоздило огромные файлы, которые в какой-то момент стало невозможно обновлять и поддерживать.
Чтобы не повторять моих ошибок можно придерживаться следующих правил:
➡️ Никакого ChatGPT, платно или бесплатно он творит дичь, лучший и единственный Claude.ai
➡️ Сразу создаём проект (у GPT ограничение 20 файлов, тут ограничений пока не встретил). Проект - это набор файлов из будущей разработки. В настройках указываем как давать ответ: кратко, без комментариев в коде, чтобы экономить токены, в одном ответе - один файл, если планируется исправление нескольких файлов - сначала указать каких.
➡️ В зависимости от языка программирование и типа проекта, очень рекомендую предварительно создать чат и спросить про структуру будущего проекта. Если бы я так сделал, то узнал сразу что в telegram ботах существуют хендлеры, кнопки клавиатуры хранятся в отдельном файле, а каждый модуль надо писать в отдельном файле.
➡️ Главное правило - никогда не писать сразу большой функционал, один чат +1 простая функция. Уже сейчас, я могу понять, где стоит дать задачу в несколько функций, но по началу крайне сложно отследить что и где ломается, или работает не так.
➡️ Для работы с API достаточно показать пример запроса и пример ответа (чаще всего json), а они почти всегда есть в документации.
➡️ Чтобы получить хороший результат, надо четко понимать какие этапы есть в процессе и что за чем следует. Не знаете?Даём вводные и спрашиваем у ИИ как бы он решал задачу.
Пару недель практики и будете писать автоматизацию любой сложности, да еще и на любом языке, ни один курс вас такому не научит :)
Обычно отвечают кратко - не интересно или просто не возьмусь, а фриланс биржи заполонили писатели скриптов на 200 строк кода, если вы понимаете о чем я.
Но поскольку живём мы в удивительное время нейросетей, то с очередной задачей потратив пару вечеров на поиски исполнителя, плюнул и сел писать сам. До полноценного видео как всегда не доходят руки, но возможно пригодится мой опыт уже года нейпрограммирования в текстовом виде, чтобы писать почти что угодно самому. Без шуток, на скрине - комбайн в телеграме на тысячи строк кода, который жонглирует пол дюжиной апишек для получения того результата, который нужен мне.
Правда чтобы его написать, пришлось пройти тернистый путь, где я прочувствовал на себе что такое техдолг, а раньше о нем только слышал. Начинал писать с одного файла, файл разрастался, ответа в 300 строк кода (а ровно столько может в одном сообщении написать ИИ) быстро стало не хватать, расширение функционала громоздило огромные файлы, которые в какой-то момент стало невозможно обновлять и поддерживать.
Чтобы не повторять моих ошибок можно придерживаться следующих правил:
Пару недель практики и будете писать автоматизацию любой сложности, да еще и на любом языке, ни один курс вас такому не научит :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Я собрался с мыслями и в 45-минутном видео (в 4K!) на нескольких десятков слайдов положил своё понимание SEO в данный момент.
Чтобы сделать эти выводы,я прошел через много рефлексии, сомнений, вопросов и гипотез. Полезно будет посмотреть, если в фильме «Матрица» вы тоже выбирали красную, а не синюю таблетку.
⏱️ Таймкоды:
00:00 - Перед началом
1:30 - Траст и всё что с ним связано
12:15 - Сейчас ранжируется бизнес
19:30 - Главный драйвер роста
22:00 - Вы не знаете что такое интент
31:00 - Коротко о техничке
33:30 - Усиление
43:35 - Итоги
🖥 https://youtu.be/Zyf2C7IudPg 🖥
Чтобы сделать эти выводы,я прошел через много рефлексии, сомнений, вопросов и гипотез. Полезно будет посмотреть, если в фильме «Матрица» вы тоже выбирали красную, а не синюю таблетку.
⏱️ Таймкоды:
00:00 - Перед началом
1:30 - Траст и всё что с ним связано
12:15 - Сейчас ранжируется бизнес
19:30 - Главный драйвер роста
22:00 - Вы не знаете что такое интент
31:00 - Коротко о техничке
33:30 - Усиление
43:35 - Итоги
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Только правда. Что происходит с SEO в 2025 году?!
Поговорим о том, как трастовые ресурсы захватили 90-95% поискового трафика и что с этим делать молодым сайтам:
🏆 Траст сайта — что это на самом деле и почему он решает всё в современном SEO
🔍 Интент пользователя — глубокое понимание, выходящее за рамки ключевых…
🏆 Траст сайта — что это на самом деле и почему он решает всё в современном SEO
🔍 Интент пользователя — глубокое понимание, выходящее за рамки ключевых…
Периодически меня банят ИИ за чрезмерное использование, поэтому в очередной вынужденный перерыв, решил развернуть нейросеть у себя на ноутбуке.
Почему-то раньше думал, что это какая-то высокая материя, на которую надо потратить не меньше недели, а по факту - минут 15 времени.
🟠 Для начала устанавливаем оболочку -
🟠 Заходим в настройки (⚙️ снизу справа) и выбираем
🟠 Скачиваем модель, которую потянет ваше устройство (их там много). Основное правило - модель должна помещаться в оперативную память.
➡️ Зачем все это нужно, когда есть бесплатный DeepSeek и полубесплатные Claude / ChatGPT / Gemini? Например, для обработки очень больших объемов несложных данных, на что тратить токены нерентабельно.
➡️ Скорость ответа упирается в производительность процессора - чем она больше, тем быстрее.
Для сравнения подал на вход аналогичный посту выше промпт, результат похуже, но как бы и модель не самая мощная и стоимость околонулевая.
Почему-то раньше думал, что это какая-то высокая материя, на которую надо потратить не меньше недели, а по факту - минут 15 времени.
lmstudio.ai
Model Search
Для сравнения подал на вход аналогичный посту выше промпт, результат похуже, но как бы и модель не самая мощная и стоимость околонулевая.
Please open Telegram to view this post
VIEW IN TELEGRAM
Результаты текстовой оптимизации за две недели в Google (Яндекс на такое почти не реагирует) через нейросеть. Отсортировано по убыванию в дату начала эксперимента, чтобы показать откуда запросы заходят в топ, положительная динамика по всем посадкам.
Почему так:
🟠 Яндекс - хорошо понимает контекст и смысл, поэтому ему подходит базовая информация со страницы, а дальше уходит в оценку поведения.
🟠 Google - не очень хорошо понимает контекст и местные особенности языка, поэтому ему важно увидеть текстовое вхождение слов (биграмм) из кластера на странице.
В общем, ИИ вдохнуло вторую жизнь в SEO, сейчас открыто окно возможностей, за счет которого можно обогнать тех кто AI пока не использует, дальше рынок обязательно скорректируется (паблик сервисы, инструменты и прочее, ну а сейчас дикий запад).
⚙️ Дальнейшее развитие AI SEO вижу так:
🟠 Генерация метаданных и контента через общедоступные модели (большинство сейчас тут)
🟠 Генерация метаданных и контента через обученные модели под тематику сайта
🟠 Проектирование и наполнение сайта целевыми посадочными раскрывающие весь интент в рамках ниши на основе обученной модели
🟠 Загрузка в обученную модель всего сайта для динамической генерации контента под интент любого поискового запроса на ходу
🟠 Сингулярность и конец света SEO
Почему так:
В общем, ИИ вдохнуло вторую жизнь в SEO, сейчас открыто окно возможностей, за счет которого можно обогнать тех кто AI пока не использует, дальше рынок обязательно скорректируется (паблик сервисы, инструменты и прочее, ну а сейчас дикий запад).
Please open Telegram to view this post
VIEW IN TELEGRAM
Смотрю на Youtube авторов контента по ИИ - все разрабатывают AI агентов, рассказывают про области применения, как продать ИИ бизнесам, а по факту почти все решения - это ChatGPT завернутый в Telegram бота под видом ассистента (лол ). То ли еще не придумали, где это реально можно полезно применять, то ли в самой технологии и нет никакого прорыва, об этом кстати еще Ашманов говорил.
В итоге, для большинства, это умный саммаразийнг чего угодно, который полезнее конечному пользователю в ряде узких вопросов (чаще все инструкции и ответы на вопросы), чем реальный прорывной инструмент в бизнесе.
Окей, берём сеошку - за плечами 15 лет опыта, понимание тех. процесса и множества нюансов, где я это по факту применяю:
- Аналитика большого объема данных, раньше - сидел и собирал руками структуру сайта, сейчас - закидываю в нейросеть вводные и получаю структуру, но тут еще извернуться с промптом надо и форматом подачи данных, чтобы он не перемудрил с результатами, в общем спорно, но решаемо.
- Про тексты говорить нет смысла, подходит идеально, копирайтеры уже вымирают как профессия, скоро исчезнут окончательно
- Автоматизация - по постам заметно, что я с головой там, поскольку ИИ это эдакий кореш-программист, который с улыбкой бежит писать любую скучную программу. Часть процессов удалось перенести в одну кнопку, с другой частью еще воюю, но тут нет прорыва, тут замена субъективного восприятия задачи спецом, на конкретный алгоритм, который двигается в строгих рамках и даёт прогнозируемый результат.
Все это наглядно про то, что я тоже не вижу сильного прорыва, скорее всего в других нишах также.
Да, подрастёт качество сайтов (проще внедрять микроразметки, перелинковки, больше можно размещать текстов и больше контекста давать в тех нишах где нет экпертизы), но потолок у этого качества не так высоко, просто будет немного быстрее и дешевле чем сейчас.
Что-то, что раньше делал человек на уровне обобщения и сортировки да/нет/хорошо/плохо, теперь может делать нейросеть, но принятие итогового решения, а также оценка полученных результатов без глубокого понимания никакого преимущества не даст. Неожиданно, но нейросети не стали зарабатывать за нас.
В итоге, для большинства, это умный саммаразийнг чего угодно, который полезнее конечному пользователю в ряде узких вопросов (чаще все инструкции и ответы на вопросы), чем реальный прорывной инструмент в бизнесе.
Окей, берём сеошку - за плечами 15 лет опыта, понимание тех. процесса и множества нюансов, где я это по факту применяю:
- Аналитика большого объема данных, раньше - сидел и собирал руками структуру сайта, сейчас - закидываю в нейросеть вводные и получаю структуру, но тут еще извернуться с промптом надо и форматом подачи данных, чтобы он не перемудрил с результатами, в общем спорно, но решаемо.
- Про тексты говорить нет смысла, подходит идеально, копирайтеры уже вымирают как профессия, скоро исчезнут окончательно
- Автоматизация - по постам заметно, что я с головой там, поскольку ИИ это эдакий кореш-программист, который с улыбкой бежит писать любую скучную программу. Часть процессов удалось перенести в одну кнопку, с другой частью еще воюю, но тут нет прорыва, тут замена субъективного восприятия задачи спецом, на конкретный алгоритм, который двигается в строгих рамках и даёт прогнозируемый результат.
Все это наглядно про то, что я тоже не вижу сильного прорыва, скорее всего в других нишах также.
Да, подрастёт качество сайтов (проще внедрять микроразметки, перелинковки, больше можно размещать текстов и больше контекста давать в тех нишах где нет экпертизы), но потолок у этого качества не так высоко, просто будет немного быстрее и дешевле чем сейчас.
Что-то, что раньше делал человек на уровне обобщения и сортировки да/нет/хорошо/плохо, теперь может делать нейросеть, но принятие итогового решения, а также оценка полученных результатов без глубокого понимания никакого преимущества не даст. Неожиданно, но нейросети не стали зарабатывать за нас.
На скриншоте одно из лучших на сегодняшний день решений - Browser Use, пока это не управление компьютером, но уже управление браузером.
Логика работы следующая:
Звучит так, что это очередной прорыв, но в реальности есть много скользких моментов:
Если заинтересовало:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from SEO ТРЕНД
Допустим у вас на сайте есть 3 релевантных урла и все они живут в топе, все они показываются и получают трафик по одинаковому ядру запросов и вы решаете на 2х из 3х поставить ноуиндекс для Яндексе чтобы все клики шли на одну страницу и на след день вы видите вот такую картину.
Часть семантики больше не в топе 50. Т.е. Яндекс не нашел релевантного ответа на вашем сайте, хотя еще вчера все было в топе.
Почему так происходит?
Дело в том что Яндекс для начала должен выбрать домен релевантный запросу и только затем он выбирает страницу на домене.
А мы по сути отрезали часть знаний по кликам по ядру запросов и теперь Яндекс не видит нашего домена при выборе релевантного хоста.
А страница которая осталась в индексе имеет недостаточного количества кликов именно по семантике, которая ушла в 0 и теперь нужно время чтобы статистика собралась.
Выходит что вся текстовая релевантность в Яндекса крепко завязана на клики по ядру, просто релевантности без кликов не существует.
Часть семантики больше не в топе 50. Т.е. Яндекс не нашел релевантного ответа на вашем сайте, хотя еще вчера все было в топе.
Почему так происходит?
Дело в том что Яндекс для начала должен выбрать домен релевантный запросу и только затем он выбирает страницу на домене.
А мы по сути отрезали часть знаний по кликам по ядру запросов и теперь Яндекс не видит нашего домена при выборе релевантного хоста.
А страница которая осталась в индексе имеет недостаточного количества кликов именно по семантике, которая ушла в 0 и теперь нужно время чтобы статистика собралась.
Выходит что вся текстовая релевантность в Яндекса крепко завязана на клики по ядру, просто релевантности без кликов не существует.
Мысленный эксперимент
Есть три сайта, и с каждым работает по одному SEO-специалисту. Для примера возьмем нишу онлайн-кинотеатров. Всего в мире существует 3 фильма - A, B, C, которые можно смотреть онлайн. Так уж получилось, что сайт-1 имеет лицензии на все три кинокартины, сайт-2 — на A и B, а сайт-3 — на A и С. Задача перед каждым из специалистов — обогнать в выдаче два других проекта.
Если дело происходит в 2010, то ситуация примерно следующая:
- Сайт-1 забыл создать страницы под фильмы.
- Сайт-2 постарался и создал все три страницы, несмотря на то, что фильмов у него только 2 (да, обманул).
- Сайт-3 сделал страницы под свои фильмы, но нет ни описания, ни данных по фильму, только плеер.
Поисковая система пытается отранжировать этот цирк, и сайт-2 оказывается в топе, сайт-3 следует за ним, сайт-1 замыкает. Почему? Да просто нечего больше ранжировать.
Ровно так работал SEO-центрированный подход, который дал старт многим бизнесам на аудитории из поиска без учета конечной ценности продукта.
Возвращаемся в 2025, что имеем:
- Сайт-1 сменил SEO-специалиста, сделали три страницы, добавили всю информацию.
- Фильмы одинаковые, описания одинаковые, поэтому у сайта-2 больше нет преимущества.
- Сайт-3 создал страницы для двух фильмов, а еще нашел спрос на страницы с подборками фильмов и сделал их.
Теперь вопросы, на которые можно попробовать ответить самостоятельно:
1. Как быстро люди поймут, что нет смысла платить одновременно сайту-2 и сайту-3, когда полный каталог есть у сайта-1? Влияет ли на это SEO-специалист?
2. Как быстро поисковые системы заметят то, что поняли люди?
3. Если сайт-1 сделает подборки фильмов, сможет ли он обогнать сайт-3 и почему?
4. Если SEO-специалисты сайта-2 и сайта-3 начнут дорабатывать страницы со своими двумя фильмами, поможет ли им это обогнать сайт-1?
5. Будет ли итоговый топ зависеть от качества текстовой оптимизации страниц, перелинковки, количества ссылок на страницы?
6. В чём зона ответственности каждого специалиста и чем она ограничена?
7. Что необходимо каждому сайту, чтобы получить существенно бОльшие результаты в поиске?
Есть три сайта, и с каждым работает по одному SEO-специалисту. Для примера возьмем нишу онлайн-кинотеатров. Всего в мире существует 3 фильма - A, B, C, которые можно смотреть онлайн. Так уж получилось, что сайт-1 имеет лицензии на все три кинокартины, сайт-2 — на A и B, а сайт-3 — на A и С. Задача перед каждым из специалистов — обогнать в выдаче два других проекта.
Если дело происходит в 2010, то ситуация примерно следующая:
- Сайт-1 забыл создать страницы под фильмы.
- Сайт-2 постарался и создал все три страницы, несмотря на то, что фильмов у него только 2 (да, обманул).
- Сайт-3 сделал страницы под свои фильмы, но нет ни описания, ни данных по фильму, только плеер.
Поисковая система пытается отранжировать этот цирк, и сайт-2 оказывается в топе, сайт-3 следует за ним, сайт-1 замыкает. Почему? Да просто нечего больше ранжировать.
Ровно так работал SEO-центрированный подход, который дал старт многим бизнесам на аудитории из поиска без учета конечной ценности продукта.
Возвращаемся в 2025, что имеем:
- Сайт-1 сменил SEO-специалиста, сделали три страницы, добавили всю информацию.
- Фильмы одинаковые, описания одинаковые, поэтому у сайта-2 больше нет преимущества.
- Сайт-3 создал страницы для двух фильмов, а еще нашел спрос на страницы с подборками фильмов и сделал их.
Теперь вопросы, на которые можно попробовать ответить самостоятельно:
1. Как быстро люди поймут, что нет смысла платить одновременно сайту-2 и сайту-3, когда полный каталог есть у сайта-1? Влияет ли на это SEO-специалист?
2. Как быстро поисковые системы заметят то, что поняли люди?
3. Если сайт-1 сделает подборки фильмов, сможет ли он обогнать сайт-3 и почему?
4. Если SEO-специалисты сайта-2 и сайта-3 начнут дорабатывать страницы со своими двумя фильмами, поможет ли им это обогнать сайт-1?
5. Будет ли итоговый топ зависеть от качества текстовой оптимизации страниц, перелинковки, количества ссылок на страницы?
6. В чём зона ответственности каждого специалиста и чем она ограничена?
7. Что необходимо каждому сайту, чтобы получить существенно бОльшие результаты в поиске?
Да, здесь нет ошибки - пункты работ просто перемешаны случайным образом, год действительно 2025, план работ не из 2005. Главная беда сеошки, что на рынке до сих пор работают такие спецы и агентства. Всё едет на том, что из-за низкой стоимости жалко отказаться (а вдруг что-то сработает), но по факту оплата идёт просто за ежемесячные отчёты.
Быстрый чеклист как проверить, что за сео платите не зря (буквально 10-15 минут):
🟠 Самое простое - открываем Keys.so, листаем до графиков: изучаем динамику трафика, страниц, запросов в топ-50 (общий запросный индекс) и в топ-10. У всего должна быть положительная динамика, не стагнация, не отрицательная.
🟠 Если хотим точнее, то заходим в метрику
🟠 Исключаем информационный раздел или включаем коммерческий (ловко можно растить блоговый раздел, показывать положительную динамику, без реального роста коммерческого трафика)
🟠 Убираем роботов (да, могут подкручивать именно поисковый трафик, метрика в целом неплохо справляется с детектом)
🟠 Смотрим динамику Яндекс/Google за последний год, а то и два, если бизнес сезонный
Как это всё трактовать: есть два критерия положительного результата - это лиды, но лиды не все и не всегда отслеживают, поэтому по пирамиде чуть спускаемся - это правильный трафик. Трафик - это перемножение кол-ва страниц (коммерческих) и кол-ва запросов на них.
Поэтому надо понять - растёт ли сайт по нужным страницам, и растёт ли количество запросов как в топе, так и в целом.
P.S - кейс с консультации, человеку полтора года продавали эти работы, за полтора года отрицательный рост.
Быстрый чеклист как проверить, что за сео платите не зря (буквально 10-15 минут):
Источники - Поисковые системы
Как это всё трактовать: есть два критерия положительного результата - это лиды, но лиды не все и не всегда отслеживают, поэтому по пирамиде чуть спускаемся - это правильный трафик. Трафик - это перемножение кол-ва страниц (коммерческих) и кол-ва запросов на них.
Поэтому надо понять - растёт ли сайт по нужным страницам, и растёт ли количество запросов как в топе, так и в целом.
P.S - кейс с консультации, человеку полтора года продавали эти работы, за полтора года отрицательный рост.
Please open Telegram to view this post
VIEW IN TELEGRAM
Keyso выкатил обновление для групповых отчетов - теперь их можно собирать не только по топ-50, но и топ-10.
Главная проблема топ-50 - там много мусора, особенно у «жирных» сайтов, которые могли ранжироваться даже в топ-20 по супер нерелевантным запросам, проблема решалась увеличением числа конкурентов в подборке и завышение веса запроса.
Нахождение запроса в топ-10 - это гарантия полной релевантности, поэтому сейчас хорошую семантику можно собирать на базе даже 2-3 конкурентов, тут главное правильно их выбрать.
Главная проблема топ-50 - там много мусора, особенно у «жирных» сайтов, которые могли ранжироваться даже в топ-20 по супер нерелевантным запросам, проблема решалась увеличением числа конкурентов в подборке и завышение веса запроса.
Нахождение запроса в топ-10 - это гарантия полной релевантности, поэтому сейчас хорошую семантику можно собирать на базе даже 2-3 конкурентов, тут главное правильно их выбрать.
Яндекс сообщил о крупном обновлении алгоритмов, связанном с определением качества контента (выкашивают ИИ) .
При этом то, с каким удобством они сидят на двух стульях удивляет. Видели где-нибудь в рейтингах нейросетей YandexGPT? Я тоже не видел, но его генережку Яндекс считает качественной, в отличии от передовых моделей.
Например, полмиллиона запросов в топ-10 собирает их сайт с GPT пересказами, а этот дор, запущенный на папке вообще выносит даже сильных конкурентов из некоторых ниш.
Из интересного, они упомянули про PBN и санкции за продвижение таким образом, хотя до конца не понятно, пессимизируются сами PBN или сайты, на которые они ссылаются.
В общем, глобально ничего нового, затягиваем пояса.
При этом то, с каким удобством они сидят на двух стульях удивляет. Видели где-нибудь в рейтингах нейросетей YandexGPT? Я тоже не видел, но его генережку Яндекс считает качественной, в отличии от передовых моделей.
Например, полмиллиона запросов в топ-10 собирает их сайт с GPT пересказами, а этот дор, запущенный на папке вообще выносит даже сильных конкурентов из некоторых ниш.
Из интересного, они упомянули про PBN и санкции за продвижение таким образом, хотя до конца не понятно, пессимизируются сами PBN или сайты, на которые они ссылаются.
В общем, глобально ничего нового, затягиваем пояса.
Наглядно про разницу ранжирования Яндекс (скриншот1) и Google (скриншот2) на примере одной проработанной страницы.
С точки зрения SEO учтены все основные моменты: текстовые факторы, CTR сниппета, содержимое и дизайн страницы, есть внутренние ссылки на страницу.
Что происходит дальше➡️
❤️ Яндекс
🟠 Быстрый заход в индекс
🟠 Попадание в топ2 на основе SEO-факторов
🟠 Набор поведенческих факторов от людей
🟠 Переранжирование на основе поведения
🖥 Google
🟠 Медленнее попадает в индекс
🟠 Планомерный рост до топ-3 всего ядра
🟠 Стабильное удержание в топе за счет базового SEO
В Яндексе проработка страницы может помочь на старте быстрее набрать аналитику по кликам в топе, чтобы он мог отранжировать страницу согласно удовлетворенности на выборке пользователей, а для дальнейшего роста будут работать сугубо продуктовые механики. Для Google хорошая базовая сеошка все еще имеет смысл.
С точки зрения SEO учтены все основные моменты: текстовые факторы, CTR сниппета, содержимое и дизайн страницы, есть внутренние ссылки на страницу.
Что происходит дальше
В Яндексе проработка страницы может помочь на старте быстрее набрать аналитику по кликам в топе, чтобы он мог отранжировать страницу согласно удовлетворенности на выборке пользователей, а для дальнейшего роста будут работать сугубо продуктовые механики. Для Google хорошая базовая сеошка все еще имеет смысл.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Резкий обвал проектов Яндекса ... в Яндексе по всем нишам, где он присутствует с основным доменом или поддоменами, при этом в Google все без изменений.
Либо что-то сломали, либо случайно выключили «бонус» для своих проектов и теперь Яндекс ранжируется там где и должен (далеко не всегда в топ-10)😛
Посмотреть как дела у Яндекса в вашей нише:
UPD: Говорят, что сломался Ашманов, а не Яндекс😭
Либо что-то сломали, либо случайно выключили «бонус» для своих проектов и теперь Яндекс ранжируется там где и должен (далеко не всегда в топ-10)
Посмотреть как дела у Яндекса в вашей нише:
https://www.ashmanov.com/rating/
UPD: Говорят, что сломался Ашманов, а не Яндекс
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM