Please open Telegram to view this post
VIEW IN TELEGRAM
Чтиво про аутсорс в SEOшке для крупных проектов и продуктов.
https://vc.ru/marketing/1098770-plyusy-i-minusy-seo-autsorsa-dlya-krupnyh-kompanii-dlya-chego-cian-gazprombank-i-ivi-vykupayut-chasy-agentskih-seoshnikov
https://vc.ru/marketing/1098770-plyusy-i-minusy-seo-autsorsa-dlya-krupnyh-kompanii-dlya-chego-cian-gazprombank-i-ivi-vykupayut-chasy-agentskih-seoshnikov
vc.ru
Плюсы и минусы SEO-аутсорса для крупных компаний. Для чего Циан, Газпромбанк и Ivi выкупают часы агентских сеошников — Маркетинг…
Ашманов и партнеры Маркетинг 02.04.2024
Forwarded from Иван Зимин | SEO
Резкий обвал проектов Яндекса ... в Яндексе по всем нишам, где он присутствует с основным доменом или поддоменами, при этом в Google все без изменений.
Либо что-то сломали, либо случайно выключили «бонус» для своих проектов и теперь Яндекс ранжируется там где и должен (далеко не всегда в топ-10)😛
Проверить свою нишу можно здесь:
Либо что-то сломали, либо случайно выключили «бонус» для своих проектов и теперь Яндекс ранжируется там где и должен (далеко не всегда в топ-10)
Проверить свою нишу можно здесь:
https://www.ashmanov.com/rating/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Oleg Shestakov - Digital Business
9 апреля Google официально заявил, что будет наказывать за AI-контент на сайте 😈😈😈
Краткая и по делу выжимка из доклада Google в Мадриде и их новой инструкции для асессоров (оценщиков качества поиска):
👉 Если на вашем сайте основной контент страниц создан с помощью AI - вы может получить НИЗШУЮ оценку качества. Да, даже не просто низкую. Это все равно что ваш сайтговносайт дорвей
Теперь детально разберем - какой ИМЕННО AI и генерированный любыми другими методами контент считается некачественным по мнению Google:
"Рейтинг «НИЗШИЙ» применяется, если весь или почти весь контент странице (включая текст, изображения, аудио, видео и т. д.) скопированы, перефразированы, встроены, сгенерированы автоматически или с помощью искусственного интеллекта - без особых усилий, практически без оригинальности и с минимальной добавленной ценностью для посетителей сайта. Такие страницы должны иметь самую низкую оценку, даже если на странице указаны ссылки на другие, доверенные источники"
Если перевести на русский язык то, Google будет под ноль срезать трафик у сайтов, контент которых:
👉 Создан с использованием автоматизации и фактически является копией или компиляцией других страниц в интернете
👉 Фактически является рерайтом или компиляцией из других источников.
Как Google определяет автоматически созданный = спамный = неполезный для пользователей контент?
Критерии следующие:
👉 Страница содержит только общеизвестную информацию или общеизвестные факты
👉 Страница имеет большое совпадение с веб-страницами в хорошо известных источниках, таких как Википедия, справочные сайты и т. д.
👉 Страница выглядят как краткое изложение другой конкретной страницы, например обсуждения на форуме или новостной статьи, без какой-либо дополнительной ценности (!)
👉 Страница имеет типичные слова и признаки для обобщения или пересказа генеративных инструментов ИИ, например, слова «Как языковая модель ИИ»».
NB: Примечание автора (моё):
👉 Сюда же попадают так любимые ChatGPT блоки Introduction, Conclusion и FAQ - не делайте так)
👉 Если на странице есть ОЧЕВИДНО недостоверная информация - еще одна желтая карточка
Дополнительные критерии:
Рейтинг "НИЗШИЙ" получат страницы, которые:
👉 Состоящие из реюзнутого контента = компиляции контента с других сайтов, БЕЗ ДОБАВЛЕНИЯ какой-либо ценности
👉 Страницы, основной контент которых - это репосты, компиляции или вставленные видео - без какой либо доп.ценности и обсуждений
👉 Страницы, представляющие собой подборки "ТОП10 лучших...", где весь контент собран с других сайтов. Арбитражникам - привет 😁
В общем любые "миксы" контента конкурентов из ТОПа без дополнительной ценности - не будут приносить трафика
Дополнительные критерии 2:
Тут немного из другой оперы, но тоже важно т.к. фактически это все раскатывают одновременно, в одном апдейте алгоритма:
👉 Отдельно будут смотреть за страницами, которые закрывают итак генерированный контент рекламой или делают такую верстку, что до основного контента добраться можно лишь пробиваясь через кучу баннеров и поп-апов. Верстка с большими отступами между блоками - сюда же. Теперь асессоры ОБЯЗАНЫ ОТКЛЮЧАТЬ все блокировщики рекламы чтобы видеть эту дичь
👉 Накрученные фейковые авторы с фейковыми регалиями и преувеличенным опытом - теперь тоже могут будут влиять негативно на позиции сайта в поиске. Привет всем у кого авторы до сих пор с https://thispersondoesnotexist.com/
Да, Google признает, что AI-может помогать в создании качественного контента, но также четко понимает, что SEO-шники будут использовать AI для массового спама и подрезает крылышки.
Да, изменения в инструкцию для оценка качества сайтов были внесены еще в Январе 2025 - так что это уже реальность, а не какое-то дальнее будущее.
Поэтому если вам предлагают всяких AI-агентов, супер SaaS сервисы по автонаполнению блога или созданию AI-форумов - шлите их в жопу. В результате ваш сайт попадет в бан.
Ну не поймаете вы Бога за бороду. SEO уже НИКОГДА не будет НИ ПРОСТЫМ, НИ ДЕШЕВЫМ.
Но если думать головой - то все реально.
Кидайте 60 огней - сделаю пост как продолжать и дальше нагибать Google с помощью AI 🤟😎🤟
Краткая и по делу выжимка из доклада Google в Мадриде и их новой инструкции для асессоров (оценщиков качества поиска):
👉 Если на вашем сайте основной контент страниц создан с помощью AI - вы может получить НИЗШУЮ оценку качества. Да, даже не просто низкую. Это все равно что ваш сайт
Теперь детально разберем - какой ИМЕННО AI и генерированный любыми другими методами контент считается некачественным по мнению Google:
"Рейтинг «НИЗШИЙ» применяется, если весь или почти весь контент странице (включая текст, изображения, аудио, видео и т. д.) скопированы, перефразированы, встроены, сгенерированы автоматически или с помощью искусственного интеллекта - без особых усилий, практически без оригинальности и с минимальной добавленной ценностью для посетителей сайта. Такие страницы должны иметь самую низкую оценку, даже если на странице указаны ссылки на другие, доверенные источники"
Если перевести на русский язык то, Google будет под ноль срезать трафик у сайтов, контент которых:
👉 Создан с использованием автоматизации и фактически является копией или компиляцией других страниц в интернете
👉 Фактически является рерайтом или компиляцией из других источников.
Как Google определяет автоматически созданный = спамный = неполезный для пользователей контент?
Критерии следующие:
👉 Страница содержит только общеизвестную информацию или общеизвестные факты
👉 Страница имеет большое совпадение с веб-страницами в хорошо известных источниках, таких как Википедия, справочные сайты и т. д.
👉 Страница выглядят как краткое изложение другой конкретной страницы, например обсуждения на форуме или новостной статьи, без какой-либо дополнительной ценности (!)
👉 Страница имеет типичные слова и признаки для обобщения или пересказа генеративных инструментов ИИ, например, слова «Как языковая модель ИИ»».
NB: Примечание автора (моё):
👉 Сюда же попадают так любимые ChatGPT блоки Introduction, Conclusion и FAQ - не делайте так)
👉 Если на странице есть ОЧЕВИДНО недостоверная информация - еще одна желтая карточка
Дополнительные критерии:
Рейтинг "НИЗШИЙ" получат страницы, которые:
👉 Состоящие из реюзнутого контента = компиляции контента с других сайтов, БЕЗ ДОБАВЛЕНИЯ какой-либо ценности
👉 Страницы, основной контент которых - это репосты, компиляции или вставленные видео - без какой либо доп.ценности и обсуждений
👉 Страницы, представляющие собой подборки "ТОП10 лучших...", где весь контент собран с других сайтов. Арбитражникам - привет 😁
В общем любые "миксы" контента конкурентов из ТОПа без дополнительной ценности - не будут приносить трафика
Дополнительные критерии 2:
Тут немного из другой оперы, но тоже важно т.к. фактически это все раскатывают одновременно, в одном апдейте алгоритма:
👉 Отдельно будут смотреть за страницами, которые закрывают итак генерированный контент рекламой или делают такую верстку, что до основного контента добраться можно лишь пробиваясь через кучу баннеров и поп-апов. Верстка с большими отступами между блоками - сюда же. Теперь асессоры ОБЯЗАНЫ ОТКЛЮЧАТЬ все блокировщики рекламы чтобы видеть эту дичь
👉 Накрученные фейковые авторы с фейковыми регалиями и преувеличенным опытом - теперь тоже могут будут влиять негативно на позиции сайта в поиске. Привет всем у кого авторы до сих пор с https://thispersondoesnotexist.com/
Да, Google признает, что AI-может помогать в создании качественного контента, но также четко понимает, что SEO-шники будут использовать AI для массового спама и подрезает крылышки.
Да, изменения в инструкцию для оценка качества сайтов были внесены еще в Январе 2025 - так что это уже реальность, а не какое-то дальнее будущее.
Поэтому если вам предлагают всяких AI-агентов, супер SaaS сервисы по автонаполнению блога или созданию AI-форумов - шлите их в жопу. В результате ваш сайт попадет в бан.
Ну не поймаете вы Бога за бороду. SEO уже НИКОГДА не будет НИ ПРОСТЫМ, НИ ДЕШЕВЫМ.
Но если думать головой - то все реально.
Кидайте 60 огней - сделаю пост как продолжать и дальше нагибать Google с помощью AI 🤟😎🤟
Смотрю на выдачу, что Google, что Яндекс и откровенных дорвеев и сеток становится сильно меньше.
Недавно знакомый задал вопрос про то, что сейчас лучше делать по манисайтам и по сути 2 пути:
1. Делать агрегаторы, что долго и дорого. Причем, доля агрегаторов в обоих ПС не увеличивается, а наоборот уменьшается и консервируется.
2. Мимикрировать под реальный бизнес и проводить через себя все лиды, отдавая их партнёрам, но тут уже появляются колл центры и прочая дичь из реального бизнеса.
Вывод: зарабатывать на сайтах все ещё можно, но подходы сильно поменялись и усложнились.
Есть еще вариант - паразитировать на чужом трафике, но это другая история!
Недавно знакомый задал вопрос про то, что сейчас лучше делать по манисайтам и по сути 2 пути:
1. Делать агрегаторы, что долго и дорого. Причем, доля агрегаторов в обоих ПС не увеличивается, а наоборот уменьшается и консервируется.
2. Мимикрировать под реальный бизнес и проводить через себя все лиды, отдавая их партнёрам, но тут уже появляются колл центры и прочая дичь из реального бизнеса.
Вывод: зарабатывать на сайтах все ещё можно, но подходы сильно поменялись и усложнились.
Есть еще вариант - паразитировать на чужом трафике, но это другая история!
А если серьезно, то там есть любопытный инструмент для сравнения ссылочных профилей для нескольких сайтов, где можно:
1. Посмотреть ссылочный профиль любого конкурента.
2. Сравнить СП конкурентов со своим.
3. Найти общие ссылающиеся домены или домены, которых нет у вас, но есть у конкурентов.
Не претендую на открытие, инструмент старый как говно мамонта, но мало кто им пользуется.
1. Посмотреть ссылочный профиль любого конкурента.
2. Сравнить СП конкурентов со своим.
3. Найти общие ссылающиеся домены или домены, которых нет у вас, но есть у конкурентов.
Не претендую на открытие, инструмент старый как говно мамонта, но мало кто им пользуется.
Кто тестировал кластеризацию запросов на python без данных оп поисковой выдаче?
Кластеризовать по ТОПу можно, но есть нюансы:
1. Часть документов вкручена ПФ и там текстовой релевантности не так много.
2. Выдача XML вообще не совпадает с живым серпом.
Вот тут почитал, но не тестировал: https://www.marronnier.ru/blog/15-analitika/52-avtomatizitsiya-klasterizatsiya-klyuchevyh-slov-na-python
Кластеризовать по ТОПу можно, но есть нюансы:
1. Часть документов вкручена ПФ и там текстовой релевантности не так много.
2. Выдача XML вообще не совпадает с живым серпом.
Вот тут почитал, но не тестировал: https://www.marronnier.ru/blog/15-analitika/52-avtomatizitsiya-klasterizatsiya-klyuchevyh-slov-na-python
www.marronnier.ru
Кластеризация поисковых запросов семантического ядра на Python - блог Marronnier
В этой статье опубликован работающий готовый скрипт на языке Python, с помощью которого можно кластеризовать поисковые запросы за короткое время.
Есть у кого нибудь пример корректного RSS файла для pinterest?!