Все данные основаны на утечке Гугла и сведениях из судебных заседаний. Приводить исходники не буду – легко найдете сами в сливах.
Только сухие факты:
1. Околоанкорные тексты действительно учитываются.
2. Лучшие ссылки – с ранжирующихся по нужному анкору страниц
3. Внутренние и внешние ссылки обрабатываются крайне схожими алгоритмами
4. Удаленные ссылки работают еще какое то время (см мой пост про теневые ссылки)
5. Сквозные ссылки определяются и не имеют значительного веса
6. При оценке ссылок используются сущности (и их домены) – важность релевантности
7. Пейдж ранк (PR) по прежнему работает, но рассчитывается по иному
8. ———
9. Новым ссылкам временно присваивается некий средний PR
10. Если на странице есть несколько ссылок и одна из них открыта для индекса (нет тега nofollow), то и все иные ссылки становятся follow ссылками
11. Релевантность ссылки рассчитывается и имеет числовой показатель
12. Ссылки из новостей имеют несколько иной алгоритм рассчета
13. Каждый анкор принадлежит определенному кластеру
14. Ссылки на морду вызывают проверку «доверия» оной морды
15. Есть переменная SpamScore, которая определяет спамность ссылки и окружающего текста
16. Гугл оценивает вероятность попадания анкора в текст акцептора, т.е. осуществляет сверку сущностей. Это к вопросу спамности всяких говноанкоров типа: по ссылке, здесь, тут и пр.
17. Страница может не ранжироваться, но ссылка с неё может учитываться
18. Упоминания (без гиперссылки) работают
19. Google проверяет релевантность веб-сайта, на который ссылается листинг Google
20. Гугл оценивает анкоры, подсчитывая сколько их на странице, есть ли повторы анкоров, сколько анкоров использовано для внешних ссылок, для внутренних ссылок. После этого он объединяет данные и выставляет оценку анкору.
21. Фрагментированные анкоры (частичные) могут при расчете оценки признаваться основными анкорами.
22. Анкоры проверяются на спамность.
23. Осуществляется подсчет и контроль спамных анкоров
24. Хорошие анкоры становятся доверенными
25. Цель оценки анкоров – определить релевантность донора и акцептора
26. Страница может быть оштрафована из за плохих ссылок (badbacklinksPenalized)
27. Страница может быть оштрафована на уровне алгоритма Пингвин
28. Действительно, подсчитываются исходящие ссылки на домены с того же хоста (поиск сеток)
29. Проводиться расчет «отброшенных» анкоров для каждого кластера анкоров
30. Внутренние ссылки пингвином не обрабатываются
31. Существует ограничение на число анкорных текстов. Не более 5000 штук на 1 страницу.
32. Согласно сегменту качества анкоров, анкор с pagerank > 51000 является лучшим. Анкор с pagerank < 47000 - все одинаковы (напомню, что тулбарный PR рассчитывался логарифмически и приводился к PR10 max).
33. Определяется вероятность того, что этот набор анкоров будет демонстрировать спамное поведение
34. Рассчитывается всплеск спам-анкоров и осуществляются защитные действия для пострадавшего сайта
35. Если большинство входящих ссылок с морд сайтов, страница будет оштрафована
36. Для мощных ссылок выдается дополнительный фактор доверия.
37. Есть какие то флаги, которые выставляются для ссылок с дроп доменов
Это вот кратенько и может что то пропустил.
Живите теперь с этим ))))
#DrMax #SEO #Google #Links
Please open Telegram to view this post
VIEW IN TELEGRAM
Сравнивали результаты ранжирования контента сгенерённого Клавдией с таким же контентом, сгенерённым Гемени. Обоим чатам сливался один и тот же исходный контент, использовался один и тот же промпт.
Так вот Кллавдия проигрывает вчистую. Если контент сгенеренный Клавдией болтается в десятке, а то и ниже, контент сгенеренный Гемени ловко становитс в ТОП 3.
Неоднократно проводились замеры, когда первоначальный контент, сгенеренный Клавдией менялся на контент от Гемени и наблюдался рост.
И наоборот, контент, сгенеренный Гемени менялся на контент от Клавдии и было заметно постепенное падение.
По всей видимости, после продажи Клавдии Амазону, развитие пошло куда то не туда. Контент стал еще более слезливым и мелодраматичным, не смотря на все грозные окрики в промпте.
Возможен и иной вариант, ведь Гемени генерит 3 варианта контента и, как правило, собирается результирующий контент как кадавр из 3-х различных вариантов.
В целом, Клавдией разочарован.
Но все эти наблюдения - на данный момент. Все эти штуки быстро развиваются и через месяц картина может быть совершенно иной.
Вот такие дела.
Зы: Гугл AI Studio позволяет заглянуть немного вперед с развитием Гемени. Сейчас, вроде как используется движок 1.5. Flash, а в студии есть куча интересных экспериментальных движков, которые уже можно использовать.
#DrMax #SEO #Клавдия
Please open Telegram to view this post
VIEW IN TELEGRAM
Есть у меня суперпромпт, описывающий отдельные категории. Помимо стандартных требований по профессионализму написания текста, наиболее полных данных, тональности текста и пр., он состоит из нескольких десятков вопросов.
Например, описываем какой-нибудь кувшин для очистки воды. Тогда вопросы будут Какой материал кувшина? Как часто надо менять фильтр? Какие фильтры есть на рынке? Какие производители выпускают фильтры для этого кувшина? Можно ли мыть кувшин в посудомойке? Какое наполнение фильтров? Какие дополнительные функции есть у кувшина (механический счетчик литража, анализ качества очистки и т.д.)? Ну и так далее – всего штук 20-30 вопросов.
Стандартно этот промпт скармливался Перплексити, а затем полировался результат Бардом.
Если мы начинаем оперировать доменами сущностей, то перед тем как скормить промпт Перплексити, вопрошаю у Барда/Гемени, мол нужно сделать описание пресловутого кувшина для очистки воды и будь добр проанализировать промпт и добавить в него больше вопросов для раскрытия связанных сущностей и их доменов в оном промпте.
В результате получаем переработанный промпт, в котором понапиханы совершенно неочевидные вопросы о сущностях оного кувшина. В результате получаем более всеобъемлющее описание и, что самое интересное, структура описания абсолютно разная для каждого пресловутого кувшина. Это очень важно.
Итак, понимание сущностей и доменов сущностей – это важный шаг для создания эффективной SEO-стратегии. Это позволяет вам не просто конкурировать за ключевые слова, а строить глубокое понимание вашей ниши и предоставлять пользователям действительно полезный контент.
#DrMax #SEO #сущности #Google
Например, описываем какой-нибудь кувшин для очистки воды. Тогда вопросы будут Какой материал кувшина? Как часто надо менять фильтр? Какие фильтры есть на рынке? Какие производители выпускают фильтры для этого кувшина? Можно ли мыть кувшин в посудомойке? Какое наполнение фильтров? Какие дополнительные функции есть у кувшина (механический счетчик литража, анализ качества очистки и т.д.)? Ну и так далее – всего штук 20-30 вопросов.
Стандартно этот промпт скармливался Перплексити, а затем полировался результат Бардом.
Если мы начинаем оперировать доменами сущностей, то перед тем как скормить промпт Перплексити, вопрошаю у Барда/Гемени, мол нужно сделать описание пресловутого кувшина для очистки воды и будь добр проанализировать промпт и добавить в него больше вопросов для раскрытия связанных сущностей и их доменов в оном промпте.
В результате получаем переработанный промпт, в котором понапиханы совершенно неочевидные вопросы о сущностях оного кувшина. В результате получаем более всеобъемлющее описание и, что самое интересное, структура описания абсолютно разная для каждого пресловутого кувшина. Это очень важно.
Итак, понимание сущностей и доменов сущностей – это важный шаг для создания эффективной SEO-стратегии. Это позволяет вам не просто конкурировать за ключевые слова, а строить глубокое понимание вашей ниши и предоставлять пользователям действительно полезный контент.
#DrMax #SEO #сущности #Google
Всем привет!
Поздравляю всех товарищей с прошедшими праздниками. К сожалению не смог сделать это вовремя по независящим от меня причинам. И огромное спасибо всем друзьям, что меня поддержали.
Попытаюсь начать работу. Для начала в канале буду публиковать наиболее интересные куски из книги, которая так и не увидела свет. Пока на новые исследования нет сил, но думается материалы всем понравятся. Начну прямо сегодня.
По задолженностям моим сегодня - завтра свяжусь и порешаем. Новые аудиты / анализы/ консультации брать не смогу, по очевидным причинам.
Накопившуюся почту/сообщения разобрать практически не возможно - более 1000 сообщений только в телеграмме, но постараюсь потихоньку осилить. Не обессудьте.
Еще раз всем спасибо, что читаете канал.
#DrMax
Поздравляю всех товарищей с прошедшими праздниками. К сожалению не смог сделать это вовремя по независящим от меня причинам. И огромное спасибо всем друзьям, что меня поддержали.
Попытаюсь начать работу. Для начала в канале буду публиковать наиболее интересные куски из книги, которая так и не увидела свет. Пока на новые исследования нет сил, но думается материалы всем понравятся. Начну прямо сегодня.
По задолженностям моим сегодня - завтра свяжусь и порешаем. Новые аудиты / анализы/ консультации брать не смогу, по очевидным причинам.
Накопившуюся почту/сообщения разобрать практически не возможно - более 1000 сообщений только в телеграмме, но постараюсь потихоньку осилить. Не обессудьте.
Еще раз всем спасибо, что читаете канал.
#DrMax
sdt3.py
8.4 KB
Сжатие данных (компрессия) — это уменьшение размера файла без потери важной информации. Поисковые системы могут применять сжатие для выявления некачественных страниц, в том числе дубликатов, дорвеев со схожим контентом и страниц со спамными ключевыми словами.
Микрософтовцы в 2006 году выкатили результаты исследования, согласно которому обнаружили, что избыточное количество повторяющихся слов приводит к более высокой степени сжатия. Они проверили, существует ли связь между высокой степенью сжатия и спамом. Результаты показали, что страницы со степенью сжатия 4,0 и выше в 70% случаев являлись спамом (об этом позже).
Выводы исследования таковы:
1. Дорвеи с дублирующимся контентом легко обнаружить, так как они сжимаются сильнее обычных страниц.
2. Группы страниц со степенью сжатия выше 4,0 преимущественно являлись спамом.
3. Использование только одного сигнала качества может привести к ложным срабатываниям.
4. Сигнал сжатия выявляет только спам, связанный с избыточностью, но не другие виды спама.
5. Комбинация сигналов качества повышает точность обнаружения спама и снижает количество ложных срабатываний.
Почитать это исследование и полюбоваться на графики можно вот тут.
В принципе, мы можем использовать данное исследования для определения недостаточного качества отдельных страниц с достаточно высокой достоверностью.
Теория оного действия незамысловата: алгоритмы сжатия, такие как gzip, уменьшают размер файлов, удаляя избыточные данные. Если страница сильно сжимается, то, вероятно, в ней много повторяющегося или шаблонного контента. Высокая степень сжатия может указывать на низкое качество или спамность страницы, поскольку такие страницы часто содержат повторяющиеся фразы, избыточное количество ключевых слов или просто "воду". Измеряя эту степень, мы можем выявить страницы, которые могут негативно влиять на общее качество сайта.
Реализация анализа крайне проста: можно использовать для расчетов хоть питон, хоть лягушку, хоть Гугл – шитсы – абсолютно не важно. Реализацию на лягушке я утерял, потому приведу реализацию на питоне.
Суть скрипта – скармливаем скрипту xml карту сайта. Скрипт выдирает значимый контент, сжимает его и делит одно на второе. Результаты отписывает в файл, который потом экспортируем в Эксель и сортируем по коэффициенту сжатия.
Повторюсь, в отрыве от иных оценочных методов, данный метод может сильно лажать. Но, тем не менее, оная метода позволяет без всяких усилий и достаточно быстро вычленить наиболее проблемные страницы сайта.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Сжатие данных как способ выявления некачественных страниц -2
Использование скрипта для тех, кто не знает что есть такое Питон:
1. Качаем питон вот здесь. Третью версию.
2. Ставим например на C диск в папку Python
3. Запускаем консоль Win+R и устанавливаем необходимые для работы пакеты:
Вводим вот такое:
жмем Энтер
Потом вводим вот такое:
пакеты установлены.
4. Скачиваем из прошлого поста скрипт sdt3. py и кидаем его в корень питона ( то есть C:\Python\ или куда там его вы поставили)
5. Запускаем скрипт (открываем консоль через WIN + R)
6. Вводим URL xml-карты сайта
7. Ждем
8. Получаем на выходе txt файл, который можем анализировать, загнав его в Excel
Собственно в скрипте все прокомментировано - можете переписать под себя
#DrMax #Python #SEO
Использование скрипта для тех, кто не знает что есть такое Питон:
1. Качаем питон вот здесь. Третью версию.
2. Ставим например на C диск в папку Python
3. Запускаем консоль Win+R и устанавливаем необходимые для работы пакеты:
Вводим вот такое:
c:\Python\python.exe -m pip install requests
жмем Энтер
Потом вводим вот такое:
c:\Python\python.exe -m pip install bs4
пакеты установлены.
4. Скачиваем из прошлого поста скрипт sdt3. py и кидаем его в корень питона ( то есть C:\Python\ или куда там его вы поставили)
5. Запускаем скрипт (открываем консоль через WIN + R)
c:\Python\python.exe sdt3.py
6. Вводим URL xml-карты сайта
7. Ждем
8. Получаем на выходе txt файл, который можем анализировать, загнав его в Excel
Собственно в скрипте все прокомментировано - можете переписать под себя
#DrMax #Python #SEO
Еще один интересный признак, позволяющий легко найти некачественные страницы на сайте – это «Количество днейс момента последней индексации страниц». Этот признак вылез после летних обновлений, когда вместо помещения некачественной страницы в раздел «Страница просканирована, но пока не проиндексирована» , Гугл просто перестал обращать внимание на некачественные страницы. Формально, они остаются в индексе, но при этом такие страницы не имеют не то что кликов, а даже показов в выдаче. То есть Гугл не пихает их в органику, помещая (как это было давным - давно) в саплиментал индекс.
Как и любой метод определения некачественных страниц на сайте, он не гарантирует 100% точности и должен использоваться в совокупности с иными методами определения Thin-контента на сайте. Кроме того, необходимо учитывать еще 2 важных фактора для таких страниц – глубина вложения и число входящих ссылок. В принципе, все это детектится на автомате, например, используя лягушку.
Итак, берем лягушку, парсим сайт, не забывая подключить в API данные GSC, ну например за 2-3 месяца. После парсинга выгружаем в Excel все HTML страницы с данными и сортируем страницы по столбцу «Days Since Last Crawled». В среднем, количество дней не должно превышать 30 (крайне сильно зависит от структуры и размера проекта), все что больше – нуждается в инспектированию, анализе и правке.
Что интересно, показатель «Days Since Last Crawled» прямо коррелирует с количеством показов страницы в выдаче. Чем больше показов, тем показатель лучше (меньше).
Если страницы с плохим показателем «Days Since Last Crawled» расположены очень глубоко – то необходимо задуматься о том, чтобы сделать структуру проекта более плоской.
Если страницы с плохим показателем «Days Since Last Crawled» имеют меньше среднего входящих ссылок – стоит задуматься о внедрении внутренней перелинковки в том или ином виде.
Все остальные случаи, когда «Days Since Last Crawled» излишне велик – требуют правки контента. Самое паскудное здесь, что, не смотря на изменение Last Modified в XML картах сайтов, сейчас Гугл будет их переиндексировать весьма неспешно, возможно что и на год растянется такая переиндексация. То есть результаты правки будут учтены крайне не скоро.
Тут приходится или вручную подавать такие страницы на переиндекс (если их мало) или размещать ссылки на такие страницы на главной или иных авторитетных страницах сайта, которые достаточно часто переобходятся. Ну и ссылочное внешнее на эти страницы помогает.
Вот такой нехитрый способ поиска очередных говностраниц на сайте. Пользуйтесь.
#DrMax #SEO #ThinContent #Google #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
Цель данного анализа — обнаружить страницы, которые потеряли значительную часть трафика из Google, и определить возможные причины этой потери. Это позволит своевременно принять меры по восстановлению трафика и улучшению позиций сайта в поисковой выдаче. Для работы нам понадобится Google Search Console (GSC).
Шаг 1: Первичный анализ динамики трафика
1. Откройте раздел "Эффективность" в GSC.
2. Выберите вкладку "Поисковые запросы" или "Страницы". Рекомендую начать со вкладки "Страницы".
3. Установите диапазон дат. Выберите последние 28 дней (или другой период, соответствующий вашему циклу анализа, например, 90 дней) и сравните его с аналогичным предыдущим периодом. Для более точного сравнения учитывайте сезонность вашего бизнеса. Если ваш трафик сильно зависит от времени года, сравнивайте текущий период с аналогичным периодом прошлого года. Если сезонность не выражена, можно сравнивать с предыдущим периодом.
4. В большинстве случаев прошлый период (такой же по длительности) лучше выбирать не связанный с текущим, а, например, летний (июль).
5. Отсортируйте таблицу по столбцу "Клики - Разница" по возрастанию, чтобы увидеть страницы с наибольшей потерей кликов.
Шаг 2: Детальный анализ страниц с просадкой трафика
Всегда необходимо анализировать совокупно клики и показы страницы. Если клики упали, а количество показов сохранилось – то вы были вытеснены конкурентами с топовых позиций. Если клики упали и упало количество показов, то, возможно, страница недостаточно качественная и по ряду запросов её выбросили из ранжирования.
Особым случаем является ситуация, когда клики и показы упали до 0. Это явный признак недовольства Гуглом вашей страницей и необходимо принимать меры по устранению этой проблемы. Чтобы увидеть такие страницы – воспользуйтесь фильтром справа (см скрин) и установите количество текущих кликов равных 0. Скорей всего, данные страницы попали под фильтр Гугла (если не учитывать сезонность, устарелость контента и прочие факторы).
Итак:
• Клики: Значительное падение кликов — основной сигнал проблемы.
• Показы:
1. Снижение показов и кликов: Это может свидетельствовать о потере позиций по важным запросам или о том, что страница перестала ранжироваться по определенным запросам.
2. Показы остались на прежнем уровне, а клики упали: Это может указывать на проблемы с CTR (кликабельностью). Возможно, конкуренты предложили более привлекательные сниппеты, или изменились результаты поиска (появились новые элементы SERP, например, быстрые ответы).
3. Средняя позиция: Рост значения средней позиции означает, что страница опустилась в поисковой выдаче.
Особый случай: Клики и показы упали до нуля
Если клики и показы страницы упали до нуля, это тревожный сигнал. Возможные причины:
1. Фильтрация Гуглом, например HCU (вероятность 80- 90%)
2. Технические проблемы: Ошибка 404, проблемы с индексацией, неправильная настройка robots.txt, noindex, canonical.
3. Ручные санкции: Страница могла попасть под ручные санкции Google за нарушение правил качества. Проверьте раздел "Проблемы безопасности и меры, принятые вручную" в GSC (крайне низкая вероятность).
4. Устаревший или неактуальный контент: Страница может потерять релевантность для пользователей и перестать ранжироваться.
5. Сезонность: Для некоторых тематик падение трафика до нуля в определенные периоды может быть нормой.
6. Каннибализация запросов: Трафик мог "перетечь" на другую, более релевантную страницу вашего сайта.
Чтобы найти такие страницы:
1. В отчете "Эффективность" выберите вкладку "Страницы".
2. Нажмите "Создать фильтр" (кнопка справа - см скрин).
3. Выберите "Клики (текущий диапазон)", затем "Равно" и введите значение 0.
4. Примените фильтр.
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжение
Шаг 3: Дополнительные методы поиска страниц с просадкой трафика в GSC:
1. Фильтрация по средней позиции.
Можно использовать фильтр "Средняя позиция" в отчете "Эффективность". Это позволит найти страницы которые резко потеряли позиции в поисковой выдаче.
Как это сделать:
1. В отчете "Эффективность" выберите вкладку "Страницы".
2. Нажмите кнопку "Создать фильтр".
3. Выберите "Средняя позиция", затем "Больше чем" и введите значение, например, 10 (то есть страницы, которые опустились ниже топ-10).
4. Установите диапазон дат как в первом методе.
5. Сравните полученные данные с предыдущим периодом, чтобы определить, какие страницы резко потеряли позиции.
2. Анализ поисковых запросов.
Перейдите на вкладку "Поисковые запросы" и проанализируйте, по каким запросам сайт потерял показы и клики. Это поможет понять, какие темы и ключевые слова стали менее релевантными.
3. Сравнение данных по разным типам поиска.
Используйте фильтр "Тип поиска" (Веб, Картинки, Видео, Новости), чтобы определить, в каком типе поиска произошла просадка трафика.
4. Анализ данных по странам и устройствам.
Фильтры "Страны" и "Устройства" помогут выявить проблемы, специфичные для определенного региона или типа устройства.
Шаг 4: Что делать со страницами с просадкой трафика?
После того как вы обнаружили страницы, потерявшие трафик, необходимо определить причину и принять соответствующие меры. Вот несколько общих рекомендаций:
1. Проверьте техническое состояние страницы: Убедитесь, что страница доступна для индексации, не имеет ошибок и корректно отображается на разных устройствах.
2. Обновите и дополните контент: Сделайте контент более актуальным, полезным и уникальным. Добавьте новую информацию, мультимедийные элементы, обновите статистику.
3. Проработайте метатеги: Оптимизируйте заголовки (title) и описания (description), чтобы они были более привлекательными и релевантными поисковым запросам.
4. Улучшите внутреннюю перелинковку: Убедитесь, что на проблемную страницу ведут ссылки с других релевантных страниц вашего сайта.
5. Проверьте внешние ссылки: Проанализируйте ссылочный профиль страницы. Возможно, она потеряла качественные внешние ссылки.
6. Проанализируйте конкурентов: Посмотрите, что делают ваши конкуренты, которые вытеснили вас из топа. Возможно, у них более качественный контент, лучше оптимизированы страницы или сильнее ссылочный профиль.
7. Полностью перепишите или удалите проблемный контент (если не помогли предыдущие меры)
Регулярный мониторинг трафика в Google Search Console — важная часть SEO-оптимизации. Используйте описанные выше методы, чтобы своевременно обнаруживать страницы с просадкой трафика и принимать меры по его восстановлению. Помните, что падение трафика не всегда связано с фильтрами Google. Причины могут быть разными, и важно провести комплексный анализ, чтобы найти и устранить проблему.
#DrMax #SEO #Google
Шаг 3: Дополнительные методы поиска страниц с просадкой трафика в GSC:
1. Фильтрация по средней позиции.
Можно использовать фильтр "Средняя позиция" в отчете "Эффективность". Это позволит найти страницы которые резко потеряли позиции в поисковой выдаче.
Как это сделать:
1. В отчете "Эффективность" выберите вкладку "Страницы".
2. Нажмите кнопку "Создать фильтр".
3. Выберите "Средняя позиция", затем "Больше чем" и введите значение, например, 10 (то есть страницы, которые опустились ниже топ-10).
4. Установите диапазон дат как в первом методе.
5. Сравните полученные данные с предыдущим периодом, чтобы определить, какие страницы резко потеряли позиции.
2. Анализ поисковых запросов.
Перейдите на вкладку "Поисковые запросы" и проанализируйте, по каким запросам сайт потерял показы и клики. Это поможет понять, какие темы и ключевые слова стали менее релевантными.
3. Сравнение данных по разным типам поиска.
Используйте фильтр "Тип поиска" (Веб, Картинки, Видео, Новости), чтобы определить, в каком типе поиска произошла просадка трафика.
4. Анализ данных по странам и устройствам.
Фильтры "Страны" и "Устройства" помогут выявить проблемы, специфичные для определенного региона или типа устройства.
Шаг 4: Что делать со страницами с просадкой трафика?
После того как вы обнаружили страницы, потерявшие трафик, необходимо определить причину и принять соответствующие меры. Вот несколько общих рекомендаций:
1. Проверьте техническое состояние страницы: Убедитесь, что страница доступна для индексации, не имеет ошибок и корректно отображается на разных устройствах.
2. Обновите и дополните контент: Сделайте контент более актуальным, полезным и уникальным. Добавьте новую информацию, мультимедийные элементы, обновите статистику.
3. Проработайте метатеги: Оптимизируйте заголовки (title) и описания (description), чтобы они были более привлекательными и релевантными поисковым запросам.
4. Улучшите внутреннюю перелинковку: Убедитесь, что на проблемную страницу ведут ссылки с других релевантных страниц вашего сайта.
5. Проверьте внешние ссылки: Проанализируйте ссылочный профиль страницы. Возможно, она потеряла качественные внешние ссылки.
6. Проанализируйте конкурентов: Посмотрите, что делают ваши конкуренты, которые вытеснили вас из топа. Возможно, у них более качественный контент, лучше оптимизированы страницы или сильнее ссылочный профиль.
7. Полностью перепишите или удалите проблемный контент (если не помогли предыдущие меры)
Регулярный мониторинг трафика в Google Search Console — важная часть SEO-оптимизации. Используйте описанные выше методы, чтобы своевременно обнаруживать страницы с просадкой трафика и принимать меры по его восстановлению. Помните, что падение трафика не всегда связано с фильтрами Google. Причины могут быть разными, и важно провести комплексный анализ, чтобы найти и устранить проблему.
#DrMax #SEO #Google
Итак, жил-был буржуинский проект и внезапно он попал под HCU. Оный не совсем убил его (порезал траф вдвое), так что варианты быстрого вывода все ж были. И была на оном проекте очень важная страница, которая давала значительную долю конвертабельного трафа. И посколь HCU накладывается на весь сайт целиком, то оная страница также просела.
Именно, основываясь на идее, что фильтр накладывается на домен было принято решение вынести данную страницу за пределы этого домена. Попросту говоря - пихнуть на поддомен. Такой кандибобер срабатывал при разнесении страниц по признакам YMYL, Так что шанс на удачное восстановление был.
Отдельная эпопея возникла после переноса страницы на поддомен. Гугл ни в какую не хотел признавать новый поддомен со страницей и пихать его в индекс. Он ворчал что это дубли, указывал каноничной страницу на офф сайте (коей уже не было), долго страдал, но в конце - концов взял страницу в индекс.
Поначалу все шло не плохо. В течении месяца показы быстро росли, появились клики, но чуть позже фильтр догнал эту страницу и все обрезалось в 0. Причем это случилось не в период апов.
Таким образом, как оказалось, фильтр HCU накладывается не только на домен, но и на поддомены основного домена. Поэтому вывод из под фильтра выносом контента за пределы основного домена - не сработал.
Посмотрел как сейчас обстоят дела со страницей- поддоменом. Трафа на ней нет. Показов нет.
Ну чтож, негативный опыт - тоже опыт.
PS
из за особенности переиндекса пришлось ставить 301 редиректы со страницы на офф сайте на страницу - поддомен.
PPS
контент намеренно не изменялся.
#DrMax #SEO #Google #HCU #test
Please open Telegram to view this post
VIEW IN TELEGRAM
Собственно эксперимент достаточно простой. ИИ были скормлены все руководства Гугла по созданию качественного контента. Все что они там понавыдумывали было формализовано в 2-3 десятка правил.
После этого была скормлен контент страницы, который нужно оптимизировать и 4 СЧ ключа, по которым нужно вывести страницу в ТОП.
Было предложено переписать контент с соблюдением правил гугла по качественному контенту и оптимизировать его под эти 4 ключа. Мета тайтл и дескрипшен тоже меняются.
Ежедневно снимаются позиции по 4 ключам, уведомляется ИИ о позициях и требуем дальнейшей оптимизации контента в зависимости от результатов.
Все это находится в 1 ветке обсуждения. Используется Гугловская AI студия, модель Gemeni Experimental 1206. Температура 0.85 (из 2).
Таким образом, используя обратную связь мы пытаемся нащупать принципы оптимизации контента с использованием ИИ.
По завершении эксперимента эти принципы бдут формализованы и будет заложен кластер, ну например, из 10 страниц этого же сайта для их выталкивания в ТОП.
Время переиндексации и внесения измениния в органику - где то 4 часа (для данного проекта).
Если будут какие то положительные результаты - напишем софтинку, которая будет массово и на автомате снимать позиции, подсовывать ИИ и изменения публиковать на проекте. Но пока до этого очень далеко.
И да, я прекрасно понимаю, что разные тематики, гео, типы сайтов требуют разных подходов по оптимизации. Поэтому всю эту штуковину нужно обучать для каждого сайта отдельно.
Первые результаты довольно положительные. Рост идет.
Через пару месяцев можно будет подводить итоги. Уведомлю.
ЗЫ.
абсолютно не важно за счет чего происходит рост страницы. За счет оптимизации контента, тайтлов, свежести и т.д. Главное что это все внутренние факторы и все это очень просто автоматизируется.
#DrMax #SEO #Content
Please open Telegram to view this post
VIEW IN TELEGRAM
Google обновил Руководство для асессоров, добавив определение контента, сгенерированного искусственным интеллектом (ИИ), и описав новые типы спама. Руководство разрешает использование ИИ-инструментов, но подчеркивает, что контент должен представлять уникальную ценность. В обновлении также выделены три новых типа спама: злоупотребление просроченными доменами, злоупотребление репутацией сайта и злоупотребление масштабированным контентом.
Основные моменты таковы:
Определение контента, сгенерированного ИИ: В раздел 2.1 "Важные определения" добавлено формальное определение контента, созданного с помощью ИИ.
Google официально признает существование и влияние ИИ-контента на результаты поиска. Определение подчеркивает способность ИИ создавать разнообразный контент, что ставит вопрос о его качестве и оригинальности.
Разница между низким и самым низким качеством контента: Разделы 4.0-4.6 значительно переработаны и включают подробные подразделы о новых формах спама и низкокачественного контента, включая:
1. Злоупотребление просроченными доменами: Покупка и перепрофилирование просроченных доменов с целью размещения на них контента, не представляющего ценности для пользователей.
Этот тип спама нацелен на использование авторитета старого домена для быстрого ранжирования нового сайта. Google явно борется с этой тактикой, поскольку она вводит пользователей в заблуждение.
2. Злоупотребление репутацией сайта: Размещение стороннего контента на авторитетном сайте с целью использования его уже устоявшихся сигналов ранжирования.
Эта практика часто используется для продвижения низкокачественного или рекламного контента. Google стремится защитить пользователей от манипуляций, когда репутация сайта используется не по назначению.
3. Злоупотребление масштабированным контентом: Создание большого количества страниц с целью получения выгоды для владельца сайта, а не для помощи пользователям. Сюда относится использование ИИ для создания низкокачественного контента.
Google акцентирует внимание на том, что ИИ не должен использоваться как инструмент для массового производства бесполезного контента. Ключевой момент - ценность для пользователя, а не количество.
Идентификация контента, сгенерированного ИИ: В разделе 4.7 приведены конкретные примеры того, как идентифицировать и оценивать контент, созданный ИИ.
Приведенный пример с фразой "Как языковая модель, я не имею доступа к данным в реальном времени..." показывает, что Google может распознавать типичные для ИИ формулировки. Это сигнал о том, что нужно тщательно редактировать и адаптировать ИИ-контент, чтобы он выглядел естественно.
Новые технические требования: Асессорам предписано отключать блокировщики рекламы для точной оценки пользовательского опыта.
Это нововведение указывает на то, что Google уделяет больше внимания реальному пользовательскому опыту, включая взаимодействие с рекламой. Вероятно, это связано с тем, что реклама является важным источником дохода для Google и влияет на восприятие сайта пользователями.
Отсюда несколько умозаключений:
Стратегия ИИ-контента: ИИ-инструменты можно использовать, но фокус должен быть на создании уникального и ценного контента, а не на массовом производстве. ИИ может быть полезным инструментом для генерации идей, создания черновиков, но контент должен быть тщательно отредактирован и дополнен человеком, чтобы соответствовать стандартам Google. Нужно добавлять экспертное мнение, примеры, данные, чтобы сделать контент уникальным.
Качество важнее количества: Google по-прежнему ценит высококачественный, оригинальный контент. Вместо погони за количеством страниц, стоит сосредоточиться на создании подробных, исчерпывающих материалов, которые отвечают на вопросы пользователей и решают их проблемы.
Please open Telegram to view this post
VIEW IN TELEGRAM
Технические аспекты: Необходимо учитывать, как контент отображается для пользователей с включенными и отключенными блокировщиками рекламы.
Сайты должны быть оптимизированы для корректного отображения контента в различных браузерах и с разными настройками. Стоит протестировать свой сайт с включенным и отключенным блокировщиком рекламы, чтобы убедиться, что контент доступен и удобен для чтения.
Особое внимание к YMYL-тематикам при использовании ИИ: Тематики YMYL (Your Money or Your Life), такие как финансы, здоровье и право, требуют особой точности и достоверности. При создании контента в этих тематиках с использованием ИИ, необходимо тщательно проверять факты, ссылаться на авторитетные источники и привлекать экспертов для проверки информации.
Дополнительные мысли по SEO-стратегии:
E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness): Обновление руководства подчеркивает важность E-E-A-T. Контент должен демонстрировать опыт, авторитетность и надежность автора. Указывайте авторов контента, их квалификацию и опыт. Ссылайтесь на авторитетные источники. Добавляйте отзывы и социальные доказательства.
Пользовательский опыт (UX): Google все больше внимания уделяет UX. Убедитесь, что ваш сайт удобен для пользователей, быстро загружается, имеет понятную навигацию и адаптирован для мобильных устройств.
Оригинальность и уникальность: Создавайте контент, который отличается от конкурентов и предлагает что-то новое. Проводите исследования, анализируйте конкурентов, находите пробелы в информации и заполняйте их своим уникальным контентом.
Прозрачность использования ИИ: Если вы используете ИИ для создания контента, будьте прозрачны в этом. Можно добавить дисклеймер, что контент был создан с помощью ИИ, но отредактирован и проверен человеком. Это поможет повысить доверие пользователей.
#DrMax #SEO #QRG #Google
Сайты должны быть оптимизированы для корректного отображения контента в различных браузерах и с разными настройками. Стоит протестировать свой сайт с включенным и отключенным блокировщиком рекламы, чтобы убедиться, что контент доступен и удобен для чтения.
Особое внимание к YMYL-тематикам при использовании ИИ: Тематики YMYL (Your Money or Your Life), такие как финансы, здоровье и право, требуют особой точности и достоверности. При создании контента в этих тематиках с использованием ИИ, необходимо тщательно проверять факты, ссылаться на авторитетные источники и привлекать экспертов для проверки информации.
Дополнительные мысли по SEO-стратегии:
E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness): Обновление руководства подчеркивает важность E-E-A-T. Контент должен демонстрировать опыт, авторитетность и надежность автора. Указывайте авторов контента, их квалификацию и опыт. Ссылайтесь на авторитетные источники. Добавляйте отзывы и социальные доказательства.
Пользовательский опыт (UX): Google все больше внимания уделяет UX. Убедитесь, что ваш сайт удобен для пользователей, быстро загружается, имеет понятную навигацию и адаптирован для мобильных устройств.
Оригинальность и уникальность: Создавайте контент, который отличается от конкурентов и предлагает что-то новое. Проводите исследования, анализируйте конкурентов, находите пробелы в информации и заполняйте их своим уникальным контентом.
Прозрачность использования ИИ: Если вы используете ИИ для создания контента, будьте прозрачны в этом. Можно добавить дисклеймер, что контент был создан с помощью ИИ, но отредактирован и проверен человеком. Это поможет повысить доверие пользователей.
#DrMax #SEO #QRG #Google
На основе нового QRG можно повысить (значительно) качество генеренки контента для вашего сайта. Для этого берем чат бот (например Google AI Studio) и в новом промпте:
1. Подробно описываем ваш сайт: тематику, что есть на сайте, для кого он предназначен (например опытные пользователи софта или там покупатели, ищущие новые впечатления ), его гео и пр. Чем больше информации - тем лучше.
2. С новой строки пишем, какого рода контент вы хотите генерировать (описание товара или инструкции к играм или еще чего)
3. После этого просим написать промпт с требованиями по качеству контента, приведенным в руководстве для асессоров по качеству для лучшего ранжирования в Гугле.
Ну и прикладываем сам PDF файл.
В итоге вы получаете кусок промпта с рекомендациями по качеству именно под вашу тематику и под ваш сайт.
Повторив рекурсивно несколько раз эти операции вы сможете сделать отличный промпт, который позволит вам генерачить контент, полностью отвечающий требованиям QRG.
Пользуйтесь.
#DrMax #Фишки #QRG #Prompt
Please open Telegram to view this post
VIEW IN TELEGRAM
Неделю назад китайцы выкатили убийцу ЧатГПТ - мега продукт под названием DeepSeek. В браузерной версии он бесплатен, не требует VPN и работает довольно прилично. Сейчас расскажу.
1. Он как и перплексити умеет работать с поиском по инету - т.е. собирать информацию и как то её обрабатывать. Конечно, тот же Гемени адвансед при запросе собирает и обрабатывает несколько сотен страниц (из Гугла) а DeepSeek несколько десятков (скорей всего из Байды), но это так себе показатель. Если кто то юзал платный перплексити, то он видел, что оный перплексити задает десяток последовательных вопросов, каждый из которых уточняет предыдущий. Так ли работает DeepSeek - неизвестно.
2. По качеству генеренки DeepSeek крайне напоминает Гемени 1.5PRO. Вплоть до совпадения некоторых фраз. Такое ощущение, что китайцы сперли часть наработок гугла.
3. DeepSeek в данной иттерации значительно уступает новым экспериментальным гугловским моделям по качеству контента. Но думается это ненадолго.
4. В данной иттерации DeepSeek требует крайне вдумчивых и обстоятельных промптов, в которых требуется достаточно полно описывать что вы хотите получить.
5. Запихал в него эксперимент №2 и понял, что контент в первой же иттерации более привлекательный, чем генерируемый AI Студией Гугла.
6. С Клавдией не сравнивал
7. При включении режима "рассусоливания", DeepSeek может менять результаты генерации на лету, поправляя самого себя. Это интересно и познавательно. Вот как это описано в исследовательской работе по этому ИИ.
В целом ИИ более понравился, чем не понравился. Будем юзать.
Офф сайт DeepSeek тут. Пользуйтесь.
ЗЫ. Акции Nvidea после выхода DeepSeek обрушились на $300 млрд. На разработку DeepSeek китайцы потратили $6 млн.
ЗЗЫ2. Какие то обиженки устроили DDOS атаку на DeepSeek. Регистрация (бесплатная) может быть недоступна какое то время.
#DrMax #ИИ #DeepSeek
Please open Telegram to view this post
VIEW IN TELEGRAM