Telegram Web Link
🔄 Как Гугл врет: Об объеме контента на странице

Как нам говорили гугловцы - размер контента не имеет значения. Он ранжируется абсолютно по одним и тем же правилам, что короткая статья, что длинная.

Это не так.

Большие документы Гугл обрезает. Он рассчитывает количество токенов и соотношение общего количества слов в тексте к количеству уникальных токенов. В документах указано, что существует максимальное количество токенов, которые можно рассматривать для документа, особенно в системе Mustang. Часть документов урезается (см скрин).

Мустанг - это основная подсистема подсчета рейтингов, ранжирования и обслуживания ядра алгоритмов Гугла.

Вы можете проверить сами - взять предложение из начала контента и поискать его в Гугле. А потом повторить то же самое, взяв предложение из конца контента. Если оный бестолковый, то найден он не будет (в отличии от первого).

Отсюда вывод- всё самое важное размещаем вверху контента, до линии сгиба экрана (включая внешние ссылки).

Второй момент, если контент излишне короткий, то включается дополнительная оценка его оригинальности - OriginalContentScore. При этом кортокий контент не обязательно будет Thin - контентом (бестолковым, ненужным). При этом существует показатель наполнения ключевыми словами (переспам).

По этому пункту я после мартовского апа, еще до слива, провел эксперименты. На некоторые страницы был вкрячен сухой, лаконичный контент, урезанный по максимуму, но полностью раскрывающий суть. Можно сравнить с краткой инструкцией по применению. При этом ключи практически не использовались ( некоторые однократно). В итоге некоторая часть таких страниц просто выстрелила как из пушки, победив маститых конкурентов с их огромными портянками.

Вот такие дела.

#DrMax #Google #Google_cheats #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Как Гугл проводит эксперименты.

Есть у меня один молодой проект - месяца 2 ему всего, потому Аналитикс крутится в реалтайме и постоянно отслеживаются тенденции разнообразные. Проект буржуинский.

Так вот, на проект ежедневно добавляется 20-30 новых позиций (пусть будет страниц). За час после добавления они переиндексируются (траста почти нет, потому так долго) а вот спустя 3-4 часа после индекса наблюдается замечательное действо от Гугла.

На несколько минут гугл ставит в ТОП новую позицию (страницу) и в аналитиксе наблюдается значительный всплеск переходов на эту страницу (причем регионы постоянно разные). Буквально через несколько минут, наплыв посетителей стихает - видимо страница была убрана из выдачи.

Скорей всего так Гугл пытается понять степень удовлетворенности посетителя - грубо говоря, замеряет поведенческое. И где то на следующий день он начинает уже более-менее ранжировать страницу.

Но поскольку траста особо нет - то ранжурует пока только отдельные позиции, видимо показавшие наилучший результат в поведении и / или при наличии минимальной конкуренции по позиции.

Если заглянуть в слив документов от Гугла - то мы можем найти там упоминание, что для новых страниц, пока не расcчитан PR, применяется некое общее значение PR на основе присвоенной именно морде. То есть все новые страницы получают некий буст, не взирая ни на уровень вложенности, ни на кол-во ссылок на эту новую страницу. Возможно, это как то коррелирует с алгоритмом "свежести".

Ну вот такие "эксперименты" я наблюдаю ежедневно над новыми страницами.

Довольно интересно и поучительно.

#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
😱 Дополнение к предыдущему посту

Забыл добавить. Исходя из таких наблюдений - никогда не публикуйте неготовую, неоконченную страницу. мол, сейчас выложу, а завтра доделаю.

Вылизывайте страницу, проверяйте контент и тогда публикуйте. Тем самым есть некий шанс (отличный от нуля) молниеносно залететь на хорошие места в выдаче. Ну при условии, что посетители будут довольны.

PS
в сливе гугловском очень много еще чего осталось интересного.
Хватит ни на один десяток постов.

#Drmax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🔄 Спам апдейт Гугла

Вчера начался спам апдейт у Гугла. Развертывание займет неделю. Обратите внимание на относительно обновленный документ по политике спама Гугла. Кто давно его не читал - удивитесь. Например, отправка автоматических запросов в Google - нарушение политики спама. Т.е., например, если будете снимать позиции каким ни будь Серпстатом и им подобным софтом - можете быть наказаны в ранжировании (теоретически).

Кстати, из всех клиентских сайтов, где я пытался реанимировать трафик, более половины пострадали именно из за спам апдейтов, а не из за HCU. Иногда комплексно повлиял и HCU и октябрьский 2023 и мартовский 2024 спам апдейт.

Так что не относитесь к этому апдейту наплевательски. Только в путь спам алгоритмы Гугла режут ранжирование.

Кстати, не успели гугловцы запустить спам апдейт, как тут же сломали индексирование. Вчера весь день оно не работало.

Вот такие дела.
Please open Telegram to view this post
VIEW IN TELEGRAM
🧐 Телеконференция у Миши Шакина

Аккурат 15 июля состоится новая телеконференция у Миши, где мы затронем слив Гугловской документации + слив на судебных антимонопольных слушаниях. Будет довольно интересно. Выше в ленте публиковал отдельные измышления по сливам. На телеконференции будет больше, шире и куда полезней.

В комментариях накидывайте вопросы по тематике.

Кроме того, есть возможность зачитать доклад о применяемых лично мной методиках восстановления после HCU / спам апдейтов / мартовского апа, на обезличенных примерах как родственных проектов, так и заказчиков услуг "реанимации трафика". Но это пока под большим вопросом.

Также приглашаю всевозможных товарищей спонсоров (организации), поучаствовать посильно в данном мероприятии. Но тут обращайтесь непосредственно к Мише.

О времени и месте проведения телеконференции уведомлю позже. Пока заготавливайте вопросы.

#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
🧐 Телеконференция у Миши Шакина

15 июля в 15 по Москве (сегодня) смотрите нашу телеконференцию.
Затронем вопросы расхождения между декларациями Гугла и данными слива.
Немного расскажу как использую эти данные слива для продвижения. Если останется время расскажу свои результаты оценки/анализа мартовского апа и способов выхода из под него.

📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=lFRo4eWpjjw

#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
🌈 Служебное

Всем, привет! Возвращаюсь к вам после полуторамесячного отсутствия.
Случились непредвиденные обстоятельства.

Сразу о важном:

1. Задержал пару заказов, прошу прощения, отдам их в кратчайшие сроки.

2. В ближайшие пару недель, пожалуйста не пишите о новых заказах. Нет времени сейчас на них.

3. В контактах: почта, телеграм и т.д. скопились сотни (!!!) вопросов/сообщений. Постараюсь ответить на всё в течении ближайших 2-3 дней.

4. Сразу всем говорю спасибо за поздравления с прошедшим ДР. Отпишу чуть позже лично каждому.

Теперь о канале. Мельком глянул результаты апа (как спам , так и закончившегося вчера Core). Результаты интересные, распишу что делал и что получилось.

Ну, собственно пока всё.

#DrMax
Please open Telegram to view this post
VIEW IN TELEGRAM
Восстановление после HCU и мартовского апа

Я рассказывал уже, что попробовал перенести зафильтрованный сайт на новый домен. Собственно результаты на скрине.

Действительно , гугл наказал не за некачественный контент, не за поведенческое, а за то, что поведясь на красивое имя, не просмотрел историю домена. Вернее я видел, что лет 5 назад домен был перехвачен, потом брошен спустя год. Но кто мог подумать, что гугл такой злопамятный.
Итак, перенес на новый домен без истории, поставил 301, ничего более не делал и вот вам результат (на скрине). Теперь со спокойной душой можно его развивать (после переноса никак и ничего с ним не делал).

Выводы: Будьте внимательны при подборе домена. Проверяйте историю. Не юзайте дропы для новых проектов - крайне опасно!

#DrMax #CoreUp
🔄Замена контента не помогает восстановиться после мартовского апа и HCU

Второй домен решили восстановить заменой контента. Он неудачно перенес HCU, и в мартовский ап был благополучно зафильтрован.

Собственно поменяли, оптимизировали контент, но результата нет. Говорят что августовский Core Up кого то там "отпустил" и восстановил. Но не в этом случае.

Причина, наверняка, в проблемном красивом домене.

Собственно, теперь предстоит перенос на новый домен. С огромной долей вероятности это вернет сайт в строй.

Выводы теже

#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Как Бренд защищает от HCU

Собственно после окончания мартовского обновления, вырезавшего половину сайтов - конкурентов в моей тематике (бурж), в том числе и достаточно трастовых (много ссылочного), был заложен новый проект.

Поначитавшись сливов Гугла и проведя анализ судебных слушаний пришли к мнению, что нужно первым делом прокачать бренд нового проекта.

К слову, проект бурж, конкуренция сверхвысокая. Проект юзает движок "провайдера", который предоставляет на свои "товары" минимум описания. По сути получаем сайт с практически пустыми карточками.

По рассказам оного провайдера, у него в прошлом году было уже более 1000 партнеров, то есть конкуренция уже ясна. А поскольку товары - совсем не эксклюзив, то конкуренция заоблачная.

Понаблюдав за развитием оного сегмента рынка, увидел, как в HCU вылетели сотни прокачанных сайтов - конкурентов, в март-апдейт вылетели еще сотни подобных сайтов, не смотря на ссылочное.

Итак, стартовали в мае, весь июнь строили ссылки на морду с бренд анкорами (желтые страницы, фри блоги, профили микрософта и адобе и т.д и т.п). Всего было построено более 1000 ссылок, из них в GSC проникло штук 400.

Параллельно неспешно делали контент. Сейчас готово только 6-7% страниц.

Первая стрелка показывает рост после прокачки бренда

Вторая стрелка - рост после августовского Core UP

Что сказать, стратегия на развитие узнаваемости привела к хорошему результату. Сейчас достаточно много запросов в гугле по бренду.

Теперь можно вкладываться по полной и в контент и в анкорное ссылочное.

Выводы: прокачка бренда рулит.

#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍 Первые мысли об августовском Гугл Апе

Собственно говоря, ап получился недоделанный. И по времени они раньше его закончили и мусора полно в выдаче (как всегда после апов). Но не это интересно.

Вот смотрите, в результате августовского апа вылетела кучка страниц. Попали из проиндексированных в "сканировано - но не индексировано". То есть Гугл недоволен качеством контента (и/или отсутствием ссылочного веса на страницах, в результате, например, слишком глубокого расположения).

Попробовал руками в GSC подать такие страницы на переиндекс. Гугл радостно их скушал и проиндексил за пару минут. Таким образом, у Гугла наблюдается рассинхрон в той части алгоритма, которая отвечает за выкидывание страниц из индекса (определение плохого качества страниц) и той которая отвечает за определение качества страниц при индексации.

Ранее (до апа) вы могли сколько угодно раз переподавать вылетевшие страницы на переиндекс и гугл с 90% вероятностью отказался бы их индексировать. И это правильно. Бнз правки контента нечего таким страницам делать в индексе.

Отсюда вывод, что ядро алгоритмов будут подкручивать и очень скоро будет новый ап.

И второй вывод, раз уж гугл так расслабился, то можно ловко и быстро запихать через API все выпавшие страницы опять в индекс.

Более подробно проанализирую августовский ап позже, когда разгребусь с делами.

#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⁉️ Как работают ссылки в Гугле

Все данные основаны на утечке Гугла и сведениях из судебных заседаний. Приводить исходники не буду – легко найдете сами в сливах.
Только сухие факты:
1. Околоанкорные тексты действительно учитываются.
2. Лучшие ссылки – с ранжирующихся по нужному анкору страниц
3. Внутренние и внешние ссылки обрабатываются крайне схожими алгоритмами
4. Удаленные ссылки работают еще какое то время (см мой пост про теневые ссылки)
5. Сквозные ссылки определяются и не имеют значительного веса
6. При оценке ссылок используются сущности (и их домены) – важность релевантности
7. Пейдж ранк (PR) по прежнему работает, но рассчитывается по иному
8. ———
9. Новым ссылкам временно присваивается некий средний PR
10. Если на странице есть несколько ссылок и одна из них открыта для индекса (нет тега nofollow), то и все иные ссылки становятся follow ссылками
11. Релевантность ссылки рассчитывается и имеет числовой показатель
12. Ссылки из новостей имеют несколько иной алгоритм рассчета
13. Каждый анкор принадлежит определенному кластеру
14. Ссылки на морду вызывают проверку «доверия» оной морды
15. Есть переменная SpamScore, которая определяет спамность ссылки и окружающего текста
16. Гугл оценивает вероятность попадания анкора в текст акцептора, т.е. осуществляет сверку сущностей. Это к вопросу спамности всяких говноанкоров типа: по ссылке, здесь, тут и пр.
17. Страница может не ранжироваться, но ссылка с неё может учитываться
18. Упоминания (без гиперссылки) работают
19. Google проверяет релевантность веб-сайта, на который ссылается листинг Google
20. Гугл оценивает анкоры, подсчитывая сколько их на странице, есть ли повторы анкоров, сколько анкоров использовано для внешних ссылок, для внутренних ссылок. После этого он объединяет данные и выставляет оценку анкору.
21. Фрагментированные анкоры (частичные) могут при расчете оценки признаваться основными анкорами.
22. Анкоры проверяются на спамность.
23. Осуществляется подсчет и контроль спамных анкоров
24. Хорошие анкоры становятся доверенными
25. Цель оценки анкоров – определить релевантность донора и акцептора
26. Страница может быть оштрафована из за плохих ссылок (badbacklinksPenalized)
27. Страница может быть оштрафована на уровне алгоритма Пингвин
28. Действительно, подсчитываются исходящие ссылки на домены с того же хоста (поиск сеток)
29. Проводиться расчет «отброшенных» анкоров для каждого кластера анкоров
30. Внутренние ссылки пингвином не обрабатываются
31. Существует ограничение на число анкорных текстов. Не более 5000 штук на 1 страницу.
32. Согласно сегменту качества анкоров, анкор с pagerank > 51000 является лучшим. Анкор с pagerank < 47000 - все одинаковы (напомню, что тулбарный PR рассчитывался логарифмически и приводился к PR10 max).
33. Определяется вероятность того, что этот набор анкоров будет демонстрировать спамное поведение
34. Рассчитывается всплеск спам-анкоров и осуществляются защитные действия для пострадавшего сайта
35. Если большинство входящих ссылок с морд сайтов, страница будет оштрафована
36. Для мощных ссылок выдается дополнительный фактор доверия.
37. Есть какие то флаги, которые выставляются для ссылок с дроп доменов

Это вот кратенько и может что то пропустил.
Живите теперь с этим ))))

#DrMax #SEO #Google #Links
Please open Telegram to view this post
VIEW IN TELEGRAM
⬆️Клавдия vs Бард/Гемени

Сравнивали результаты ранжирования контента сгенерённого Клавдией с таким же контентом, сгенерённым Гемени. Обоим чатам сливался один и тот же исходный контент, использовался один и тот же промпт.

Так вот Кллавдия проигрывает вчистую. Если контент сгенеренный Клавдией болтается в десятке, а то и ниже, контент сгенеренный Гемени ловко становитс в ТОП 3.

Неоднократно проводились замеры, когда первоначальный контент, сгенеренный Клавдией менялся на контент от Гемени и наблюдался рост.

И наоборот, контент, сгенеренный Гемени менялся на контент от Клавдии и было заметно постепенное падение.

По всей видимости, после продажи Клавдии Амазону, развитие пошло куда то не туда. Контент стал еще более слезливым и мелодраматичным, не смотря на все грозные окрики в промпте.

Возможен и иной вариант, ведь Гемени генерит 3 варианта контента и, как правило, собирается результирующий контент как кадавр из 3-х различных вариантов.

В целом, Клавдией разочарован.

Но все эти наблюдения - на данный момент. Все эти штуки быстро развиваются и через месяц картина может быть совершенно иной.

Вот такие дела.

Зы: Гугл AI Studio позволяет заглянуть немного вперед с развитием Гемени. Сейчас, вроде как используется движок 1.5. Flash, а в студии есть куча интересных экспериментальных движков, которые уже можно использовать.

#DrMax #SEO #Клавдия
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
DrMax SEO pinned Deleted message
Please open Telegram to view this post
VIEW IN TELEGRAM
Есть у меня суперпромпт, описывающий отдельные категории. Помимо стандартных требований по профессионализму написания текста, наиболее полных данных, тональности текста и пр., он состоит из нескольких десятков вопросов.

Например, описываем какой-нибудь кувшин для очистки воды. Тогда вопросы будут Какой материал кувшина? Как часто надо менять фильтр? Какие фильтры есть на рынке? Какие производители выпускают фильтры для этого кувшина? Можно ли мыть кувшин в посудомойке? Какое наполнение фильтров? Какие дополнительные функции есть у кувшина (механический счетчик литража, анализ качества очистки и т.д.)? Ну и так далее – всего штук 20-30 вопросов.

Стандартно этот промпт скармливался Перплексити, а затем полировался результат Бардом.

Если мы начинаем оперировать доменами сущностей, то перед тем как скормить промпт Перплексити, вопрошаю у Барда/Гемени, мол нужно сделать описание пресловутого кувшина для очистки воды и будь добр проанализировать промпт и добавить в него больше вопросов для раскрытия связанных сущностей и их доменов в оном промпте.

В результате получаем переработанный промпт, в котором понапиханы совершенно неочевидные вопросы о сущностях оного кувшина. В результате получаем более всеобъемлющее описание и, что самое интересное, структура описания абсолютно разная для каждого пресловутого кувшина. Это очень важно.

Итак, понимание сущностей и доменов сущностей – это важный шаг для создания эффективной SEO-стратегии. Это позволяет вам не просто конкурировать за ключевые слова, а строить глубокое понимание вашей ниши и предоставлять пользователям действительно полезный контент.


#DrMax #SEO #сущности #Google
2025/07/07 02:47:47
Back to Top
HTML Embed Code: