Telegram Web Link
🤓 Гугл и авторы

После медик апдейта и повального увлечения YMYL и EEAT стало достаточно "модным" прописывать авторов контента и оных авторов пробовать"раскручивать", нарабатывая для них опыт и авторитет (в соответствии с QRG). Но последний полгода-год, энтузиазм в этом плане несколько притих, стали слышны заявления отдельных оптимизаторов, что Гугл авторство никак не учитывает, никак на ранжирование это не влияет.

Для понимания, необходимо различать сигналы ранжирования и факторы ранжирования. Вторые зависят от первых. Сигналы прямо не влияют на ранжирование, но обуславливают значимость факторов ранжирования.

Авторство - это сигнал ранжирования.

В сливе видно, как Гугел сохраняет авторов в виде текстовой строки или как пытается вычленить авторов из объектов на странице.

В сочетании с подробным отображением сущностей и вложений, представленным в сливе, становится совершенно ясно, что существует некоторая комплексная оценка авторов.

Отсюда вывод - совершенствуйте микроразметку (структурированные данные), прописывайте авторов максимально полно.

#DrMax #SEO #Google #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍415👏1
🔄 Как Гугл врет: Об объеме контента на странице

Как нам говорили гугловцы - размер контента не имеет значения. Он ранжируется абсолютно по одним и тем же правилам, что короткая статья, что длинная.

Это не так.

Большие документы Гугл обрезает. Он рассчитывает количество токенов и соотношение общего количества слов в тексте к количеству уникальных токенов. В документах указано, что существует максимальное количество токенов, которые можно рассматривать для документа, особенно в системе Mustang. Часть документов урезается (см скрин).

Мустанг - это основная подсистема подсчета рейтингов, ранжирования и обслуживания ядра алгоритмов Гугла.

Вы можете проверить сами - взять предложение из начала контента и поискать его в Гугле. А потом повторить то же самое, взяв предложение из конца контента. Если оный бестолковый, то найден он не будет (в отличии от первого).

Отсюда вывод- всё самое важное размещаем вверху контента, до линии сгиба экрана (включая внешние ссылки).

Второй момент, если контент излишне короткий, то включается дополнительная оценка его оригинальности - OriginalContentScore. При этом кортокий контент не обязательно будет Thin - контентом (бестолковым, ненужным). При этом существует показатель наполнения ключевыми словами (переспам).

По этому пункту я после мартовского апа, еще до слива, провел эксперименты. На некоторые страницы был вкрячен сухой, лаконичный контент, урезанный по максимуму, но полностью раскрывающий суть. Можно сравнить с краткой инструкцией по применению. При этом ключи практически не использовались ( некоторые однократно). В итоге некоторая часть таких страниц просто выстрелила как из пушки, победив маститых конкурентов с их огромными портянками.

Вот такие дела.

#DrMax #Google #Google_cheats #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥71👍32😁6👀21
📈 Как Гугл проводит эксперименты.

Есть у меня один молодой проект - месяца 2 ему всего, потому Аналитикс крутится в реалтайме и постоянно отслеживаются тенденции разнообразные. Проект буржуинский.

Так вот, на проект ежедневно добавляется 20-30 новых позиций (пусть будет страниц). За час после добавления они переиндексируются (траста почти нет, потому так долго) а вот спустя 3-4 часа после индекса наблюдается замечательное действо от Гугла.

На несколько минут гугл ставит в ТОП новую позицию (страницу) и в аналитиксе наблюдается значительный всплеск переходов на эту страницу (причем регионы постоянно разные). Буквально через несколько минут, наплыв посетителей стихает - видимо страница была убрана из выдачи.

Скорей всего так Гугл пытается понять степень удовлетворенности посетителя - грубо говоря, замеряет поведенческое. И где то на следующий день он начинает уже более-менее ранжировать страницу.

Но поскольку траста особо нет - то ранжурует пока только отдельные позиции, видимо показавшие наилучший результат в поведении и / или при наличии минимальной конкуренции по позиции.

Если заглянуть в слив документов от Гугла - то мы можем найти там упоминание, что для новых страниц, пока не расcчитан PR, применяется некое общее значение PR на основе присвоенной именно морде. То есть все новые страницы получают некий буст, не взирая ни на уровень вложенности, ни на кол-во ссылок на эту новую страницу. Возможно, это как то коррелирует с алгоритмом "свежести".

Ну вот такие "эксперименты" я наблюдаю ежедневно над новыми страницами.

Довольно интересно и поучительно.

#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍91🔥13😁8🤔43
😱 Дополнение к предыдущему посту

Забыл добавить. Исходя из таких наблюдений - никогда не публикуйте неготовую, неоконченную страницу. мол, сейчас выложу, а завтра доделаю.

Вылизывайте страницу, проверяйте контент и тогда публикуйте. Тем самым есть некий шанс (отличный от нуля) молниеносно залететь на хорошие места в выдаче. Ну при условии, что посетители будут довольны.

PS
в сливе гугловском очень много еще чего осталось интересного.
Хватит ни на один десяток постов.

#Drmax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍104
🔄 Спам апдейт Гугла

Вчера начался спам апдейт у Гугла. Развертывание займет неделю. Обратите внимание на относительно обновленный документ по политике спама Гугла. Кто давно его не читал - удивитесь. Например, отправка автоматических запросов в Google - нарушение политики спама. Т.е., например, если будете снимать позиции каким ни будь Серпстатом и им подобным софтом - можете быть наказаны в ранжировании (теоретически).

Кстати, из всех клиентских сайтов, где я пытался реанимировать трафик, более половины пострадали именно из за спам апдейтов, а не из за HCU. Иногда комплексно повлиял и HCU и октябрьский 2023 и мартовский 2024 спам апдейт.

Так что не относитесь к этому апдейту наплевательски. Только в путь спам алгоритмы Гугла режут ранжирование.

Кстати, не успели гугловцы запустить спам апдейт, как тут же сломали индексирование. Вчера весь день оно не работало.

Вот такие дела.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯18👍154🆒2
🧐 Телеконференция у Миши Шакина

Аккурат 15 июля состоится новая телеконференция у Миши, где мы затронем слив Гугловской документации + слив на судебных антимонопольных слушаниях. Будет довольно интересно. Выше в ленте публиковал отдельные измышления по сливам. На телеконференции будет больше, шире и куда полезней.

В комментариях накидывайте вопросы по тематике.

Кроме того, есть возможность зачитать доклад о применяемых лично мной методиках восстановления после HCU / спам апдейтов / мартовского апа, на обезличенных примерах как родственных проектов, так и заказчиков услуг "реанимации трафика". Но это пока под большим вопросом.

Также приглашаю всевозможных товарищей спонсоров (организации), поучаствовать посильно в данном мероприятии. Но тут обращайтесь непосредственно к Мише.

О времени и месте проведения телеконференции уведомлю позже. Пока заготавливайте вопросы.

#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🔥15👏2💯2👀2
🧐 Телеконференция у Миши Шакина

15 июля в 15 по Москве (сегодня) смотрите нашу телеконференцию.
Затронем вопросы расхождения между декларациями Гугла и данными слива.
Немного расскажу как использую эти данные слива для продвижения. Если останется время расскажу свои результаты оценки/анализа мартовского апа и способов выхода из под него.

📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=lFRo4eWpjjw

#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥3👀3🆒3
🌈 Служебное

Всем, привет! Возвращаюсь к вам после полуторамесячного отсутствия.
Случились непредвиденные обстоятельства.

Сразу о важном:

1. Задержал пару заказов, прошу прощения, отдам их в кратчайшие сроки.

2. В ближайшие пару недель, пожалуйста не пишите о новых заказах. Нет времени сейчас на них.

3. В контактах: почта, телеграм и т.д. скопились сотни (!!!) вопросов/сообщений. Постараюсь ответить на всё в течении ближайших 2-3 дней.

4. Сразу всем говорю спасибо за поздравления с прошедшим ДР. Отпишу чуть позже лично каждому.

Теперь о канале. Мельком глянул результаты апа (как спам , так и закончившегося вчера Core). Результаты интересные, распишу что делал и что получилось.

Ну, собственно пока всё.

#DrMax
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥75👏3
Восстановление после HCU и мартовского апа

Я рассказывал уже, что попробовал перенести зафильтрованный сайт на новый домен. Собственно результаты на скрине.

Действительно , гугл наказал не за некачественный контент, не за поведенческое, а за то, что поведясь на красивое имя, не просмотрел историю домена. Вернее я видел, что лет 5 назад домен был перехвачен, потом брошен спустя год. Но кто мог подумать, что гугл такой злопамятный.
Итак, перенес на новый домен без истории, поставил 301, ничего более не делал и вот вам результат (на скрине). Теперь со спокойной душой можно его развивать (после переноса никак и ничего с ним не делал).

Выводы: Будьте внимательны при подборе домена. Проверяйте историю. Не юзайте дропы для новых проектов - крайне опасно!

#DrMax #CoreUp
🔥22👍102😁1
🔄Замена контента не помогает восстановиться после мартовского апа и HCU

Второй домен решили восстановить заменой контента. Он неудачно перенес HCU, и в мартовский ап был благополучно зафильтрован.

Собственно поменяли, оптимизировали контент, но результата нет. Говорят что августовский Core Up кого то там "отпустил" и восстановил. Но не в этом случае.

Причина, наверняка, в проблемном красивом домене.

Собственно, теперь предстоит перенос на новый домен. С огромной долей вероятности это вернет сайт в строй.

Выводы теже

#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍32😁1
📈 Как Бренд защищает от HCU

Собственно после окончания мартовского обновления, вырезавшего половину сайтов - конкурентов в моей тематике (бурж), в том числе и достаточно трастовых (много ссылочного), был заложен новый проект.

Поначитавшись сливов Гугла и проведя анализ судебных слушаний пришли к мнению, что нужно первым делом прокачать бренд нового проекта.

К слову, проект бурж, конкуренция сверхвысокая. Проект юзает движок "провайдера", который предоставляет на свои "товары" минимум описания. По сути получаем сайт с практически пустыми карточками.

По рассказам оного провайдера, у него в прошлом году было уже более 1000 партнеров, то есть конкуренция уже ясна. А поскольку товары - совсем не эксклюзив, то конкуренция заоблачная.

Понаблюдав за развитием оного сегмента рынка, увидел, как в HCU вылетели сотни прокачанных сайтов - конкурентов, в март-апдейт вылетели еще сотни подобных сайтов, не смотря на ссылочное.

Итак, стартовали в мае, весь июнь строили ссылки на морду с бренд анкорами (желтые страницы, фри блоги, профили микрософта и адобе и т.д и т.п). Всего было построено более 1000 ссылок, из них в GSC проникло штук 400.

Параллельно неспешно делали контент. Сейчас готово только 6-7% страниц.

Первая стрелка показывает рост после прокачки бренда

Вторая стрелка - рост после августовского Core UP

Что сказать, стратегия на развитие узнаваемости привела к хорошему результату. Сейчас достаточно много запросов в гугле по бренду.

Теперь можно вкладываться по полной и в контент и в анкорное ссылочное.

Выводы: прокачка бренда рулит.

#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥36👍104
👍 Первые мысли об августовском Гугл Апе

Собственно говоря, ап получился недоделанный. И по времени они раньше его закончили и мусора полно в выдаче (как всегда после апов). Но не это интересно.

Вот смотрите, в результате августовского апа вылетела кучка страниц. Попали из проиндексированных в "сканировано - но не индексировано". То есть Гугл недоволен качеством контента (и/или отсутствием ссылочного веса на страницах, в результате, например, слишком глубокого расположения).

Попробовал руками в GSC подать такие страницы на переиндекс. Гугл радостно их скушал и проиндексил за пару минут. Таким образом, у Гугла наблюдается рассинхрон в той части алгоритма, которая отвечает за выкидывание страниц из индекса (определение плохого качества страниц) и той которая отвечает за определение качества страниц при индексации.

Ранее (до апа) вы могли сколько угодно раз переподавать вылетевшие страницы на переиндекс и гугл с 90% вероятностью отказался бы их индексировать. И это правильно. Бнз правки контента нечего таким страницам делать в индексе.

Отсюда вывод, что ядро алгоритмов будут подкручивать и очень скоро будет новый ап.

И второй вывод, раз уж гугл так расслабился, то можно ловко и быстро запихать через API все выпавшие страницы опять в индекс.

Более подробно проанализирую августовский ап позже, когда разгребусь с делами.

#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍277🔥5😁2
☄️ Что такое Keto Score и как оно влияет на ранжирование

В соответствии со сливами Гугла, Keto Score, похоже, является алгоритмом молниеносной предварительной оценки страницы сайта и её ранжирования без тщательного вычисления тысяч факторов ранжирования. Это позволяет Google крайне быстро начать ранжировать новую страницу (например для горячих новостей или чего подобного). В дальнейшем Keto Score заменяется на ординарные оценки, вычисленные по общим основаниям и ранжируется уже в обычном порядке. И скорей всего эта оценка и в дальнейшем будет как то влиять на позиции в органике.

contentEffort - LLM-based effort estimation for article pages


По всей видимости оная оценка рассчитывается с использованием ИИ

deltaLinkIncoming
deltaLinkOutgoing
deltaSubchunkAdjustment - Total deltaNSR adjustment based on subchunks
keto - Keto score
linkIncoming
linkOutgoing
numOffdomainAnchors - The total number of offdomain anchors seen by the NSR pipeline for this page
page2vecLq
predictedDefaultNsr - Predicted default NSR score computed in Goldmine via the NSR default predictor
rhubarb - Site-URL delta signals based quality score computed in Goldmine via the Rhubarb model
subchunkData
tofu - URL-level tofu prediction
unversionedRhubarb - The delta score of the URL-level quality predictor

Вероятно, они (алгоритмы Гугла) используют общую быструю статистику страницы, такую ​​как количество слов, подзаголовков, изображений, ссылок и т. д. ( т.е. более длинный контент, вероятно, потребует больше усилий для его создания). И чем больше усилий вложено в контент, тем лучше оценка. При этом, по всей видимости, страницу оценивает именно ИИ.

Фишка: чтобы Keto Score было как можно выше, при условии оценки контента ИИ, можно написать во вступлении, что "на создание этого контента было потрачено много усилий".

Частично (не уверен), это подтверждается сайтом моих знакомых, про который я уже рассказывал. Будучи собранным на вордпрессе и имея несколько сотен странниц, он приносит прибыли более миллиона $ в месяц.

Так вот, я всё не мог понять, для чего они пишут на каждой страннице что то типа: На создание этой страницы ушло 150 человеко-часов и принимали участие в написании доцент Маша, аспирант Паша и кандидат наук Саша.

Вполне возможно, что наличие таких заявлений в шапке контента может повлиять на ИИ и улучшить ранжирование.

Надо отдать должное, что там действительно на сайте огромные лонгриды, насыщенные графикой и всяким прочим контентом.

Ну и делайте качественный контент с хорошим структурированием и насыщенный медиа, таблицами и пр.

То как Gemeni от Гугла оценивает страницы и как это использовать - смотрите тут, вот тут ну и вообще много писал про это.


#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26😁154
⁉️ Как работают ссылки в Гугле

Все данные основаны на утечке Гугла и сведениях из судебных заседаний. Приводить исходники не буду – легко найдете сами в сливах.
Только сухие факты:
1. Околоанкорные тексты действительно учитываются.
2. Лучшие ссылки – с ранжирующихся по нужному анкору страниц
3. Внутренние и внешние ссылки обрабатываются крайне схожими алгоритмами
4. Удаленные ссылки работают еще какое то время (см мой пост про теневые ссылки)
5. Сквозные ссылки определяются и не имеют значительного веса
6. При оценке ссылок используются сущности (и их домены) – важность релевантности
7. Пейдж ранк (PR) по прежнему работает, но рассчитывается по иному
8. ———
9. Новым ссылкам временно присваивается некий средний PR
10. Если на странице есть несколько ссылок и одна из них открыта для индекса (нет тега nofollow), то и все иные ссылки становятся follow ссылками
11. Релевантность ссылки рассчитывается и имеет числовой показатель
12. Ссылки из новостей имеют несколько иной алгоритм рассчета
13. Каждый анкор принадлежит определенному кластеру
14. Ссылки на морду вызывают проверку «доверия» оной морды
15. Есть переменная SpamScore, которая определяет спамность ссылки и окружающего текста
16. Гугл оценивает вероятность попадания анкора в текст акцептора, т.е. осуществляет сверку сущностей. Это к вопросу спамности всяких говноанкоров типа: по ссылке, здесь, тут и пр.
17. Страница может не ранжироваться, но ссылка с неё может учитываться
18. Упоминания (без гиперссылки) работают
19. Google проверяет релевантность веб-сайта, на который ссылается листинг Google
20. Гугл оценивает анкоры, подсчитывая сколько их на странице, есть ли повторы анкоров, сколько анкоров использовано для внешних ссылок, для внутренних ссылок. После этого он объединяет данные и выставляет оценку анкору.
21. Фрагментированные анкоры (частичные) могут при расчете оценки признаваться основными анкорами.
22. Анкоры проверяются на спамность.
23. Осуществляется подсчет и контроль спамных анкоров
24. Хорошие анкоры становятся доверенными
25. Цель оценки анкоров – определить релевантность донора и акцептора
26. Страница может быть оштрафована из за плохих ссылок (badbacklinksPenalized)
27. Страница может быть оштрафована на уровне алгоритма Пингвин
28. Действительно, подсчитываются исходящие ссылки на домены с того же хоста (поиск сеток)
29. Проводиться расчет «отброшенных» анкоров для каждого кластера анкоров
30. Внутренние ссылки пингвином не обрабатываются
31. Существует ограничение на число анкорных текстов. Не более 5000 штук на 1 страницу.
32. Согласно сегменту качества анкоров, анкор с pagerank > 51000 является лучшим. Анкор с pagerank < 47000 - все одинаковы (напомню, что тулбарный PR рассчитывался логарифмически и приводился к PR10 max).
33. Определяется вероятность того, что этот набор анкоров будет демонстрировать спамное поведение
34. Рассчитывается всплеск спам-анкоров и осуществляются защитные действия для пострадавшего сайта
35. Если большинство входящих ссылок с морд сайтов, страница будет оштрафована
36. Для мощных ссылок выдается дополнительный фактор доверия.
37. Есть какие то флаги, которые выставляются для ссылок с дроп доменов

Это вот кратенько и может что то пропустил.
Живите теперь с этим ))))

#DrMax #SEO #Google #Links
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥104👍15👏155
⬆️Клавдия vs Бард/Гемени

Сравнивали результаты ранжирования контента сгенерённого Клавдией с таким же контентом, сгенерённым Гемени. Обоим чатам сливался один и тот же исходный контент, использовался один и тот же промпт.

Так вот Кллавдия проигрывает вчистую. Если контент сгенеренный Клавдией болтается в десятке, а то и ниже, контент сгенеренный Гемени ловко становитс в ТОП 3.

Неоднократно проводились замеры, когда первоначальный контент, сгенеренный Клавдией менялся на контент от Гемени и наблюдался рост.

И наоборот, контент, сгенеренный Гемени менялся на контент от Клавдии и было заметно постепенное падение.

По всей видимости, после продажи Клавдии Амазону, развитие пошло куда то не туда. Контент стал еще более слезливым и мелодраматичным, не смотря на все грозные окрики в промпте.

Возможен и иной вариант, ведь Гемени генерит 3 варианта контента и, как правило, собирается результирующий контент как кадавр из 3-х различных вариантов.

В целом, Клавдией разочарован.

Но все эти наблюдения - на данный момент. Все эти штуки быстро развиваются и через месяц картина может быть совершенно иной.

Вот такие дела.

Зы: Гугл AI Studio позволяет заглянуть немного вперед с развитием Гемени. Сейчас, вроде как используется движок 1.5. Flash, а в студии есть куча интересных экспериментальных движков, которые уже можно использовать.

#DrMax #SEO #Клавдия
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥34👍11🆒4👏32
📔 Роль сущностей в поиске Google по данным сливов

Давайте разберем, какое внимание Google уделяет сущностям.
entities - A list of entities detected on Document.text
entityRelations - Placeholder. Relationship among Document.entities

Изначально у гугла есть необработанный список сущностей в документе. Оные сущности играют центральную роль в том, что получаем в органической выдаче при каждом запросе. При этом сущности входят в домены сущностей, которые обеспечивают контекст связанными темами и помогают найти взаимосвязанные темы.
Multiple entities can be identified on a document or query. Each entity can be mentioned several times in different positions on the document or query. This message describes a single mention of the entity. Note that a mention can be either explicit or implicit mentions. All explicit mentions refer to exact range in the document where the entity occurred, but implicit mentions may or may not have corresponding range. Next available tag number: 40

Гугл определяет частоту и важность каждой найденной сущности. Чем чаще сущность встречается – тем она важней. Кроме того, гугл выявляет «неявные» сущности.
isImplicit - True if the entity is mentioned implicitly

Например, если описывается некий красный сапог в контенте, то гугл может предположить наличие сущности «обувь» в оном контенте. Таким образом isImplicit крайне полезен и позволяет ранжироваться по запросам, которых явно нет в контенте. Следовательно, нет никакой нужды использовать все 100500 вариаций ключевых слов в контенте, чтобы ранжироваться по ним.
confidenceScore - A probabilistic score describing how certain the annotator is that this exact range in the document or query refers to the entity

Важно понимать, что гугл не собирается ранжировать страницу, только из за наличия какой то там сущности на ней. Некий confidenceScore указывает, что Гугл оперирует только важнейшими сущностями контента.
SalientTermSet is a collection of terms (unigrams and bigrams) with associated weights that can describe something. The "salient terms"
docData - doc_data contain additional salient-term-set-level data
salientTerm - salient_term is the list of terms that are good descriptors, sorted in decreasing order of weight
version - version is the Salient Terms version used to create the SalientTermSet

Становится понятно, что гугл для каждой страницы ранжирует все наиболее важные сущности в обратном порядке - от самой важной к наименее ценной.
A list of entities that are latent given this entity. For example, "Lionel Messi" can have the latent entity "FC Barcelona". See go/refx-latent-entities for detailed description.
latentEntity - Latent entities with associated metadata including source of the relationship

Итак, в списке неявных, латентных сущностей будут присутствовать некие родственные ключи, связанные с главной сущностью. Следовательно, эти термины будут взаимосвязаны с главной сущностью и, возможно, контент будет ранжироваться по ним.

Следовательно, дабы улучшить ранжирование, необходимо использовать в контете не только основную сущность, но и связанные с ней неявные сущности.
Посмотрите, как я ранее описывал пытки Барда на предмет улучшения страниц и определения основной и вторичных сущностей и их доменов. Было написано 2-3 заметки ранее. Думается, в свете вскрывшихся обстоятельств они по прежнему ценны.

Лучшим приемом использования сущностей является набивка контента побочными, связанными сущностями, при этом нужно отслеживать, что центральная сущность доминирует – т.е., как минимум, встречается чаще (3-5 раз в контенте). При этом крайне важно пихать в контент те вторичные сущности, коих нет у ваших конкурентов. Именно так и получается оригинальный контент (а вовсе не рерайтом контента конкурентов).

Тут сразу возникает вопрос о том, что нужно быть в теме, нужно обладать ловими умениями по генерации (написанию) контента и иметь обширный словарный запас – т.е. опять мы приходим к необходимости профессиональных авторов или редакторов. Даже для подготовки промптов для чат ботов они нужны.

Далее…
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23👍144
Если понапихать контент разнообразными сущностями, то это, возможно, сработает. Но, как всегда, есть свои нюансы.

idf - idf of the original_term
label - label can be two things depending on where this message is
originalTerm - original_term are the different ways we found this normalized term in the signals
salience - salience is the importance of the term as a descriptor in [0, 1] (the higher the more important)
signalTerm - signal_term contains extra signal-specific (e.g., body, anchors, clicks) data for this term
virtualTf - virtual_tf is the accumulated corrected term frequency from all the signals
weight - weight is the importance of the term as a descriptor in [0, 100] (the higher the more important)

Как мы видим, гугл по прежнему использует концепцию IDF-TF (как ни странно) и меряет очередную «оригинальность» контента тем, что выискивает сущности, обсуждающиеся крайне редко. То есть они просматривают свой корпус докУментов (всеобщий нормализованный кэш) и смотрят, насколько редко встречается сущность в нем.

Думается пока закончим на этом, продолжим обсуждение сущностей позже.

#DrMax #SEO #entity #сливы
👍34🔥7
DrMax SEO pinned Deleted message
2025/07/10 05:40:00
Back to Top
HTML Embed Code: