Прямо сейчас идут 2 крупных обновления Google:
см тут
В дальнейшем Гугл отказывается подтверждать новые обновления ревьюшек, так как: поскольку система отзывов сейчас постоянно совершенствуется, мы больше не будем публиковать информацию о будущих обновлениях на информационной панели статуса.
и
Мы больше не будем предоставлять периодические уведомления об улучшениях нашей системы отзывов.
Всего с момента первого обновления ревьюшек , выпущенного в апреле 2021 года, Google подтвердило в общей сложности 8 обновлений.
Также Google заявил, что обновление происходит «регулярно и постоянно». Это звучит так, будто обновление обзоров теперь происходит в режиме реального времени. Помните, в году 16 они также бахвалились об апдейтах в реальном времени, а потом всё это схлопнулось и опять возвернулись к периодическим апдейтам.
Но это опять не самое главное. Теперь Гугл стал нас запугивать изменениями в факторах ранжирования. Представитель Google по поиску Дэнни Салливан заявил, что в ближайшем будущем в поисковом рейтинге Google произойдут серьезные изменения. Это следует из выступления Салливана на мероприятии в прошлую пятницу, где он сказал, что эти «серьезные изменения» грядут.
Но в принципе ничего нового)))
Посмотрим
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
На днях Гугл обновил QRG - руководство для асессоров.
Гугловцы упростили определения шкалы «Соответствующие потребности», добавили больше рекомендаций для различных типов веб-страниц и современных примеров, включая новые форматы контента, такие как короткие видеоролики, удалили устаревшие и избыточные примеры и расширили рекомендации по рейтингу для форумов и обсуждений страницы.
Пока вдумчиво не читал - занимаюсь книгой. выкатим обновленный и улучшенный второй том SEO Монстр Next+ в четверг.
#DrMax #SEO #Google #book
Please open Telegram to view this post
VIEW IN TELEGRAM
Книга переработана, обновлена, дополнена.
Появилась новая 4 глава по мотивам телеконференций у Миши Шакина.
Вторая глава актуализирована для Screaming Frog SEO Spider
V. 19.4
Много всего нового и необычного в книге, включая постоянные рекомендации и пояснения практически каждого шага.
Полный список изменений вот тут.
Как видите - список дополнений и изменений просто колоссальный.
В ознаменовании выхода SEO Монстр NEXT+ том 2 и "Черной пятницы" с 23 по 30 ноября ценник на книгу порезан вдвое. Скидка 50%
Подробное описание смотрите на офф сайте.
Все продажи моих книг, исторически, осуществляет Анна Ященко. Поэтому не удивляйтесь, что при покупке перейдете на её сайт.
Кстати, можете прикупит 2 тома сразу - там тоже 50% скидка (с 23 по 30 ноября) на комплект (на который изначально была скидка).
#DrMax #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
И лежит - валяется уже час.
Наверняка это произошло из за попыток использования 4-й части книги SEO Монстр Next, т.2.
В сообщениях об ошибке ничего нет. Коллеги из забугорья подтверждают проблему.
Вот вам и обновления)))
А у вас какие наблюдения?
#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Google объявил, что прекращает работу инструмента ограничения скорости сканирования в поисковой консоли, удаление которого запланировано на 8 января 2024 года, сославшись на улучшения сканирования, которые по существу сделали его ненужным.
Инструмент ограничения скорости сканирования был представлен в поисковой консоли пятнадцать лет назад, в 2008 году. Целью этого инструмента было предоставить издателям возможность контролировать сканирование Googlebot, чтобы оно не перегружало сервер.
По данным Google, запросы на ограничение сканирования обычно вступают в силу примерно через день и остаются в силе в течение 90 дней.
В объявлении говорится, что алгоритмы сканирования достигли состояния, в котором робот Googlebot может автоматически определять, когда сервер достигает максимальной мощности, и предпринимать немедленные действия для замедления скорости сканирования.
Более того, Google заявил, что этот инструмент использовался редко, а когда он использовался, скорость сканирования обычно устанавливалась на самый низкий уровень.
В дальнейшем минимальная скорость сканирования по умолчанию будет установлена на более низкую скорость, аналогичную той, которую обычно запрашивают издатели.
#DrMax #GSC #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Итак, гуглоиды отрапортовали о завершении Core Update (ап ядра алгоритмов Гугла). Ап продлился 25 дней (с каждым разом всё дольше и дольше) и наверняка будет докатка.
Откройте GSC и посмотрите на свои ссылки. У меня запропало процентов 80 ссылающихся доменов (гео - бурж). В том числе мощные ссылки с самого Гугла ))) Никогда такого не было (было) и вот опять...
У вас как ситуация с ссылками?
А вообще крайне муторный ап, но пока явно рано анализировать его. К тому же он перекрывается всё еще продолжающимся Reviews Update.
Ну и жду докатки Core апдейта. Гугл, верни вывод ссылок в GSC!
#DrMax #Google #Update
Please open Telegram to view this post
VIEW IN TELEGRAM
Ранее Гугл почти никогда публично не освещал размер своего индекса - т.е. сохраненной цифровой записи страницы сайта, так как это довольно чувствительная информация. От нахождения в индексе зависит будет ли та или иная страница попадать в выдачу Гугла.
Но в результате перекрестного допроса вице-президента Google по поиску Панду Наяка, он сдал, что размер индекса составляет 400 миллиардов документов на 2020 год. Когда его спросили, вносил ли Google какие-либо изменения в размер индекса с 2020 года, Наяк ответил: « Я не знаю, произошли ли за последние три года конкретные изменения в размере индекса ».
Вывод №1: хотя 400 миллиардов не являются точным размером индекса, это, скорее всего, хорошая приблизительная цифра.
С одной стороны 400 млрд вроде бы и большая цифра, но нужно понимать, что уже сейчас в Интернете существует на несколько порядков больше страниц, чем размер индекса Гугла. Если прикинуть, то 400 млрд страниц – это всего 50-60 Википедий.
Благодаря исследованию размера индекса Google проведенному Кевином Индигом в 2020 году, можно проследить как он вырос с 1990-х годов. (обратите внимание, что многие из точек данных являются примерными. ) Из-за этого создается впечатление, что Google из года в год всегда увеличивает размер своего индекса. В действительности, как показали показания в суде, Google зачастую уменьшает размер своего индекса.
Вывод № 2: Google выкидывает все большее количество документов из индекса.
Как показал на суде упомянутый Наяк, большинство страниц бесполезны для пользователей и перечислил несколько факторов, влияющих на размер индекса Google:
1. Свежесть документов. Некоторые страницы в сети быстро меняются, другие важные страницы могут оставаться неизменными в течение многих лет. Задача, с которой сталкивается Google, заключается в оценке того, как часто страница может меняться, чтобы поддерживать ее индекс в актуальном состоянии без ненужного сканирования.
А для этого Гугл содержит в индексе несколько копий каждого документа (см статью «Гугл помнит все»).
2. Размер документа. Страницы сайтов становятся огромными, средний размер страниц со временем значительно вырос . Поскольку сканирование и обработка страниц стоит денег, это создает проблемы для индексации Google. Большие документы означают необходимость индексировать меньшее количество страниц.
3. Хранение метаданных. Google не только хранит каждый документ, но и создает огромное количество данных о каждом документе, включая все слова и понятия, относящиеся к каждому документу, расчеты тысяч факторов ранжирования. Постоянно объем метаданных увеличивается, что ограничивает размер индекса.
4. Стоимость индексации и обработки. Дата центры стоят огромных денег и потребляют много электроэнергии.
Выводы № 3: Google вынужден индексировать все меньший процент всех веб-страниц, которые он находит.
Как объяснил Наяк, цель индекса Google заключается не в полной записи всех документов, а в индексировании достаточного количества страниц, чтобы удовлетворить пользователей.
Это подтверждает то, на что Google публично намекал в течение многих лет: когда Google не индексирует страницу, он делает это потому, что не верит, что она будет полезна пользователям.
Итак, если Google не индексирует ваш сайт – вам нужно сделать техаудит, оценить полезность контента, его релевантность и востребованность (ссылки на ваш сайт) и вашу вовлеченность пользователей, а также сотни иных факторов ранжирования, о которых говорится, в том числе, и в моей книге SEO Монстр Next.
Может показаться, что оказаться в индексе Google — это легкая задача. Но фиг там! С КАЖДЫМ ДНЕМ мы будем видеть всё больше страниц, исключенных из него.
Читайте книги: они сеют доброе и разумное )))
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Теперь, помимо неотображаемых ссылок в GSC, новую напасть обнаружил в Гугле.
Залез логи посмотреть (рекомендую делать это, как минимум, еженедельно) и обнаружил, что гугл перевозбудился на странички полуслужебные, закрытые в robots.txt, Начал их неистово сканировать.
Залез в новый отчет в GSC —> Настройки —> Robots.txt и с удивлением обнаружил ошибки в robots - мол недействительный sitemap.xml и он не может его обработать, а именно:
Ошибка - Обнаружен недействительный URL файла sitemap; синтаксис не распознается
При этом, сайтмап открывается, работает и в той же самой GSC—-> Файлы Sitemap он же прекрасно себя чувствует и никаких ошибок там нет.
Несколько раз прописал / обновил URL сайтмапа в роботсе и переподал - толку нет.
Плюнул, грохнул сайтмап из роботса - враз в инструменте GSC —> Настройки —> Robots.txt оный роботс стал рабочим.
Ну и поскольку он был нерабочим, все директивы в нем тоже были нерабочими и Гугел шлялся по сайтику где хотел и индексил что хотел и тратил бюджет сканирования на что хотел. Непорядок!
Надеюсь после удаления сайтмапа и признания роботса рабочим - оные гуглоботы поумерят свой аппетит и не будут совать нос куда не следует.
Вот вам и Core апдейты, вот вам и обновления GSC
С каждым днем всё больше неполадок нахожу в Гугле.
Беда.
Жду откатов/докатов апа и ремонта GSC.
#Drmax #Google #GSC #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
Собственно сегодня к вечеру закрываем продажу руководств со скидкой в 50%. Думается, все кто хотел прикупить - это сделали.
Кто не успел - есть еще немного времени.
Подробное описание смотрите на офф сайте.
Кстати, можете прикупит 2 тома сразу - там тоже 50% скидка на комплект (на который изначально была скидка) или отдельно первый том.
PS. Миша Шакин книгу одобряет ))
PPS.
Часть поступлений уходит на помощь Виталию Тимофееву.
Про него я неоднократно рассказывал ранее.
Если есть возможность - помогите ему немного самостоятельно.
#DrMax #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
1. Нас уже 5000. Ура!
2. По десяткам просьб, Аня еще 1 день не будет убирать скидки с книг (Аня Ященко заведует десятилетиями продажами всех моих книг). Так что, не пишите мне больше с просьбами о продлении. Еще сутки в вашем распоряжении.
3. Многие десятки новых заказов я физически не могу обработать. Поэтом ни один новый заказ на аудиты ранее 15 декабря брать не буду. Извините и переподайте все заявки15 декабря. Реально десятки, практически сотни сообщений в день сейчас.
4. Все текущие заявки и заказы я доделываю. Очень извиняюсь за возможные задержки. Чуть задерживаю, но дополню новыми исследованиями.
#DrMax
Please open Telegram to view this post
VIEW IN TELEGRAM
Аккурат 15 декабря, ровно в 15-00 по Москве начнется очередная телеконференция у Миши Шакина под стратегическим названием:
"Хитрый линкбилдинг 2024. Строим ссылки с конкурентов!"
Кой кому я показывал несколько приемов из этой серии. Остались довольны.
Явка строго обязательна )))
Ссылка на телеконференцию:
Готовьте могучие вопросы - после доклада будет традиционная рубрика ответов на вопросы.
#DrMax #Телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
Первая часть из запланированной серии телеконференций о линкбилдинге.
Строим ссылки с конкурентов!
Итак, 15 декабря в 15 по Москве смотрите:
📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=0oygm26K_48
🎥 Трансляция в профиле Миши Шакина в ВК. Все записи вебинаров доступны здесь https://vk.com/video/@globator):
https://vk.com/globator
📼 Кроме этого, запись вебинара будет размещена в канале на Дзене:
https://dzen.ru/shakin
📹 И в Rutube канале:
https://rutube.ru/channel/24777621/
Явка строго обязательна! ))))
#DrMax #Телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
После могучих Ревью-Апдейтов Гугла, часть статей улетела в саплементаль. То есть статьи вроде и в индексе, вроде и есть показы по каким то там НЧ запросам, но при поиске выдержки из статьи, находятся в Гугле далеко за первым десятком позиций или вовсе не находятся.
Если у вас похожая ситуация, то можно попробовать переписать тексты, используя Клавдию.
После многочисленных экспериментов стало ясно, что Гугл недолюбливает тексты генерируемые Клавдией из за излишней пышности, пафосности и описательности (несмотря на выбор тональности). В частности, было решено избавиться от
Rewrite and paragraphize the text in a dry, concise, academic tone, without passive voice:
ну и ниже промпта пихаем текст.
Важно - обрабатывать не весь текст целиком, а по отдельным разделам. И сразу же вычитываем этот раздел. Как правило, текст ужимается в пару раз, при этом становится более удобочитаемым и лишенных всяких свистоперделок, которые так любит Клавдия.
Промпт не сработает, если изначально у вас не текст, а говнотекст. Если в нем нет дополнительной ценности для пользователей. Поэтому иногда лучше заново перегенерировать контент (перед этим скормив 3-4 примера из ТОПа), а затем уже обработать промптом.
Клавдия недостаточно хорошо делает структуру контента. Поэтому можно использовать Perplexity для генерации скелета контента (включите обязательно Copilot):
I want to write articles on "Domestic cockroaches and their environment". I need a table of contents. Make it using SEO best practices.
Вы получите и структуру и список источников, на которые потом можно будет сослаться (или сделать список литературы внизу текста, без ссылки). Далее подсовываем структуру Клавдии и генерируем текст (а потом обрабатываем спецпромптом).
Очень важно, для восстановления ранжирования повысить ценность статьи. Для этого можно добавить FAQ, который опять таки нагенерировать Клавдией на основе 3-4 статей из ТОПа Гугла по вашему запросу:
Write me 15 detailed and interesting questions and answers about......
Генерируем штук 15 FAQs, из них выбираем 5-6 наиболее ценных и размещаем в контенте.
Не забываем прописывать в явном виде дату обновления контента.
Собственно так удалось восстановить видимость всех запропавших статей на моем стартапе. Естественно, с набором траста доменом, Гугл будет более снисходительно относится к контенту. Но пока вот так.
Для использования на иных языках, прямо указывайте перед промптом язык использования. Например:
Write further answers only in Russian.
Желаю удачи.
#DrMax #Text #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
После последнего обновления Гугла, в органическую выдачу стали проникать новые форматы расширенной выдачи. Одним из них являются "руководства для начинающих" - см скрин (в данном случае по инвестиции). На скрине видно, что это блок из 9 шагов, раскрыв который мы можем увидеть несколько авторитетных источников с рекомендациями.
Что характерно, фишка внедряется довольно медленно, все подобные блоки касаются жестких YMYL тем и все запросы, вызывающие такие выдачу явно связаны с "руководством для начинающих".
Есть мнение, что Гугл отрабатывает генеративную выдачу для щекотливых тем.
При этом Гугл пытается удержать пользователей в Google, предоставляя свои собственные «шаги» для изучения темы. Как пользователь, вы можете затем прочитать источники его «шагов» и перейти к источникам, которые он показывает, но Google пытается заставить вас вернуться к поисковой выдаче и использовать ее в качестве базы для обучения.
В любом случае, несколько десятков ссылок перед первой позицией органики - не особо хорошо для продвижения, ежели такую фишку распространят и на иные запросы.
Для теста использовался VPN Бостона.
Но это не единственная новая фишка. О других - чуть позже.
#DrMax #Google #Serp
Please open Telegram to view this post
VIEW IN TELEGRAM
Задумался об облегчении создания тематических кластеров ( они же семантические коконы). Для начала сделаем двухуровневую структуру.
1. Открываем Клавдию и стартуем новый чат.
2. Вводим промт (далеко не идеальный, пока просто наброски):
I would like to create a topic cluster consisting of 5 web pages. The main page of the cluster should briefly describe each subtopic, and 4 additional pages should fully describe each subtopic mentioned on the main page.
First, сreate a detailed SEO-optimized table of contents for the main page (7 items with explanations for each item) and SEO-optimized table of contents for each additional page (4-6 items with explanations for each item). In accordance with SEO best practices, write a short but informative headline for each page (including the home page).
Second, after writing table of contents for all pages of the thematic cluster, for each page, make a list of SEO keywords (3-5 pieces) that should be added to the content for better ranking in Google for each page's topic.
Cluster topic: "Domestic cockroaches and their environment".
получаем структуру для каждой страницы, включая пояснения к каждому пункту
3. Последовательно генерируем страницы, вычитываем, размещаем, перелинковываем. Напоминаю, что субстраницы должны полностью раскрывать подтемы, упомянутые на главной странице.
Кому нужно на русском - ну просто переведите промпт с помощью Дипла. Или напишите что результат нужен на русском языке.
Должно (по идее) работать хорошо. Но все зависит от трудов вложенных в кластер и их конечного качества.
Ежели кто улучшит промпт - скидывайте в комментарии. Буду рад.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Попросили меня тут один магазинчик посмотреть в рамках техаудита. Трафик падает на протяжении года, причем предпосылок вроде нет.
В целом мне в руки достаются примерно поровну как буржуйские, так и наши проекты. И между ними в планах техсостояния огромная пропасть (практически всегда).
Ежели брать наши сайты - то у них завсегда есть какие то тяжкие заболевания, но докопаться до которых можно только после длительного осмотра или вдумчивого анализа сайта.
Напротив, буржуйские сайты переполнены "детскими" болячками, но которые враз убивают проект на корню. Их легко найти, легко пофиксить и почему зарубежные коллеги этого не проделали - не понимаю.
Собственно пост о чем - вот явный пример зарубежного сайта (на скрине). Ежели посмотреть на него, то становиться понятным, почему сайт теряет в ранжировании. Как раковое заболевание - все эти красные точки (неработающие страницы). Собственно только на днях откопал в лягушке 3D визуализацию проблем. Крайне понравилось. Хоть и абсолютно бестолковая вещь, но крутя в 3-х проекциях сайт, поневоле чувствуешь себя доктором - вивисектором, препарирующим оный.
Кстати, пометил стрелками не только пораженные кластера, но и длинющие цепочки, показывающие запредельные уровни вложения страниц.
В целом интересно и забавно побаловаться и позапугивать себя и клиентов этими 3D визуализациями.
К сожалению, оные визуализации предназначены для детектирования только простейших проблем. Но может и то неплохо. Крайне рекомендую Вам перед НГ самостоятельно протестировать свои сайтики и устранить все возможные недочеты.
ЗЫ. чтобы получить такую визуализацию, пришлось зачистить 80+ тыс страниц, которые явно были Thin Content
ЗЗЫ2. Ежели кто переживает за представленный на скрине сайтик - там его починка займет 15 минут )))
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Дорогие друзья, позвольте поздравить Вас с наступающими праздниками!
Желаю удачи, могучих силищ, дабы достичь мега свершений и главное - здоровья.
Ну и обещанные подарки - 50% скидки на мои книги:
SEO Монстр Next том 1
SEO Монстр Next+ том 2
И двойная (!!!) скидка на комплект из 2-х книг.
PS
Всем распространением занимается Аня Ященко. Все вопросы по доставке, приему платежей в удивительных валютах/картах и пр. -исключительно к ней.
УРА!
#DrMax #NewYear
Please open Telegram to view this post
VIEW IN TELEGRAM
На сегодняшний день ПС Google использует более 100 базовых факторов ранжирования, которые причудливо соединяясь, образуют отдельные подсистемы ранжирования сайта. Например, система дедупликации контента использует более 20 базовых факторов ранжирования (PageRank, нахождение страницы в xml-карте, длина Url и пр). И таких подсистем ранжирования сотни, причем описано в документации только малое количество таких систем. Очень важно понимать, что каждый из базовых факторов используется многократно в самых различных подсистемах ранжирования.
Одним из важных факторов ранжирования является навигация сайта. К ней относится как и структура меню, так и внутренняя перелинковка и наличие разнообразных блоков, позволяющих пользователю перемещаться и взаимодействовать с сайтом (например блок похожих товаров/статей). Чем лучше продумана навигация на сайте, тем проще пользователю найти нужную информацию/товар, тем лучше пользовательский опыт (удовлетворенность).
Самым очевидным преимуществом (но не единичным) хорошей навигации, является перераспределение «ссылочного сока» на важные страницы, что позволяет аккумулировать вес важных страниц (PageRank). Но это слишком очевидно, а мы копнем глубже.
Важность хорошей навигации обуславливается широким использованием пользовательских факторов ранжирования в подсистемах Google. Как выяснилось (в процессе суда над Гуглом), Гугл собирает и анализирует пользовательские взаимодействия со страницами: clicks, hovers, scrolls, and swipes, чтобы понять насколько соответствует страница поисковой функции.
Эти данные аккумулируются в течении 13 месяцев, разбиваются на типичные группы взаимодействия с сайтами и эталонные группы сравниваются с поведением пользователей на сайте (попадающим в одну из эталонных групп). Так работает подсистема GLUE, которая является составной частью более обширной системы Navboost.
Итак, система Navboost обучена на пользовательских данных. Он запоминает все клики по запросам за последние 13 месяцев. Основным предназначением Navboost является первичное отсеивание документов, которые не особо нужны в выдаче и сокращение списка документов до приемлемого количества с целью последующего ранжирования. До окончательной сборки выдачи, пройдет еще несколько этапов (их рассмотрю в следующих статьях).
Кстати, пока на сайте нет кликов, то система Navboost не сможет отработать в должной мере – вот вам и песочница для молодых проектов.
Navboost объединяет различные пользовательские сигналы и алгоритмы для определения наиболее подходящих результатов для запросов. Он анализирует такие факторы, как клики, поведение пользователей, качество веб-сайта, релевантность и контекст. Понимая намерение пользователя перейти на определенный веб-сайт или ресурс, Navboost пытается обеспечить приоритет точной и полезной информации в выдаче.
Вернемся к навигации.
Она должна быть продуманной, меню не должны вводить пользователя в заблуждение, она должна быть достаточно плоской (правило3-х кликов), на сайте не должно быть ни лишних редиректов, ни Orphan Page. Ну и не забываем про разметку навигации семантическими тегами (и микроразметкой в случае с хлебными крошками). Основная задача навигации – чтобы пользователь мог легко попасть в нужный раздел сайта.
Итак, сайты с хорошо структурированными элементами навигации, четкой информационной иерархией и простой для понимания структурой с большей вероятностью выиграют от Navboost.
#DrMax #NavBoost #Google #ранжирование
Please open Telegram to view this post
VIEW IN TELEGRAM
Navboost - это одна из систем ранжирования, задача которой отбросить наименее релевантные страницы по запросу и сократить список до приемлемой величины, который далее будут мучать иные системы и алгоритмы ранжирования.
Navboost в значительной степени зависит от кликов пользователей и обучается на их сигналах. Он использует эти данные для повышения релевантности и точности результатов поиска. Некоторые из ключевых сигналов, используемых Navboost, включают:
Пользовательские клики: Navboost обучается на сигналах пользователей, в частности на кликах по результатам поиска, и использует эти данные для повышения релевантности и точности результатов поиска.
История запросов: Navboost запоминает прошлые клики по запросам возрастом до 13 месяцев, что позволяет ему анализировать поведение и предпочтения пользователей с течением времени.
Тип устройства и локализация: Navboost разделяет результаты на основе таких характеристик, как локализация и тип устройства (мобильное или десктопное).
Поведение пользователя: Navboost учитывает поведение пользователя, такое как клики, перемещение/наведение мыши, прокрутка и пролистывание, чтобы определить релевантность и качество результатов поиска.
Удобство для мобильных устройств: Navboost учитывает удобство веб-сайта для мобильных устройств, обеспечивая адаптацию результатов поиска к устройству пользователя.
Структура сайта: Navboost учитывает структуру сайта, включая внутреннюю перелинковку и иерархию информации, для определения релевантности и качества результатов поиска.
Понятная навигация по сайту: Navboost подчеркивает важность понятной навигации сайта и удобного интерфейса, так как сайты, на которых легко ориентироваться и которые обеспечивают комфортное взаимодействие с пользователем, с большей вероятностью будут занимать более высокие позиции в результатах поиска по навигационным запросам.
Релевантность контента: Navboost анализирует релевантность содержимого сайта запросу пользователя, обеспечивая контекстную релевантность результатов поиска.
Качество и релевантность веб-сайта: Navboost учитывает такие факторы, как надежность сайта, контекстная важность его содержания, а также актуальность и полезность информации (YMYL / EEAT ????).
Понимая эти сигналы и оптимизируя сайт, вы сможете улучшить его ранжирование в результатах поиска. Например, оптимизация навигации и пользовательского интерфейса сайта, соблюдение лучших практик SEO (ссылочное, мета тайтлы, дескрипшены, правильные h1, прописанный табле контент ), четкая структура сайта, описательные URL-адреса, внутренняя перелинковка, удобный для мобильных устройств дизайн и повышенная скорость работы сайта (это сомнительно) могут повысить видимость сайта и вовлеченность пользователей в навигационный поиск, что может положительно сказаться на рейтинге Navboost. Кроме того, создание отдельных наборов данных для каждой категории (уникальность контента) для более эффективной адаптации результатов поиска и анализ релевантности содержимого сайта запросу пользователя (работа с GSC) также могут способствовать повышению рейтинга Navboost.
#DrMax #Google #ранжирование #NavBoost
Please open Telegram to view this post
VIEW IN TELEGRAM