Опрос смастерил в комментариях, которые уже вовсе не комментарии а не пойми чего )))
Forwarded from DrMax SEO Chat
А не сделать ли нам отдельный чат? Что то типа DrMax SEO CHAT - ибо комментарии превратились в клуб по интересам на 500 человек))) Где обсуждают черти-что, но только не посты.
Anonymous Poll
44%
Чат нужен. Будем там обсуждать и флудить.
29%
Чат НЕ нужен. Продолжим забивать комменты всяким - разным.
27%
Лучше новую книженцию выкати )))
Что то я упустил основное обновление.
Помимо спам апдейта, который будет карать барыг ссылочным и неаккуратных покупателей ссылок (либо криворуких линкбилдеров), сейчас выкатывают основное обновление ядра алгоритмов Google.
Это уже третье по счету обновление ядра алгоритмов в этом году. И это очень хорошо, так как сайты над которыми работали за этот период должны получить хороший буст.
По планам, обновление должно закончится 20 октября (примерно). Будем отслеживать.
Ежели нужна помощь в восстановлении трафика - обращайтесь.
#DrMax #SEO #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
Тут опять вылезли вопросы по принципам отбора доноров. Отвечал неоднократно, но немного повторю и расширюсь.
Ни одна пузомерка не может достоверно показать, сколько траста перельется на сайт-акцептор с донора. И вовсе не потому, что эти пузомерки не учитываются Гуглом (хотя и этого достаточно), а потому что пузомерки считаются для морды донора.
Возьмем простой пример - есть 2 сайта, у одного, предположим PR5 на морде, у другого PR3. Но первый сайт вашу статью располагает в 3 кликах от главной, а второй в 1 клике. Траст расползается с морды пропорционально числу внутренних ссылок. Так, если на морде 100 внутренних ссылок, то на каждой из внутренних страниц передастся 1/100 траста морды. А на странницу, которая находится в 3 кликах от главной 1/1 000 000. И при всех прочих равных показателях становится ясно, что лучше ссылку размещать на 2 сайте, а не на первом.
Тут много допущений, да и PR считается по экспоненте, но для примера сойдет.
Отсюда очень важный вывод: необходимо отслеживать на донорах, как они размещают статьи с ссылками, насколь глубоко они находятся. Например, если в 10 кликах от главной (а бывает и такое), то передаваемый траст с такой страницы будет стремиться к нулю.
Второй момент. Вот разместились мы на 2-х донорах, ну пускай на глубине 2-х кликов от главной. При этом на странице первого донора есть 100 <a href> (внутренних и внешних ссылок), а на второй 1000 <a href> (внутренних и внешних ссылок). Так вот в первом случае вы получите 1/100 от передаваемого траста страницы, а во втором уже 1/1000.
Отсюда второй важный вывод: смотрите на размещения конкурентов и анализируйте сколько ссылок всего на странице - доноре. От этого будет зависит ваш траст.
Вывод третий: абсолютно не важно, сколько вы разместите внешних ссылок в вашей статье. И внутренние и внешние ссылки делят передаваемый траст одинаково. Поэтому, если вы в своей статье сошлетесь на википедию или на иной какой то трастовый домен ( дабы подтвердить естественность размещения) - от вас практически ничего не убудет. Ну передастся не 1/100 траста страницы, а 1/101 - разницы нет.
Именно поэтому, все внешние пузомерки без оценки того как будет размещена ваша статья, не имеют особого прикладного смысла. Порой лучше разместится на менее трастовом (и значительно более дешевом) доноре, чем на пафосном и дорогом, но засовывающим страницу - донора в 5 кликов от главной.
Кстати, при построении стратегии линкбилдинга я привожу расчетные данные по весам ссылок - т.е. по тому трасту, что может передать ссылка с донора.
И еще очень важный момент: Не скупитесь и всегда заказывайте ссылочку с морды на вашу размещенную статью. Хотя бы на 3-6 месяцев. Это позволит не только быстро проиндексировать ваше размещение, но и налить туда траста. И даже когда уберут ссылочку с морды на вашу размещенную статью, в дело вступит эффект "тени от ссылки" и налитый траст будет сохраняться еще 3-6 месяцев.
Кстати, можете заказать себе только расчеты доноров, без полной стратегии. Это выйдет примерно по цене 2-3 качественных ссылок.
Пользуйтесь.
#DrMax #SEO #Линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
В принципе весь курс можно уложить в пару 30-минутных лекций. Часть сейчас вам процитирую, вернее повторю - ибо рассказывал об этом многократно. Вот несколько фактов:
0. За злоупотреблением PBN Гугл вас накажет. Читать тут. И Мюллера.
1. Большинство доменов дропаются не от того, что кому то надоело вести сайт, а от того что это уже были дропнутые и неоднократно перехваченные домены, которые выжали насухо и загнали под алгоритмические штрафы.
2. Чем старше дроп - тем меньше на нем ссылок. За 5 лет отмирают 90% ссылок. После подклейки дропа, через год, у него умрет еще 20-30% ссылок.
3. Если дроп был подклеен к кому то более года (был редирект), то скорее всего от него толку нет и все ссылки навсегда переползли на сайт-акцептор. Читать про опустошение дропа тут.
4. Гео ссылок особого значения не имеет. Можно использовать релевантный по тематике дроп с любым ГЕО. Но лучше этим не злоупотреблять. Читать тут.
5. Ссылки с форумов / профилей практически не работают и учитывать их при анализе линков дропа нельзя. Читать тут.
6. Индекс Google работает по принципу Wayback Machine. Он предназначен для долговременного хранения множества копий одной и той же страницы.Перенаправление URL на нерелевантную страницу приводит к Soft 404. Читать тут.
Итак, что нужно проверять у дроп-домена, прежде чем его захапать:
1. Ссылочное и его качество. Причем нужно смотреть откуда ведет ссылка. Как я говорил ранее очень важно смотреть и глубину вложения ссылки в структуре сайта и где она проставлена. Читайте подробно тут. Циферки DR тут не пляшут.
2. Лезем в Веб Архив и по годам смотрим на дроп. Если он пару лет был перенаправлен на иной сайт - не берем, Если на нем поднимали нетематический проект - не берем. Если с него ссылались на ядовитые тематики - не берем. и т.д.
3. Если на дропе мало ссылок, пусть даже они с хороших доменов - есть вероятность, что эти ссылки отсохнут и дроп останется без ссылок - не берем.
4. Оцениваем бывший трафик на дропе и вероятность его восстановления
5. и т.д. и т.п.
Что делаем с дропом:
1. Восстанавливаем, проставляем ссылку на акцептор
2. Восстанавливаем, смотрим на какие страницы ведут мощные ссылки - делаем релевантную страницу у себя и редиректим на неё страницу с дропа.
3. Переклеиваем все страницы редиректом на свой сайт напрямую или используем сайт- прокладку
4. Используем хитроумные комбинации, например постранично приклеиваем дроп на те же самые URL на сайте (которых нет), а на сайте со страниц (которых нет) проставляем редиректы на нужные существующие страницы.
5. Разнообразные вариации вышесказанного и иные хитроумные способы.
Прежде чем клеить, было бы неплохо восстановить трафик на дропе. А поскольку контент, как правило устарел, то его нужно обновить/расширить/актуализировать (все зависит от дропа). Как правило, для восстановления из веб архива используют Архивариус или иные сервисы (либо самописный софт).
На аукционе покупать дропы - верх глупости и расточительства. За день можно найти жирные релевантные дропы под большинство тематик, абсолютно без затрат.
Что лучше ссылка или дроп?
Зачастую покупка ссылки обходится гораздо дешевле и безопасней чем работа с дропами - не нужно тратиться на регистрацию доменов/хостинг/возню с восстановлением и обновлением (хотя сейчас это все молниеносно делается), меньше шансов схватить фильтры за дропы ( или переползшие с дропов).
Так что подумайте нужно оно вам?
Если оные измышления наберут 50 репостов - напишу вторую часть.
#DrMax #PBN
Please open Telegram to view this post
VIEW IN TELEGRAM
Вчера в комментариях выложили ссылку на видео по работе с Клавдией. Ну не ахти конечно там рассуждения, особенно предложения скармливать Клавдии субтитры с Ютуба и как пример приводится видео какого частнопрактикующего сантехника, который привносит в сантехническое дело некие фишки, не изведанные никому.
Судя по отечественным сантехникам, они туда только определенного рода колорит привнесут и обучат Клавдию разнообразным загибам.
Но не суть.
В видео промелькнуло неведанный мне ранее сервис perplexity.ai, который может:
1. Ловко собирать из выдачи всякую актуальную информацию
2. Коннектится с Клавдией или ChatGpt и передавать информацию на обработку.
Себя этот сервис велеречиво называет Copilot, значит по нашему будем называть его Лётчик. Собственно очень он похож на Клавдию внешне, как бы ни из одних ворот он вышел.
Итак, в нем есть функции сбора данных. Теперь не нужно ползать по выдаче и пихать в Клавдию выжимки из ТОП-3 по интересующим запросам, даба она собрала информацию.Лётчик все это может проделать: подобрать и структурировать информацию и задеть можно передать на литературную обработку Клавдии.
Сам Лётчик туп, но исполнителен. От сложносоставных промптов он впадает в ступор, может ответить на сложный вопрос через 2-3 новых запроса, иногда у него бывают галлюцинации и пр. Он не умеет так излагать, как Клавдия и похож на настоящего солдафона, беспрекословно выполняющего задания. Но как сборщик, как парсер чего угодно - он крайне хорош.
Пользовался фришкой - лимиты выбрать не удалось. Есть платная PRO версия и уже появились первые продавцы этих PRO-шек на платиру. Добавил их в список, что болтается в закрепе, но покупать не рекомендую - пока нет отзывов.
Итак, пробуйте новый сервис, тестируйте и отписывайтесь в комментах о достижениях.
#DrMax #тексты #II
Please open Telegram to view this post
VIEW IN TELEGRAM
Вот несколько дополнительных важных фишек, на которые нужно обратить внимание. На телеконференциях у Миши Шакина я про это не говорил, наверное, ибо там все побыстрей да запихнуть поболее информации.
Итак.
1. Влияние апдейтов стоит анализировать спустя неделю после окончания, не ранее. Так как могут быть докатки и всякое такое.
2. Периоды мы должны выбирать не смежные ( не ставить галочку сравнить периоды в GSC), а сравнивать период после апдейта, с аналогичным периодом до апдейта.
Например, вот последний Core апдейт, который начался 5 октября и продлился 13 дней 23 часа. Мы берем неделю после апа (с 19 по 26) и неделю до апа (с 29/09 по 4/10). И сравниваем именно их.
3. При анализе эффективности в GSC всегда сегментируйте по стране. Если вы работаете только в России, зачем вам мусорный трафик из Колумбии, который размывает данные о ключах/позициях/кликах и пр.
4. Отдельно анализируйте мобайл и десктоп. Данные часто не совпадают и ранжирование может быть различным. Необходимо понять отчего данные по ранжированию различаются и что нужно предпринять.
Простой пример:
На десктопе адблоки режут рекламу, отскоков в выдачу нет (если посетитель удовлетворен). На мобиле расхлопы/банеры на весь экран, посетители в ужасе возвращаются в выдачу (отскок), позиции снижаются. И это только один из миллиона возможных вариантов.
5. После каждого апа проверяем канибализацию. Для этого в GSC- Эффективность, задаем строгий поиск по важному для вас запросу и смотрим вкладку страницы: сколько страниц там показывается и сколько просмотров у каждой из них. Если находятся несколько страниц с большим числом показов, то сравниваем эти страницы по этому запросу друг с другом и смотрим влияние (когда растет число показов на одной, на второй - падает) это и есть канибализация. Подробно рассказывал об анализе у Миши Шакина в телеконференции.
Вроде пока все. Приятного анализа последствий последнего Core апдейта, который закончился позавчера.
#DrMax #SEO #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
Лет 20 показатель отказов (он же Bounce Rate) служил верой и правдой SEO аналитикам, пока его не прихлопнули в новомодной GA4. Теперь вместо него ввели понятие Уровня вовлеченности (Engagement Rate) или по иному "уровень взаимодействия", который рассчитывается так:
* успешной (вовлеченной) считается сессия, которая длится более 10 секунд, в которой произошло событие конверсии или было не менее 2 просмотров страниц или экранов (для мобилы). При этом коэффициент вовлеченности (взаимодействия) - это процент успешных сессий на вашем сайте.
Удивительно знакомое определение, не так ли. А вот если взять процент неуспешных (не вовлеченных, без взаимодействия) сессий, то как раз и получим современный показатель отказов (Bounce Rate).
То есть нынче показатель отказов это когда пользователь заходит на ваш сайт, читает некоторые материалы менее 10 секунд и уходит. При этом, находясь на сайте, пользователь не инициировал никаких событий и не посещал других страниц. Ранее он считался малость по иному.
Вместе Bounce Rate + Engagement Rate = 1 или 100%.
Напомню, что Bounce Rate влияет на две вещи:
* ранжирование в выдаче (через суд Гугл заставили заявить о влиянии поведенческого на ранжирование, рассказывал об этом ранее)
* конверсию (продажи, доход и прибыль).
В каждой сфере деятельности, тематике сайта, да и на каждом отдельном сайте показатель отказов будет различаться. Нормальной величины, как правило, не существует. В первом комментарии я размещу усредненные показатели отказов по отраслям.
Но нужно понимать, что чем меньше показатель отказов ( и выше уровень вовлеченности), тем лучше.
Чем хорош анализ и работа с показателями отказов (уровнем вовлечения)? Да тем, что как и с техничкой, вам не нужно выходить за пределы сайта, закупать ссылочное, заниматься PR, чтобы улучшить ранжирование и повысить конверсию. Достаточно снизить показатель отказов.
Оный зловредный показатель зависит от многих вещей. Просто представьте себя на месте посетителя и прикиньте, что вам не нравиться на сайте:
* Низкая скорость загрузки (особенно для мобил)
* Не соответствие сниппета в выдаче текущим данным (в сниппете пицца за 500 руб, на сайте за 1000)
* Отсутствие товаров и их замены (для коммерческих).
* Не соответствие страницы интенту посетителя. Например, страница ранжируется по ключам, которые вы не раскрываете на странице (проверьте ключи в отчете Эффективность GSC).
* Дурная навигационная система сайта, отсутствие внятной структуры
* Слабый EEAT страницы (не профессиональная текстовка, ошибки, накрученные отзывы на странице, не понятно кто, а главное зачем всё это написал и пр.)
Показатель отказов можно снизить, если контент соответствует ожиданиям пользователя или превосходит их. Можно добавить полезное видео на страницу, можно предложить какие то интересные сопутствующие товары или по внутренней перелинковке отправить пользователя внутрь сайта. В целом, об этом написаны тысячи статей и нет смысла их пересказывать.
С показателем отказов связана наиболее паскудная пользовательская метрика – показатель отскоков (в выдачу) – он же Pogo Sticking. Это когда неудовлетворенный посетитель вашего сайта возвращается в выдачу и начинает лазать по ней и заходить на иной/иные сайты.
Сам по себе Bounce Rate может и не влиять на на ранжирование (например на сайте не прикручен аналитикс), но он тесно связан с показателем отскоков (Pogo Sticking), который четко отлавливается Гуглом и является фактором ранжирования.
Чем больше Bounce Rate, тем, вероятней, больше Pogo Sticking (который мы достоверно замерить не можем) и тем ниже опускаетесь вы в выдаче.
Выводы: отслеживаем Bounce Rate (или уровень вовлеченности) и стараемся оптимизировать своими силами. Проверяем текст, мета тайтлы и мета-описания, перелинковку и прочее. Ставим себя на место посетителя и прикидываем, что нужно исправить на странице. Работа с Bounce Rate – это дешевый способ улучшить ранжирование и увеличить полезный траф на сайте. Подробнее- читайте офф документацию у Гугла.
#DrMax #SEO #Google #Bounce_Rate
Please open Telegram to view this post
VIEW IN TELEGRAM
На вебмастерской конференции в Маунтин-Вью в 2019 году был задан вопрос Полу Хару из Google о возможности чаще проводить масштабные основные обновления поискового алгоритма (поскольку многие владельцы сайтов усердно работали над восстановлением позиций после обновлений, которые проводятся лишь несколько раз в год). Хаар объяснил, что между основными обновлениями Google проводит столько оценок, что это может стать препятствием для их более частого выпуска. Однако он отметил, что Google всегда может отделить алгоритмы от масштабных основных обновлений и запускать их по отдельности.
И это наблюдалось множество раз за последние годы.
Вот крайне яркий пример докаток. Помните, в сентябре 2022 года во время основного обновления сильно пострадали несколько крупных новостных изданий (таких как CNN, The Wall Street Journal, The Daily Mail и др.). Когда основное обновление завершилось, ранжирование этих СМИ всё ещё было плохим.. Но через 3-4 недели произошло неподтверждённое обновление, после которого позиции новостных изданий существенно выросли. Это стало отличной иллюстрацией того, как Google отделяет алгоритмы (или несколько алгоритмов) от масштабных основных обновлений и запускает их по отдельности.
Таким образом не стоит рвать волосы при падениях сразу после внедрения алгоритмов. Возможно, докатки/откаты обновлений всё восстановят ( довольно редко) или что то еще изменят (гораздо чаще).
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Что вы используете для технического SEO из ДЕСКТОПНОГО ПО?
Final Results
74%
Screaming Frog
12%
SiteAnalyzer
2%
Xenu
3%
Website Auditor
1%
Comparser
0%
Sitebulb
3%
Netpeak Spider
5%
-прочее (уточнить в комментах)
Привет друзья. Как вы наверное помните, летом мы запустили несколько стартапов и пришло время рассказать некоторые интересные курьезы о них.
Итак, один из проектов - бурж (штаты), крайне высокая конкуренция. Решили зарубиться с минимальными (относительно) бюджетами. Первым делом накрутили 5-10 тематических кластеров (они же коконы), сделали всё по уму в три уровня.
Что удивительно - часть коконов ловко влезло в индекс, а один, самый важный никак не хочет индексироваться.
Ну допустим домен у нас СъешьФранцузкиеБулки дот ком.
Кокон был об особенностях оных Французких Булок и висел он на ЧПУ
/ФранцузскиеБулки. При этом ни сама главная страница кокона, ни дочерние страницы не попадали в индекс (просканировано но не проиндексирована). Ручная переподача в консоли ни к чему не приводила. А нужно сказать, что переиндексация любой страницы занимает секунд 20, не более.
Сначала я подумал, что контент недостаточно хорош. Переделал его - толку нет.
Потом подумал что интент не совпадает с ЧПУ. Опять переделал - толку нет.
Потом подумал что виноват переспам в ЧПУ (это не так) - перенес на иной ЧПУ и весь кокон со свистом проиндексировался.
Ага, сказал я и сделал супермегастраницу заточенную именно под ЧПУ. В индекс не зашло. Поменял в ЧПУ местами ключи.
Было:
СъешьФранцузкиеБулки дот ком/ФранцузкиеБулки
Стало:
СъешьФранцузкиеБулки дот ком/БулкиФранцузкие - толку нет
ну и все иные вариации попробовал (через дефис, в единственном числе, с разбавлением третьим /четвертым ключом) - толку нет.
Как только поменял ЧПУ на иной, куда эти французские булки не входят (благо синонимов полно) - залетело за минуту в индекс.
В общем начали анализировать все страницы, которые не охотно заходили в индекс и нашли пяток ключей, появление любого из которых в ЧПУ гарантировано приводило к неиндексации страницы. Ряд ключей не присутствует в названии домена. И один из них это "Buy" )))
Вот такой пердимонокль с новыми - молодыми проектами в конкурентной среде.
Наверняка с накоплением траста это всё уйдет, но на первом этапе даже неверно составленный ЧПУ (с точки зрения Гугла) может вредить проекту.
А еще это хорошее подтверждение того, что ЧПУ - фактор ранжирования.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Вторая забавная история из жизни стартапов.
В условиях, когда ссылки стоят от 200 баксов, а за более - менее приличную нужно отвалить $1000 (с ехидной припиской что оная цена уже с дисконтом), каждую проставленную ссылочку холишь и лелеешь и ждешь - не дождёшься, когда оная вылезет в консоли (GSC).
Напомню,сайты новые, буржуйскоориентированные. Как и для каждого нового проекта приходится контролировать всё по максимуму.
Вопрос на засыпку - давно вы анализировали логи доступа и с какой периодичностью вы это делаете?
Так вот, для нового проекта такой анализ крайне необходим. Бюджет сканирования пока мизерный и нужно четко контролировать куда он тратится ботами Гугла. То ли бот равномерно обходит сайт, то ли он долбит какую то битую страницу и сливает на неё весь бюджет. В общем полезно.
И тут как то бот начал долбить одну страницу - десятки запросов в день. Спустя несколько дней начал долбится в иную страницу. В общем хаос и разорение - вместо планомерного обхода сайта, тратит наш крохотный бюджетик сканирования непонятно на что.
И тут вспомнилось, что на оные страницы мы закупали по неплохой ссылке. Бот обрадовался этому и давай (зачем то) переобходить эти страницы много раз за день.
В принципе ничего страшного в этом нет, но вот такой признак того, что ссылочка заработала - налицо. В консоли оные ссылки появились только спустя 2-3 недели.
Кстати, аналогичная ситуация и с приклейкой внешнего редиректа на страницу (например дропа). Бот также начинает суетится и по этому можно понять, что редирект заработал.
Так что крайне рекомендую собирать логи доступа, Брать фроговый Лог анализатор и внимательно всматриваться в глубины работы ботов. Не только для анализа работы ссылок - это так, побочка. А для поиска всяческих досадных ошибок и недостатков, мешающих хорошо ранжироваться проектам.
Полезно и поучительно ))))
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Прямо сейчас идут 2 крупных обновления Google:
см тут
В дальнейшем Гугл отказывается подтверждать новые обновления ревьюшек, так как: поскольку система отзывов сейчас постоянно совершенствуется, мы больше не будем публиковать информацию о будущих обновлениях на информационной панели статуса.
и
Мы больше не будем предоставлять периодические уведомления об улучшениях нашей системы отзывов.
Всего с момента первого обновления ревьюшек , выпущенного в апреле 2021 года, Google подтвердило в общей сложности 8 обновлений.
Также Google заявил, что обновление происходит «регулярно и постоянно». Это звучит так, будто обновление обзоров теперь происходит в режиме реального времени. Помните, в году 16 они также бахвалились об апдейтах в реальном времени, а потом всё это схлопнулось и опять возвернулись к периодическим апдейтам.
Но это опять не самое главное. Теперь Гугл стал нас запугивать изменениями в факторах ранжирования. Представитель Google по поиску Дэнни Салливан заявил, что в ближайшем будущем в поисковом рейтинге Google произойдут серьезные изменения. Это следует из выступления Салливана на мероприятии в прошлую пятницу, где он сказал, что эти «серьезные изменения» грядут.
Но в принципе ничего нового)))
Посмотрим
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
На днях Гугл обновил QRG - руководство для асессоров.
Гугловцы упростили определения шкалы «Соответствующие потребности», добавили больше рекомендаций для различных типов веб-страниц и современных примеров, включая новые форматы контента, такие как короткие видеоролики, удалили устаревшие и избыточные примеры и расширили рекомендации по рейтингу для форумов и обсуждений страницы.
Пока вдумчиво не читал - занимаюсь книгой. выкатим обновленный и улучшенный второй том SEO Монстр Next+ в четверг.
#DrMax #SEO #Google #book
Please open Telegram to view this post
VIEW IN TELEGRAM
Книга переработана, обновлена, дополнена.
Появилась новая 4 глава по мотивам телеконференций у Миши Шакина.
Вторая глава актуализирована для Screaming Frog SEO Spider
V. 19.4
Много всего нового и необычного в книге, включая постоянные рекомендации и пояснения практически каждого шага.
Полный список изменений вот тут.
Как видите - список дополнений и изменений просто колоссальный.
В ознаменовании выхода SEO Монстр NEXT+ том 2 и "Черной пятницы" с 23 по 30 ноября ценник на книгу порезан вдвое. Скидка 50%
Подробное описание смотрите на офф сайте.
Все продажи моих книг, исторически, осуществляет Анна Ященко. Поэтому не удивляйтесь, что при покупке перейдете на её сайт.
Кстати, можете прикупит 2 тома сразу - там тоже 50% скидка (с 23 по 30 ноября) на комплект (на который изначально была скидка).
#DrMax #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
И лежит - валяется уже час.
Наверняка это произошло из за попыток использования 4-й части книги SEO Монстр Next, т.2.
В сообщениях об ошибке ничего нет. Коллеги из забугорья подтверждают проблему.
Вот вам и обновления)))
А у вас какие наблюдения?
#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Google объявил, что прекращает работу инструмента ограничения скорости сканирования в поисковой консоли, удаление которого запланировано на 8 января 2024 года, сославшись на улучшения сканирования, которые по существу сделали его ненужным.
Инструмент ограничения скорости сканирования был представлен в поисковой консоли пятнадцать лет назад, в 2008 году. Целью этого инструмента было предоставить издателям возможность контролировать сканирование Googlebot, чтобы оно не перегружало сервер.
По данным Google, запросы на ограничение сканирования обычно вступают в силу примерно через день и остаются в силе в течение 90 дней.
В объявлении говорится, что алгоритмы сканирования достигли состояния, в котором робот Googlebot может автоматически определять, когда сервер достигает максимальной мощности, и предпринимать немедленные действия для замедления скорости сканирования.
Более того, Google заявил, что этот инструмент использовался редко, а когда он использовался, скорость сканирования обычно устанавливалась на самый низкий уровень.
В дальнейшем минимальная скорость сканирования по умолчанию будет установлена на более низкую скорость, аналогичную той, которую обычно запрашивают издатели.
#DrMax #GSC #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Итак, гуглоиды отрапортовали о завершении Core Update (ап ядра алгоритмов Гугла). Ап продлился 25 дней (с каждым разом всё дольше и дольше) и наверняка будет докатка.
Откройте GSC и посмотрите на свои ссылки. У меня запропало процентов 80 ссылающихся доменов (гео - бурж). В том числе мощные ссылки с самого Гугла ))) Никогда такого не было (было) и вот опять...
У вас как ситуация с ссылками?
А вообще крайне муторный ап, но пока явно рано анализировать его. К тому же он перекрывается всё еще продолжающимся Reviews Update.
Ну и жду докатки Core апдейта. Гугл, верни вывод ссылок в GSC!
#DrMax #Google #Update
Please open Telegram to view this post
VIEW IN TELEGRAM