Наш добрый товарищ Андрей Симагин, широко известный линейкой бесплатного SEO софта, выкатил новую полезность.
SiteAnalyzer SEO Tools - браузерное расширение для Chrome и Firefox, представляющее собой набор инструментов для анализа SEO-показателей сайта, технического аудита, анализа URL и исправления ошибок SEO-оптимизации. Основные возможности SiteAnalyzer SEO Tools таковы:
- Определение Яндекс ИКС
- Определение общего числа страниц сайта в индексе Яндекса и Google
- Проверка статуса индексации URL в Яндексе и Google
- Отображение содержимого тегов Title, Description, H1-H6
- Определение наличия «Robots.txt» и «Sitemap.xml»
- Учет правил «Robots.txt», мета-тега «Robots», заголовка «X-Robots-Tag»
- Учет REL «Nofollow», «Sponsored» и «UGC» для ссылок и URL
- Определение внутренних и внешних ссылок на странице
- Семантический анализ контента страницы
- Проверка скорости загрузки страниц
- Получение кодов ответа сервера (200, 3xx, 4xx, 5xx)
- Определение CMS сайта
- Получение даты регистрации и возраста домена
- Отображение всех изображений страницы и содержимого тега ALT
- Определение IP-адреса и страны сайта
Чем сможет помочь плагин SEO-специалисту?
- Проверка индексации страниц
- Анализ мета-тегов и контента страниц
- Поиск технических ошибок на сайте
Безопасность
- Расширение распространяется абсолютно бесплатно, не требует регистрации, не собирает и не отправляет куда-либо ваши персональные данные.
Протестировать расширение можно (и нужно) на офф страничке: https://site-analyzer.ru/soft/seo-extension/
Поскольку Андрей, не посторонний для многих товарищ, то неплохо было бы отправлять ему фидбеки по работе полезняшки. А ежели кто не совсем ленив - то отпишитесь на странице расширения в Chrome Web Store / Firefox.
#DrMax #SiteAnalyzer
Please open Telegram to view this post
VIEW IN TELEGRAM
Как вы знаете, была слита документация API Гугл поиска. Всего на гитхабе выложено что то около 2500 страниц документов. Гугел пока стоически молчит по этому поводу.
Посмотрел некоторые документы, например в частности о ссылочном. Ну что сказать - учитываются пара-тройка десятков различных ранжирующих факторов у каждой ссылки. PageRank там есть, как и околоссылочное окружение и десяток - другой иных факторов, включая размер шрифта ссылки ))))
В общем смотрите сами.
Думается будет интересно покопаться в исходниках.
И да, Мюллер и прочие - нам постоянно врали ))))
Многое то, о чем они говорили - опровергается слитыми документами.
Ну, думаю, скоро всё будет разобрано досконально.
Кстати, слита лишь малая часть документации)))) Не забывайте об этом.
#DrMax #SEO #Google #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Начинаю серию заметок о лживом менеджменте Гугла, опираясь на данные утечек и судебных преследований Гугла.
Итак.
Долгое время гугловцы в целом, а Мюллер в частности, утверждали, что никакой песочницы нет. Что ранжируются и новые сайты и застарелые аксакалы совершенно одинаково (не учитывая иных факторов ранжирования). Твит Мюллера прилагается.
Если заглянуть в материалы утечки, а именно в модуль PerDocData, то увидим там атрибут hostAge, о котором говориться: The earliest firstseen date of all pages in this host/domain. These data are used in twiddler to sandbox fresh spam in serving time.
Самая ранняя дата первого просмотра всех страниц на этом хосте/домене. Эти данные используются в twiddler для песочницы свежего спама по времени обслуживания.
Так выходит песочница есть на самом деле? Как она работает, сколько длиться и прочее - оптимизаторы и так знают ))) Но зачем было врать? Непонятно.
#DrMax #Google #Google_cheats #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Концепция траста (авторитета сайта) зародилась на заре поисковых систем. Если коротко, то траст - это мера оценки авторитетности сайта. Ничего общего с PageRank траст не имеет (хотя и зависит от последнего).
Ранее представители Google (мы знаем кто, но не будем говорить) заявляли, что Google вообще не измеряет и не учитывает авторитетность домена . Они заявили, что не принимают во внимание общее качество или авторитетность сайта (в целом) при ранжировании отдельных страниц. Однако слив показал, что как часть сжатых сигналов качества, которые хранятся отдельно для каждого документа, у Google есть функция, которую они вычисляют, под названием siteAuthority.
siteAuthority (type: integer(), default: nil) - site_authority: converted from quality_nsr.SiteAuthority, applied in Qstar.
Таким образом, траст сайта измеряется Гуглом. Опять же, мы точно не знаем, насколько это важно для ранжирования, но Google каким-то образом на это смотрит, оценивает, использует.
Так что можно опять бахвалиться трастовостью своих сайтов ))))
#DrMax #Google #Google_cheats #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Много лет подряд Гугл врал, что поведенческие сигналы никак не участвуют в ранжировании. Мол они излишне зашумленные и не могут достоверно служить фактором ранжирования.
Как выяснилось в ходе антимонопольного судебного разбирательства у Google есть некая система Navboost, основанная на количестве и качестве кликов, является одним из важных сигналов при ранжировании сайтов.
Если глянуть слив, то мы увидим, что Гугл оценивает качество кликов. У него есть badClicks, GoodClicks, LastLongestClicks и т.д.
Отсюда выводы - поведение пользователей крайне важно для ранжирования страниц, как бы это не отрицал Гугл.
См скрин )))
#DrMax #Google #Google_cheats #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
После медик апдейта и повального увлечения YMYL и EEAT стало достаточно "модным" прописывать авторов контента и оных авторов пробовать"раскручивать", нарабатывая для них опыт и авторитет (в соответствии с QRG). Но последний полгода-год, энтузиазм в этом плане несколько притих, стали слышны заявления отдельных оптимизаторов, что Гугл авторство никак не учитывает, никак на ранжирование это не влияет.
Для понимания, необходимо различать сигналы ранжирования и факторы ранжирования. Вторые зависят от первых. Сигналы прямо не влияют на ранжирование, но обуславливают значимость факторов ранжирования.
Авторство - это сигнал ранжирования.
В сливе видно, как Гугел сохраняет авторов в виде текстовой строки или как пытается вычленить авторов из объектов на странице.
В сочетании с подробным отображением сущностей и вложений, представленным в сливе, становится совершенно ясно, что существует некоторая комплексная оценка авторов.
Отсюда вывод - совершенствуйте микроразметку (структурированные данные), прописывайте авторов максимально полно.
#DrMax #SEO #Google #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Как нам говорили гугловцы - размер контента не имеет значения. Он ранжируется абсолютно по одним и тем же правилам, что короткая статья, что длинная.
Это не так.
Большие документы Гугл обрезает. Он рассчитывает количество токенов и соотношение общего количества слов в тексте к количеству уникальных токенов. В документах указано, что существует максимальное количество токенов, которые можно рассматривать для документа, особенно в системе Mustang. Часть документов урезается (см скрин).
Мустанг - это основная подсистема подсчета рейтингов, ранжирования и обслуживания ядра алгоритмов Гугла.
Вы можете проверить сами - взять предложение из начала контента и поискать его в Гугле. А потом повторить то же самое, взяв предложение из конца контента. Если оный бестолковый, то найден он не будет (в отличии от первого).
Отсюда вывод- всё самое важное размещаем вверху контента, до линии сгиба экрана (включая внешние ссылки).
Второй момент, если контент излишне короткий, то включается дополнительная оценка его оригинальности - OriginalContentScore. При этом кортокий контент не обязательно будет Thin - контентом (бестолковым, ненужным). При этом существует показатель наполнения ключевыми словами (переспам).
По этому пункту я после мартовского апа, еще до слива, провел эксперименты. На некоторые страницы был вкрячен сухой, лаконичный контент, урезанный по максимуму, но полностью раскрывающий суть. Можно сравнить с краткой инструкцией по применению. При этом ключи практически не использовались ( некоторые однократно). В итоге некоторая часть таких страниц просто выстрелила как из пушки, победив маститых конкурентов с их огромными портянками.
Вот такие дела.
#DrMax #Google #Google_cheats #sliv2024
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Есть у меня один молодой проект - месяца 2 ему всего, потому Аналитикс крутится в реалтайме и постоянно отслеживаются тенденции разнообразные. Проект буржуинский.
Так вот, на проект ежедневно добавляется 20-30 новых позиций (пусть будет страниц). За час после добавления они переиндексируются (траста почти нет, потому так долго) а вот спустя 3-4 часа после индекса наблюдается замечательное действо от Гугла.
На несколько минут гугл ставит в ТОП новую позицию (страницу) и в аналитиксе наблюдается значительный всплеск переходов на эту страницу (причем регионы постоянно разные). Буквально через несколько минут, наплыв посетителей стихает - видимо страница была убрана из выдачи.
Скорей всего так Гугл пытается понять степень удовлетворенности посетителя - грубо говоря, замеряет поведенческое. И где то на следующий день он начинает уже более-менее ранжировать страницу.
Но поскольку траста особо нет - то ранжурует пока только отдельные позиции, видимо показавшие наилучший результат в поведении и / или при наличии минимальной конкуренции по позиции.
Если заглянуть в слив документов от Гугла - то мы можем найти там упоминание, что для новых страниц, пока не расcчитан PR, применяется некое общее значение PR на основе присвоенной именно морде. То есть все новые страницы получают некий буст, не взирая ни на уровень вложенности, ни на кол-во ссылок на эту новую страницу. Возможно, это как то коррелирует с алгоритмом "свежести".
Ну вот такие "эксперименты" я наблюдаю ежедневно над новыми страницами.
Довольно интересно и поучительно.
#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Забыл добавить. Исходя из таких наблюдений - никогда не публикуйте неготовую, неоконченную страницу. мол, сейчас выложу, а завтра доделаю.
Вылизывайте страницу, проверяйте контент и тогда публикуйте. Тем самым есть некий шанс (отличный от нуля) молниеносно залететь на хорошие места в выдаче. Ну при условии, что посетители будут довольны.
PS
в сливе гугловском очень много еще чего осталось интересного.
Хватит ни на один десяток постов.
#Drmax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Вчера начался спам апдейт у Гугла. Развертывание займет неделю. Обратите внимание на относительно обновленный документ по политике спама Гугла. Кто давно его не читал - удивитесь. Например, отправка автоматических запросов в Google - нарушение политики спама. Т.е., например, если будете снимать позиции каким ни будь Серпстатом и им подобным софтом - можете быть наказаны в ранжировании (теоретически).
Кстати, из всех клиентских сайтов, где я пытался реанимировать трафик, более половины пострадали именно из за спам апдейтов, а не из за HCU. Иногда комплексно повлиял и HCU и октябрьский 2023 и мартовский 2024 спам апдейт.
Так что не относитесь к этому апдейту наплевательски. Только в путь спам алгоритмы Гугла режут ранжирование.
Кстати, не успели гугловцы запустить спам апдейт, как тут же сломали индексирование. Вчера весь день оно не работало.
Вот такие дела.
Please open Telegram to view this post
VIEW IN TELEGRAM
Аккурат 15 июля состоится новая телеконференция у Миши, где мы затронем слив Гугловской документации + слив на судебных антимонопольных слушаниях. Будет довольно интересно. Выше в ленте публиковал отдельные измышления по сливам. На телеконференции будет больше, шире и куда полезней.
В комментариях накидывайте вопросы по тематике.
Кроме того, есть возможность зачитать доклад о применяемых лично мной методиках восстановления после HCU / спам апдейтов / мартовского апа, на обезличенных примерах как родственных проектов, так и заказчиков услуг "реанимации трафика". Но это пока под большим вопросом.
Также приглашаю всевозможных товарищей спонсоров (организации), поучаствовать посильно в данном мероприятии. Но тут обращайтесь непосредственно к Мише.
О времени и месте проведения телеконференции уведомлю позже. Пока заготавливайте вопросы.
#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
15 июля в 15 по Москве (сегодня) смотрите нашу телеконференцию.
Затронем вопросы расхождения между декларациями Гугла и данными слива.
Немного расскажу как использую эти данные слива для продвижения. Если останется время расскажу свои результаты оценки/анализа мартовского апа и способов выхода из под него.
📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=lFRo4eWpjjw
#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
Всем, привет! Возвращаюсь к вам после полуторамесячного отсутствия.
Случились непредвиденные обстоятельства.
Сразу о важном:
1. Задержал пару заказов, прошу прощения, отдам их в кратчайшие сроки.
2. В ближайшие пару недель, пожалуйста не пишите о новых заказах. Нет времени сейчас на них.
3. В контактах: почта, телеграм и т.д. скопились сотни (!!!) вопросов/сообщений. Постараюсь ответить на всё в течении ближайших 2-3 дней.
4. Сразу всем говорю спасибо за поздравления с прошедшим ДР. Отпишу чуть позже лично каждому.
Теперь о канале. Мельком глянул результаты апа (как спам , так и закончившегося вчера Core). Результаты интересные, распишу что делал и что получилось.
Ну, собственно пока всё.
#DrMax
Please open Telegram to view this post
VIEW IN TELEGRAM
Восстановление после HCU и мартовского апа
Я рассказывал уже, что попробовал перенести зафильтрованный сайт на новый домен. Собственно результаты на скрине.
Действительно , гугл наказал не за некачественный контент, не за поведенческое, а за то, что поведясь на красивое имя, не просмотрел историю домена. Вернее я видел, что лет 5 назад домен был перехвачен, потом брошен спустя год. Но кто мог подумать, что гугл такой злопамятный.
Итак, перенес на новый домен без истории, поставил 301, ничего более не делал и вот вам результат (на скрине). Теперь со спокойной душой можно его развивать (после переноса никак и ничего с ним не делал).
Выводы: Будьте внимательны при подборе домена. Проверяйте историю. Не юзайте дропы для новых проектов - крайне опасно!
#DrMax #CoreUp
Я рассказывал уже, что попробовал перенести зафильтрованный сайт на новый домен. Собственно результаты на скрине.
Действительно , гугл наказал не за некачественный контент, не за поведенческое, а за то, что поведясь на красивое имя, не просмотрел историю домена. Вернее я видел, что лет 5 назад домен был перехвачен, потом брошен спустя год. Но кто мог подумать, что гугл такой злопамятный.
Итак, перенес на новый домен без истории, поставил 301, ничего более не делал и вот вам результат (на скрине). Теперь со спокойной душой можно его развивать (после переноса никак и ничего с ним не делал).
Выводы: Будьте внимательны при подборе домена. Проверяйте историю. Не юзайте дропы для новых проектов - крайне опасно!
#DrMax #CoreUp
Второй домен решили восстановить заменой контента. Он неудачно перенес HCU, и в мартовский ап был благополучно зафильтрован.
Собственно поменяли, оптимизировали контент, но результата нет. Говорят что августовский Core Up кого то там "отпустил" и восстановил. Но не в этом случае.
Причина, наверняка, в проблемном красивом домене.
Собственно, теперь предстоит перенос на новый домен. С огромной долей вероятности это вернет сайт в строй.
Выводы теже
#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
Собственно после окончания мартовского обновления, вырезавшего половину сайтов - конкурентов в моей тематике (бурж), в том числе и достаточно трастовых (много ссылочного), был заложен новый проект.
Поначитавшись сливов Гугла и проведя анализ судебных слушаний пришли к мнению, что нужно первым делом прокачать бренд нового проекта.
К слову, проект бурж, конкуренция сверхвысокая. Проект юзает движок "провайдера", который предоставляет на свои "товары" минимум описания. По сути получаем сайт с практически пустыми карточками.
По рассказам оного провайдера, у него в прошлом году было уже более 1000 партнеров, то есть конкуренция уже ясна. А поскольку товары - совсем не эксклюзив, то конкуренция заоблачная.
Понаблюдав за развитием оного сегмента рынка, увидел, как в HCU вылетели сотни прокачанных сайтов - конкурентов, в март-апдейт вылетели еще сотни подобных сайтов, не смотря на ссылочное.
Итак, стартовали в мае, весь июнь строили ссылки на морду с бренд анкорами (желтые страницы, фри блоги, профили микрософта и адобе и т.д и т.п). Всего было построено более 1000 ссылок, из них в GSC проникло штук 400.
Параллельно неспешно делали контент. Сейчас готово только 6-7% страниц.
Первая стрелка показывает рост после прокачки бренда
Вторая стрелка - рост после августовского Core UP
Что сказать, стратегия на развитие узнаваемости привела к хорошему результату. Сейчас достаточно много запросов в гугле по бренду.
Теперь можно вкладываться по полной и в контент и в анкорное ссылочное.
Выводы: прокачка бренда рулит.
#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
Собственно говоря, ап получился недоделанный. И по времени они раньше его закончили и мусора полно в выдаче (как всегда после апов). Но не это интересно.
Вот смотрите, в результате августовского апа вылетела кучка страниц. Попали из проиндексированных в "сканировано - но не индексировано". То есть Гугл недоволен качеством контента (и/или отсутствием ссылочного веса на страницах, в результате, например, слишком глубокого расположения).
Попробовал руками в GSC подать такие страницы на переиндекс. Гугл радостно их скушал и проиндексил за пару минут. Таким образом, у Гугла наблюдается рассинхрон в той части алгоритма, которая отвечает за выкидывание страниц из индекса (определение плохого качества страниц) и той которая отвечает за определение качества страниц при индексации.
Ранее (до апа) вы могли сколько угодно раз переподавать вылетевшие страницы на переиндекс и гугл с 90% вероятностью отказался бы их индексировать. И это правильно. Бнз правки контента нечего таким страницам делать в индексе.
Отсюда вывод, что ядро алгоритмов будут подкручивать и очень скоро будет новый ап.
И второй вывод, раз уж гугл так расслабился, то можно ловко и быстро запихать через API все выпавшие страницы опять в индекс.
Более подробно проанализирую августовский ап позже, когда разгребусь с делами.
#DrMax #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM