Telegram Web Link
Куда там генераторам регулярных выражений, о которых писал недавно. Теперь код (на нескольких языках) можно генерировать, задавая произвольное описание нужной функции. Причем на русском. Можно и голосом.

Хех, страшно представить до чего кодерство дошло.

#DrMax
🔥27👏4👍1
Яндекс.Вебмастер в прошлую субботу 09.07.2022, зарелизил новые правила делегирования прав на сайт, о чём предварительно и активно алертил заранее. Письма предупреждения появлялись за один-два месяца. Итак:
- Теперь права могут выдавать только те пользователи, которые подтвердили их через файл/мета-тег/DNS-запись (раньше могли выдавать и делегированные тоже);
- Соответственно, отвалились все права, выданные пользователями, которые получали их с помощью делегирования;
Всё, как в Search Console у Гугла. :) (Подсмотрел и внедрил - 100% оптимизация :-) )
Кто забыл чекнуть или много сайтов - скорее на проверку!

#Яндексфишки #Яндекс #ЯндексВебмастер #SEOновости #МаксПивоваровseo
👍8😁31
Бурчание о SEO

Разговаривал тут давеча с коллегой старым, еще из тех времен, чуть ли не первым оптимизатором. Так вот он высказал интересную фразу, что нынешнее поколение оптимизаторов пытается засунуть в круглое отверстие квадратную палку (в оригинале несколько эффективней сказано). От чего ПС охреневают и не могут понять что от них хотят и что делать с сайтом.

Он имел в виду интент контента. Что не всякий контент является тем, что хочет видеть посетитель по данному запросу. И процесс "регулировки" интента в правильную сторону является сейчас чуть ли не главным. Вообще "регулировка" интента как термин - мне крайне понравился.

Далее о пресловутой "кнопке бабло", нажав на которую польются тонны трафика и килобаксов. Несомненно такие кнопки есть. Например, если вы заполучите избранные фрагменты в Гугле, то резко увеличите объем трафика. А для этого опять нужно работать с интентом, составлять списки, включать ключи и вопросы в заголовки, делать микроразметку. Что то уже это и не кнопка, а кропотливый и тщательный труд выходит ))))

Есть и иные кнопки бабло и их много. При этом миллионы таких "кнопок", работающих в прошлом уже пофиксены, но и десятки новых откроют пытливые умы уже в недалеком будущем.

Однако при этом оптимизаторы забывают о простых, примитивных вещах, которые сами по себе могут резко увеличить трафик и без пресловутой кнопки "бабло".

например:
- оптимизация тайтлов, добавление ключей в них
- разбивка контента на части, добавление структуры, заголовков с ключами
- внедрение изображение и примитивное прописывание альтов
- добавление выводов к каждой статье / странице
ну и многое другое, что можно и нужно проделывать на странице, о чём вы прекрасно знаете. Главное - не лениться.

Из опыта оптимизации собственных сайтов я давным - давно понял, чем больше я трудов вкладываю в страницу сайта, чем чаще её правлю, обновляю, оптимизирую под посетителей - тем больше выхлопа я получаю.

В конце концов, максимально я заработал на нескольких группах странниц своего сайта, которые правил и оптимизировал чуть ли не ежедневно.

Вспоминается один наш коллега, который начинал в стародавние времена, собирая десятками сайты еще на "народе" и добиваясь сотни тысяч посетителей в день на событийном трафике в эпоху диалапов/адсл. Что само по себе было удивительно.

Любимой его поговоркой по отношению к ПС было "все равно я заставлю тебя налить мне трафика" и он ежедневно корпел над своими монстрами. Я в курсе нескольких его современных проектов, очень сложных и необычных и смотрю, как он из месяца в месяц, из года в год улучшает их ранжирование и наращивает постепенно трафик.

И так мы бурчали с коллегой весьма долго. Основной вывод таков, что нужно вкладывать усилия, не забывать о мелочах и постоянно отслеживать, чего же в действительности хотят посетители сайтов. И будет счастье )))

#DrMax #SEO
👍50🔥73👏2
Сколько времени занимает технический аудит сайта?

Вы можете самостоятельно провести быстрый технический аудит в течение нескольких часов, но, скорее всего, не сможете выявить или проанализировать наиболее сложные технические проблемы.

При проведении технического аудита необходимо использовать различные инструменты и следовать собственному чек-листу, вопросы которого нужно проверять, а не слепо следовать рекомендациям инструментов сканирования. У меня этот чек лист превышает 1000 пунктов.

Вам необходим опыт и знания, чтобы понять, действительно ли конкретная проблема, выявленная инструментом (например лягушкой), является таковой.

Основной набор инструментов для проведения технического аудита включает: Semrush, Screaming Frog, Google Search Console и другие. Но, зачастую, приходится лазать в голом коде и глазками просматривать, что там твориться. Ни один инструмент не дает даже 50% картины технического состояния сайта.

Технический аудит отличается от полного SEO-аудита тем, что он сосредоточен только на технических составляющих SEO, таких как работоспособность сайта, сканирование, индексирование, проверка sitemaps, robots.txt, быстродействия, проверка наличия дублей, Thin Content, первичный анализ заголовков (и иных мета данных) и их оптимизации, проверка хрефлангов, поиск иных проблем мешающих сайту достойно ранжироваться и др.

SEO-аудит часто проверяет другие элементы SEO, такие как мета-заголовок, описание, структуру страниц, текущую видимость сайта, качество и многое другое.

Приличный технический SEO-аудит в большинстве случаев занимает от 4 рабочих дней (у меня). Конечно, это во многом зависит от масштаба и сложности сайта. Например некоторые сайты только сканировать лягушкой приходиться сутки - полторы.

Насчет сканирования. Необходимо его выполнять неоднократно. Как минимум дважды, для десктопной и мобильной версии сайта. Наборы ошибок порой значительно для них отличаются. Кроме того, крайне желательно сканирование проводить с полным реендерингом страниц (включенными Java скриптами), чтобы получить картину, близкую к тому что видит Google.

Кроме того, на одном из проходов сканирования лягушкой (лучше отдельном), желательно выпарсить весь кэш Гугла, чтобы понять, что Гугл знает о сайте. Порой на мелком сайте бывают кэши, содержащие в десятки раз большую информацию, при анализе которой становится понятно, почему тот или иной сайт не ранжируется в должной мере. Чтобы включить эту возможность, пройдите в лягушке в Configuration - API Access - Google Search Console - вкладка Search Analytics и включите крыжик Crawl New Urls Discovered in GSC. Эту информацию лучше всего собирать на отдельном проходе, ибо можете подзапутаться с тем, что есть на сайте.

И еще одна крайне полезная фишка. Как известно, Google прикрутил API к GSC и теперь лягушкой можно выдирать дополнительную информацию по отдельным страницам сайта. Это лучше совместить с обычным проходом по мобильной версии сайта. Находится эта возможность на третьей вкладке настройки API GSC - URL Inspection. Там включаем обе имеющиеся галочки. Теперь вы можете понять почему на тех или иных страницах нет трафика, как Гугл относится к этой странице и т.д. и т.п.

Очень хорошо данный анализ совмещать с анализом падения/роста трафика, выпарсив данные из Гугл Аналитикса. Тогда становиться более понятной динамика отношения Гугла к отдельным страницам и при проведении элементарного сплит-анализа, становится ясно, почему упал/вырос трафик на отдельных страницах.

Единственным недостатком является бесплатная ежедневная квота в 2000 URL. Если нужно больше - придется либо докупать, либо проводить анализ сайта по частям (по отдельным разделам).

Вывод: полноценный технический аудит - это довольно трудно и долго (если качественно и хотите получить результат ввиде роста качества сайта и, соответственно, трафика). При этом надо обладать недюжим опытом, чтобы по отдельным признакам вычленить матёрую проблему (и не одну), которая мешает ранжироваться сайту.

Может опять книжку по техаудиту написать? Там фишек интересных - масса.

#DrMax #SEO #техаудит
👍66🔥71👏1🤯1
🚑 Как я не люблю Битрикс

Вот сколько проектов мне не попадало в "умелые" руки на проверку - везде есть проблемы с ним. И ладно бы проблемы были с недалекими SEO - специалистами, которые что то там наворочали. Нет, везде проблемы с движком.

За последний год уже четвертый раз наблюдаю, как движок рекурсивно генерачит тонны страниц - дублей. Такое ощущение, что он вообще не знает что такое 404 страницы и вместо того, чтобы на произвольный адрес выдавать ошибку - делает открытую для индекса страницу.

Вот у кого есть сайтик на битриксе - потестите. Возьмите какую - нибудь категорию сайта и пару раз добавьте её в URL

site.com/category/category

вылезет 404 ошибка? а если 3 раза?

site.com/category/category/category

а если 100500 раз? и достаточно любому глюку в шаблоне, как начинаются плодиться тысячи/миллионы ненужных страниц. И удивляться, куда трафик делся тут не приходиться.

И это только одна из сотен глюков/фич этой злосчастной CMS, которую нужно проверять при аудите. Там таких "особенностей" больше всего.

Ну а меньше всего проблем с сайтами на WP (при правильном шаблоне). Там некая "защита от дурака" имеется и особо накосячить в коде сложно.

А тем временем, Гугл начал новый апдейт своего ядра алгоритмов. Посмотрим что выйдет их этого.

#DrMax #SEO #Bitrix #техаудит
👍37👏1😁1😱1
👍 Вышел SiteAnalyzer 2.8

Наш товарищ Андрей Симагин & Co выкатил новую версию SiteAnalyzer. Кто не знает - это бесплатный конкурент Screaming Frog SEO Spider (ну и иных поделок).

В новой версии прикрутил несколько модулей:
✔️Проверка WHOIS
✔️Проверка ответа сервера
✔️Поиск поддоменов
✔️CMS-чекер
✔️Семантический анализ текста
✔️Анализ релевантности текста

Чем хорош SiteAnalyzer (ну помимо бесплатности) - можно обратиться к Андрею и попросить его прикрутить любую фишку, какой вам не хватает в подобного рода программах. И он прикрутит рано или поздно (я год просил сделать одну штучку))), но сделал в конце концов).

В общем пользуйтесь. Полный список того что было обновлено - смотрите у него на сайте.

#DrMax #SiteAnalyzer
👍38🔥4👏21
🔥 Важно: Google обновил QRG (руководства Google по оценке качества поиска)

В новом руководстве изменилось само понятие YMYL и EAT. Теперь Google определяет YMYL-страницы по их способности причинять вред. Темы, представляющие «высокий риск причинения вреда», могут существенно повлиять на «здоровье, финансовую стабильность или безопасность людей, благополучие или благополучие общества».

Затем Google определяет , кому может быть нанесен вред YMYL-контентом, включая человека, просматривающего контент, других людей, затронутых этим человеком, или группы людей или общество в целом. Потенциально это может относиться к насильственному, экстремистскому или террористическому контенту.

Вместо того, чтобы перечислять отдельные категории, которые могут считаться YMYL, как в предыдущих версиях рекомендаций, Google теперь просит оценщиков рассматривать YMYL-контент с точки зрения четырех типов вреда, который контент YMYL может причинить отдельным лицам или обществу.

Теперь Google утверждает, что многие или большинство тем не являются YMYL, потому что они не могут причинить вред.

Google прописали, что уровень EAT, требуемый страницей, зависит от цели и темы страницы. Если на странице обсуждаются темы YMYL (и потенциально может быть нанесен вред пользователю или другим лицам), EAT имеет решающее значение.

Даже если у веб-сайта положительная репутация, при наличии значительного риска причинения вреда страница должна быть оценена как низкокачественная.

Google также опубликовал новый файл , описывающий, как работают рекомендации по оценке качества поиска.

Google предоставил информацию о том, кто оценивает контент, где они находятся и как работает процесс оценки.

В совокупности с обновлением ядра алгоритмов, нас, возможно, ждет опять массовое падение трафика на YMYL сайтах. Статистика говорит именно так.

В общем надо посвятить пару дней вдумчивому чтению нового руководства.

#DrMax #SEO #QRG
🔥15🤯5👍3🤔2
hsw-sqrg-ru.pdf
644.5 KB
Перевод на русский документа от Google о поисковой системе, о том как работают асессоры и какие процедуры они выполняют.

#DrMax #Google #QRG #SearchQualityRaterGuidelines
👍20🔥7
Если вам нужно обойти ограничение в GSC (Google Search Console) на 1000 строк, показываемых в консоли, то можно использовать API GSC и вытягивать нужные данные. Ну а если знаний и умений в этой области нет - используйте Search Console connector и вытягивайте нужные данные выполнив пять простых шагов:
1. Подключитесь к своей учетной записи Google Search Console.
2. Выберите параметры
3. Выберите типы поиска и диапазоны дат
4. Используйте раздел фильтрации
5. Просмотрите результаты

Есть экспорт в CSV - собственно всё что нужно для дальнейшего анализа в Excel.

Описание и инструкция вот тут.

Пользуйтесь на здоровье )))))

#DrMax #SEO #GSC
🔥24👍9
Коварный мета - noindex

Это старая история и может быть я её рассказывал, но это интересно и поучительно.

Итак, как то я отвечал на комментарии товарищей посетителей на drmax.su и привел в комментариях кусок кода, который содержал в себе что то типа:

<meta name="googlebot" content="noindex">

Отписывал комментарии я из админки, поэтому просто опубликовал его и ушел, посвистывая, пить кофе.

Спустя какое то время заметил, что эта важная страница выпала из индекса.

Начал проверять страницу - всё в порядке, ничего криминального нет, а страница, тем не менее, не проиндексирована. Что характерно, вордпрессовские комментарии не выводили на страницу кусок моего измышления, где был прописан

<meta name="googlebot" content="noindex">

т.е. выкусили этот noindex из приведенного кода.

Из за того, что символы тега не были экранированы (я не использовал визуальный редактор), мой комментарий оказался чисто HTML и заблокировал индексирование страницы.

А нужно было писать вот так (или использовать визуальный редактор):

&lt;meta name="googlebot" content="noindex"&gt;


Что интересно, Гугл декларирует размещение noindex исключительно в <head> (ну или в HTTP заголовке). А мой noindex оказался в комментариях, которые явно не находятся в <head>. Т.Е. размещение мета -noindex срабатывает в любой части HTML-документа (что противоречит документации Гугла).

Кстати, поиск таких казусов тоже является частью технического аудита сайта.

И вредный совет - хотите напакостить товарищу - попробуйте прописать в комментариях у них приведенную выше конструкцию.

Вывод таков: не всё что пишет Гугл в своих документациях - верно и правильно работает. Нужно критически относиться и к официальной документации и к тому что говорит говорящая голова Джон Мюллер )))

Будьте здоровы!

P.S. нужен технический аудит вашего сайта - обращайтесь.

#DrMax #техаудит #Google
🔥24👍15😁2
Бурчание про SEO софт

Друзья и коллеги, я сам программист (бывший) и писал на десятках разных языках, начиная от борландовского паскаля, си, си ++ и заканчивая питонами. Бейсик и ассемблер я еще на спектруме освоил ))) А книжка по Forth до сих пор на полке стоит - никак в макулатуру не сдам. Поэтому я прекрасно понимаю, что какой бы не был софт, работать он может только в узких пределах, а человеческое мЫшленье завсегда всё может поломать.

Это я к чему. Возьмем к примеру ту же самую лягушку (Screaming Frog SEO Spider). Вот третьего дня начал я гонять один сайт. Лягушка мне говорит, что на страницах канониколов нет. При этом, точно знаю, что оные внедрялись на сайт. Посмотрел исходники - оказалось они написаны с некоторой ошибкой в синтаксисе. Лягушка скушать такое не смогла.

Крайне рекомендую не доверять на 100% результатам анализа всяческих программ. Лучше всего открывайте исходник и построчно анализируйте страницы. Это завсегда понадёжней будет.

И в качестве бонуса некого - проверьте, сверстан ли ваш шаблон в соответствие с семантической версткой. Тут товарищи ставили опыты и внедрение (правильное) HTML5- тегов, особенно с ARIA атрибутами / ролями привело к росту трафика. Об этом я в обновлении книжки пишу. А рост был около 30%.

#DrMax #SEO
👍34🤔5🔥2
Яндекс выложил исследование на основе запросов и отработки гео карточки достопримечательностей.

Казалось бы, при чём тут seo?

1. Будет интересно тем, кто двигает туризм.
2. Будет интересно тем, кто льёт трафик на билеты.
3. Статистика - обмазаться данными и цифрами.


Изучайте, смотрите, почему ваш проект ещё не самый-самый по запросу "Кудыкина гора". 😄
На заметку вебмастерам, в поисковых системах влияние Local Seo порой даёт больше profit, чем linkbuilding стратегии.
Пользователь - ленив и не будет думать долго над поиском.
Карточки организаций, услуг, фирм, магазинов и т.д. занимают бесплатную позицию как на Яндекс.Картах, так и на Google Maps.

Всё в ваших руках!

Да пребудет с вами трафик, топ и конверсии!

https://yandex.ru/company/researches/2022/attractions

#Яндекс #Яндексфишки #SEO
👍8
🚀 Техника продвижения по запросам с нулевым объемом поиска.

Это одна из разновидностей SEO стратегий. Именно так можно легко и очень быстро занять место в ТОП выдачи Google по ключевым словам с низкой конкуренцией, которые редко ищут, или по длинным ключевым запросам (например, практически целым предложениям из вашего контента).

Стратегия хороша для использования молодыми проектами. Ведь ключевые слова с длинным хвостом "нулевого" объема поиска, при правильном подборе, могут относительно быстро вывести ваш сайт на первую страницу органической выдачи Google.

Наиболее хорошо зарекомендовала себя стратегия, нацеленная на продвижение ключей с вопросами с длинным хвостом, которые имеют небольшой объем поиска или не имеют его вовсе.

На самом деле ключевые слова с "нулевым объемом" поиска все же обладают некоторым ежемесячным объемом просмотра в выдаче и некоторым трафиком. Если вы правильно подберете такие запросы, ваша страница будет ранжироваться по этому конкретному ключевому слову, а самое главное - по его бесчисленным вариациям, что может принести достаточно трафика на сайт.

Еще раз. Такие запросы - вопросы, потянут за собой в ТОП многочисленные родственные НЧ запросы, многие из которых даже не выдумаешь самостоятельно, но на которые так богат причудливый человеческий мозг пользователей.

Подбирать запросы такого плана очень просто - берем вопросительные местоимения или наречия типа: почему, отчего, как, зачем и пр. и добавляем к нему вч запрос и смотрим эту комбинацию в любом SEO инструменте, хоть в Буквариксе. Далее импортируем результаты, сортируем в Excel по частоте поиска и подбираем ключи.

Важно понимать, что независимо от того, насколько ключевое слово является неконкурентным, если ваша страница не отвечает этому запросу (не соответствует поисковому намерению запроса), ранжироваться вы не будете.

Вот почему, выбирая ключевые слова, всегда учитывайте их поисковое намерение и делайте все возможное, чтобы полностью ответить на запрос посетителей.

Методами продвижения как всегда является создание контента, отвечающие на выбранные запросы-вопросы, ссылочное, с анкорами близкими к запросам - вопросам и перелинковка.

#DrMax #SEO #Google
👍17🤔4🔥1😱1
🚑 Чёрный юмор в QRG

Друзья, я как и докладывал, сейчас обновляю книгу SEO Монстр Next в соответствии с последним QRG (руководство Google по оценке качества поиска).

Дошел до таблицы, ну той в которой примеры что является YMYL страницами, что не является YMYL, а что толи является - толи не является (на усмотрение асессоров),

И в одном примере про типичный YMYL (12 страница) вычитал вот такое:
A tide pod challenge post
Explanation : This harmful
social media challenge was
responsible for deaths.

Я долго не мог понять, что это за такой челендж "tide pod" и так и эдак прикидывал. Ну про обливание холодной водой помню, еще какие то странные и дикие челенджы слышал, но "tide pod" - ума не дам что такое.

Полез смотреть и что бы вы думали - эти психи замутили челендж по поеданию капсул для стиралки со стиральным порошком, а "tide pod" - самоназвание компании, которая выпускает эти капсулы.

Мир сошел с ума.

Кроме того, отныне такая информация - типичный YMYL. Следовательно теперь не скинешь на то, что это UGC если в комментариях/форумах/соцсетях какие нибудь психи пропишут про что то подобное. Огребет сайт в полную меру.

А составители QRG - товарищи с юмором. Причем чёрным. Они там еще про осуждение негров (вернее расовых групп) чуть выше написали. Мож так и надо )))

Не ешьте стиральный порошок. Уж лучше кушайте зубную пасту - она безвредней и вкусней ))))

Будьте здоровы.

#DrMax #QRG #Google
😁13🔥12🤯3👍1
Пока у нас отпуска, лето, сезон уничтожения арбузов на скорость - Яндекс не дремлет.
Зарелизили новый пендаль из топа, вангую появление нового алгоритма к осени.

За что прилетает?

Если у вас существуют оптимизированные страницы под навигационные запросы популярных сайтов, услуг (бизнесов) или брендов.

Как выглядит?

Пессимизация позиций проекта и вылет из топа близкого к первым страницам.

Что делать?

Не звать М. Сливинского. 😂 Михаил всё равно не ответит. (Шутка)
Пока непонятно за что конкретно маркируют - есть теория, что общий и массовый технический сбой. Любят поисковики выкатить в prod и так зарелилизить, что у всех тахикардия и предынфаркт. 🤷‍♂️
https://yandex.ru/support/webmaster/threats/similar.html

#Яндекс #Яндексфишки #SEO #МаксП
👍14🤔2
🏴‍☠️ Плотность ключевых слов, как фактор ранжирования

Поначитавшись устарелых руководств по продвижению, некоторые товарищи до сих пор оперируют понятием "плотность ключевых слов". Не далее, чем третьего дня, когда я присоветовал одному товарищу добавить в контент страниц несколько новых разделов, опираясь на ключевые слова, по которым ранжируется страница на 10-15 местах (взятых из GSC), как раз возник вопрос про "плотность ключевых слов".

Если мы прислушаемся к великому и непогрешимому Джону Мюллеру, то он на протяжении последних нескольких лет утверждает, что плотность ключевых слов не является фактором ранжирования. Последний раз такой вопрос возник в канун нового 2022 года. И опять Мюллер высказал свое категорически резкое "нет".

А теперь интересное.

Кроме факторов ранжирования, которые выталкивают страницу вверх, поближе к ТОПам, в ядро алгоритмов Google встроены и то, что мы ранее называли "фильтрами". И данные фильтры ведут к пессимизации контента, не позволяя им достигать вершин выдачи.

Так вот, я по прежнему убежден, что лютый переспам ключами ведет к срабатыванию встроенных в ядро алгоритмов Гугла фильтров. И что не стоит пихать один и тот же ключ везде, где ни попадя. Следует разбавлять ключи, использовать синонимы, близкородственные ключевые слова, ну и пресловутые LSI.

Итак, плотность ключевых слов не является фактором ранжирования, но бездумный переспам может затруднить достижения ТОПов.

Собственно буду теперь сюда ссылаться, когда/если меня еще раз про плотность ключей спросят )))

Хорошего вам дня!

#DrMax #SEO #Google #KeywordDensity
👍27🔥3
📶 Как понять, что у сайта есть проблемы с качеством

В GSC в разделе "Покрытие" есть один замечательный отчет "Обнаружена, не проиндексирована". Если заглянуть в прилагаемый пункт помощи к этому меню, то увидим, что:

"Это сообщение означает, что мы нашли страницу, но пока не добавили ее в индекс Google. Обычно это объясняется тем, что роботу Google не удалось просканировать сайт, поскольку это могло привести к чрезмерной загрузке ресурса, и сканирование было перенесено на более поздний срок. Именно поэтому в отчете не указывается дата последнего сканирования."

Однако, в некоторых случаях (достаточно часто), это означает, что у сайта в целом есть проблемы с качеством и пора опять перечитывать QRG.

Вы можете взять любой URL из этого списка, удалить страницу и заново переопубликовать контент, но уже с новым URL. Достаточно часто тот же самый контент на новом URL зайдет в индекс. Однако, при этом, также часто, уже проиндексированный ранее контент по произвольному URL выпадет из индексации.

По словам представителей Google, это может быть связано с тем, что ваши страницы находятся на пороге между достаточно качественными, чтобы попасть в индекс Google, и недостаточно качественными, чтобы попасть в индекс Google.

Есть интересная ветка обсуждения этой проблемы в Твиттере, с участием грандиозного и повергающего в трепет Джона Мюллера.

На вопрос, может ли помочь перепубликация контента по новому URL, упомянутый Джон ответил:

"Да, такое может быть. Но может случиться и так, что через неделю он снова выпадет, или выпадет другой URL. Если вы стоите на грани индексации, колебания будут всегда. В основном это означает, что вам нужно убедить Google, что стоит индексировать больше."

На вопрос, как же убедить Гугл в том, что страницы стоит проиндексировать (какого ... ещё нужно Гуглу), Мюллер разразился язвительным комментарием:

"Великолепия.
Больше удивительного.
Все виды крутизны.
И добавьте еще больше крутости
[контенту/сайту]."

В целом, наличие значительного числа страниц в секции "Обнаружена, не проиндексирована" на протяжении длительного времени, далеко не всегда означает проблемы со скоростью сайта или с краулинговым бюджетом. Очень часто это показывает на наличие проблем с качеством на сайте.

#DrMax #SEO #GSC #QRG
👍13🔥2
📈 Уже нашел ! Спасибо!

Поскольку на днях начну писать новую книжку, посвященную техническому аудиту, необходимо 2-3 сайта для проведения всестороннего анализа технических составляющих.


Друзья! Пока СТОП по сайтам, набрал проектов на анализ. Всем огромное спасибо!

Но в комментариях все равно пишите, про что лучше писать SiteAnalyzer / Лягушка!

Требования к сайтам
: реальный, рабочий проект (не сателлиты), желательно небольшого объема (до 10-15-20 тыс страниц). Будет необходим гостевой доступ к GSC.

Что получит заказчик: глубоко расширенную версию анализа составляющих сайта, с описанием проблем и методами их устранения. Плюс несколько уникальных (в разрезе сайта) методов улучшения ранжирования, рассчитанных индивидуально под каждый сайт. Всё по цене обычного моего технического аудита.

Что мне нужно от заказчика: разрешение разместить обезличенную информацию о сайте в книге, включая обезличенные скрины из GSC и обезличенные куски исходного кода. Никаким образом понять какие сайты/ какие URL исследовались - не будет возможно.

Естественно, бонусом каждый заказчик получит экземпляр новой книги.

Друзья, если самим не нужно - поспрашивайте у знакомых, у кого проблемы с проектами или недостаточно трафика на проектах.

Ну ежели никто не найдется на исследование, придется по старинке собственные проекты описывать.

Ориентировочно дата выхода книги - первая половина сентября. Материалов накопленных - бесконечно много, нужно привести всё в порядок и добавить новых примеров.

По поводу обсуждения - обращайтесь прямо ко мне в телеграм.

По окончании набора - уведомлю.

И такой вопрос. Для ряда задач по аудиту нужен будет соответствующий софт. Что лучше расписать - бесплатный SiteAnalyzer Андрея Симагина или Screaming Frog SEO Spider. Напишите в комментариях.

#DrMax #SEOBook
👍20
🚩 Сильные сбои в Google

В ночь с 8 на 9 августа в Google начались сильные сбои, которые продолжаются и в настоящее время. Это выражается:
✔️ в частичной недоступности сервисов Google
✔️ в выпадении страниц из индекса
✔️ колебаниям в ранжировании
✔️ невозможности индексации новых страниц
✔️ и т.д.

По всей видимости это как то связано с пожаром в дата центре Google (а может и нет). Во всяком случае Гугл об этом уведомлен и великий и правдолюбивый Джон Мюллер уже высказался на эту тему, что все должно вернуться на круги своя, пока идут восстановительные работы.

Вывод: не стоит тратить нервы, изучая падение/рост в ранжировании в ближайшие несколько дней. Относимся к проблемам в Google спокойней.

#DrMax #SEO #Google
👍27🔥3😁1
📢 Анонс обновления ядра алгоритмов Google

В ближайшее время Google внесет изменения в алгоритм ранжирования поиска, которые могут оказаться одними из самых значительных за последнее десятилетие.

Google собирается запустить новое масштабное обновление поискового алгоритма под названием "Обновление полезного контента".

Новое обновление направлено на "контент, который был создан для того, чтобы хорошо ранжироваться в поисковых системах, а не для того, чтобы помочь или проинформировать пользователей.

Цель этого обновления алгоритма - помочь поисковику найти "высококачественный контент".

Новый алгоритм Google будет направлен на понижение рейтинга сайтов с SEO текстами и продвижение более полезных сайтов, предназначенных для людей.

Обновление начнут выкатывать распространяться на этой неделе. По словам представителей Google, полное развертывание обновления займет до двух недель.

Хотя эти алгоритмы не нацелены на какую-то конкретную нишу, Google говорит, что эти типы контента могут пострадать больше всего:

✔️Образовательные онлайн материалы
✔️Искусство и развлечения
✔️Коммерция/магазины
✔️Связанные с техникой.

Это связано с тем, что контент, написанный в этих областях, традиционно создавался больше для поисковых систем, чем для людей. Согласно анализу Google, обновление полезного контента Google может повлиять на эти области в большей степени, чем на другие.

Если Google определит, что на вашем сайте относительно много бесполезного контента, в основном написанного для ранжирования в поиске, то под действие попадет весь ваш сайт.

Таким образом, обновление повлияет не только на отдельные страницы или разделы вашего сайта, но и на весь сайт.

Google не уточняет, какой процент страниц на вашем сайте должен быть полезным или бесполезным, чтобы сработал этот фильтр, но они заявили, что он действует в масштабах всего сайта и будет влиять на весь сайт, даже если у вас много полезных страниц.

По словам Google, этот алгоритм будет работать автоматически. Оценки или фильтры будут постоянно обновляться.

Но если сайт попадет под действие этого обновления полезного контента, на его восстановление может уйти несколько месяцев.

Сайт должен со временем доказать, что он больше не публикует контент с единственной целью - занять первое место в поисковой выдаче, а это требует времени.

Первоначально обновление будет запущено для поиска на английском языке по всему миру.

В будущем Google планирует распространить его на другие языки.

Компания Google сообщила, что это обновление нацелено только на поиск Google. Однако в ближайшие месяцы Google может распространить его на дополнительные продукты (например, Google Discover).

#DrMax #SEO #Google #CoreUpdate
🔥8😱5👍3🤔3
2025/07/12 04:44:00
Back to Top
HTML Embed Code: