Telegram Web Link
Please open Telegram to view this post
VIEW IN TELEGRAM
Всем привет!

Поздравляю всех товарищей с прошедшими праздниками. К сожалению не смог сделать это вовремя по независящим от меня причинам. И огромное спасибо всем друзьям, что меня поддержали.

Попытаюсь начать работу. Для начала в канале буду публиковать наиболее интересные куски из книги, которая так и не увидела свет. Пока на новые исследования нет сил, но думается материалы всем понравятся. Начну прямо сегодня.

По задолженностям моим сегодня - завтра свяжусь и порешаем. Новые аудиты / анализы/ консультации брать не смогу, по очевидным причинам.

Накопившуюся почту/сообщения разобрать практически не возможно - более 1000 сообщений только в телеграмме, но постараюсь потихоньку осилить. Не обессудьте.

Еще раз всем спасибо, что читаете канал.

#DrMax
sdt3.py
8.4 KB
Сжатие данных как способ выявления некачественных страниц

Сжатие данных (компрессия) — это уменьшение размера файла без потери важной информации. Поисковые системы могут применять сжатие для выявления некачественных страниц, в том числе дубликатов, дорвеев со схожим контентом и страниц со спамными ключевыми словами.

Микрософтовцы в 2006 году выкатили результаты исследования, согласно которому обнаружили, что избыточное количество повторяющихся слов приводит к более высокой степени сжатия. Они проверили, существует ли связь между высокой степенью сжатия и спамом. Результаты показали, что страницы со степенью сжатия 4,0 и выше в 70% случаев являлись спамом (об этом позже).

Выводы исследования таковы:
1. Дорвеи с дублирующимся контентом легко обнаружить, так как они сжимаются сильнее обычных страниц.
2. Группы страниц со степенью сжатия выше 4,0 преимущественно являлись спамом.
3. Использование только одного сигнала качества может привести к ложным срабатываниям.
4. Сигнал сжатия выявляет только спам, связанный с избыточностью, но не другие виды спама.
5. Комбинация сигналов качества повышает точность обнаружения спама и снижает количество ложных срабатываний.

Почитать это исследование и полюбоваться на графики можно вот тут.

В принципе, мы можем использовать данное исследования для определения недостаточного качества отдельных страниц с достаточно высокой достоверностью.

Теория оного действия незамысловата: алгоритмы сжатия, такие как gzip, уменьшают размер файлов, удаляя избыточные данные. Если страница сильно сжимается, то, вероятно, в ней много повторяющегося или шаблонного контента. Высокая степень сжатия может указывать на низкое качество или спамность страницы, поскольку такие страницы часто содержат повторяющиеся фразы, избыточное количество ключевых слов или просто "воду". Измеряя эту степень, мы можем выявить страницы, которые могут негативно влиять на общее качество сайта.

Реализация анализа крайне проста: можно использовать для расчетов хоть питон, хоть лягушку, хоть Гугл – шитсы – абсолютно не важно. Реализацию на лягушке я утерял, потому приведу реализацию на питоне.

Суть скрипта – скармливаем скрипту xml карту сайта. Скрипт выдирает значимый контент, сжимает его и делит одно на второе. Результаты отписывает в файл, который потом экспортируем в Эксель и сортируем по коэффициенту сжатия.

Повторюсь, в отрыве от иных оценочных методов, данный метод может сильно лажать. Но, тем не менее, оная метода позволяет без всяких усилий и достаточно быстро вычленить наиболее проблемные страницы сайта.

#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Сжатие данных как способ выявления некачественных страниц -2

Использование скрипта для тех, кто не знает что есть такое Питон:

1. Качаем питон вот здесь. Третью версию.
2. Ставим например на C диск в папку Python
3. Запускаем консоль Win+R и устанавливаем необходимые для работы пакеты:
Вводим вот такое:
c:\Python\python.exe -m pip install requests

жмем Энтер

Потом вводим вот такое:

c:\Python\python.exe -m pip install bs4

пакеты установлены.

4. Скачиваем из прошлого поста скрипт sdt3. py и кидаем его в корень питона ( то есть C:\Python\ или куда там его вы поставили)

5. Запускаем скрипт (открываем консоль через WIN + R)

c:\Python\python.exe sdt3.py


6. Вводим URL xml-карты сайта

7. Ждем

8. Получаем на выходе txt файл, который можем анализировать, загнав его в Excel

Собственно в скрипте все прокомментировано - можете переписать под себя

#DrMax #Python #SEO
Еще один признак некачественных страниц на сайте

Еще один интересный признак, позволяющий легко найти некачественные страницы на сайте – это «Количество днейс момента последней индексации страниц». Этот признак вылез после летних обновлений, когда вместо помещения некачественной страницы в раздел «Страница просканирована, но пока не проиндексирована» , Гугл просто перестал обращать внимание на некачественные страницы. Формально, они остаются в индексе, но при этом такие страницы не имеют не то что кликов, а даже показов в выдаче. То есть Гугл не пихает их в органику, помещая (как это было давным - давно) в саплиментал индекс.

Как и любой метод определения некачественных страниц на сайте, он не гарантирует 100% точности и должен использоваться в совокупности с иными методами определения Thin-контента на сайте. Кроме того, необходимо учитывать еще 2 важных фактора для таких страниц – глубина вложения и число входящих ссылок. В принципе, все это детектится на автомате, например, используя лягушку.

Итак, берем лягушку, парсим сайт, не забывая подключить в API данные GSC, ну например за 2-3 месяца. После парсинга выгружаем в Excel все HTML страницы с данными и сортируем страницы по столбцу «Days Since Last Crawled». В среднем, количество дней не должно превышать 30 (крайне сильно зависит от структуры и размера проекта), все что больше – нуждается в инспектированию, анализе и правке.

Что интересно, показатель «Days Since Last Crawled» прямо коррелирует с количеством показов страницы в выдаче. Чем больше показов, тем показатель лучше (меньше).

Если страницы с плохим показателем «Days Since Last Crawled» расположены очень глубоко – то необходимо задуматься о том, чтобы сделать структуру проекта более плоской.

Если страницы с плохим показателем «Days Since Last Crawled» имеют меньше среднего входящих ссылок – стоит задуматься о внедрении внутренней перелинковки в том или ином виде.

Все остальные случаи, когда «Days Since Last Crawled» излишне велик – требуют правки контента. Самое паскудное здесь, что, не смотря на изменение Last Modified в XML картах сайтов, сейчас Гугл будет их переиндексировать весьма неспешно, возможно что и на год растянется такая переиндексация. То есть результаты правки будут учтены крайне не скоро.

Тут приходится или вручную подавать такие страницы на переиндекс (если их мало) или размещать ссылки на такие страницы на главной или иных авторитетных страницах сайта, которые достаточно часто переобходятся. Ну и ссылочное внешнее на эти страницы помогает.

Вот такой нехитрый способ поиска очередных говностраниц на сайте. Пользуйтесь.

#DrMax #SEO #ThinContent #Google #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
🧐 Поиск страниц с просадкой трафика в Google Search Console

Цель данного анализа — обнаружить страницы, которые потеряли значительную часть трафика из Google, и определить возможные причины этой потери. Это позволит своевременно принять меры по восстановлению трафика и улучшению позиций сайта в поисковой выдаче. Для работы нам понадобится Google Search Console (GSC).

Шаг 1: Первичный анализ динамики трафика

1. Откройте раздел "Эффективность" в GSC.

2. Выберите вкладку "Поисковые запросы" или "Страницы". Рекомендую начать со вкладки "Страницы".

3. Установите диапазон дат. Выберите последние 28 дней (или другой период, соответствующий вашему циклу анализа, например, 90 дней) и сравните его с аналогичным предыдущим периодом. Для более точного сравнения учитывайте сезонность вашего бизнеса. Если ваш трафик сильно зависит от времени года, сравнивайте текущий период с аналогичным периодом прошлого года. Если сезонность не выражена, можно сравнивать с предыдущим периодом.

4. В большинстве случаев прошлый период (такой же по длительности) лучше выбирать не связанный с текущим, а, например, летний (июль).

5. Отсортируйте таблицу по столбцу "Клики - Разница" по возрастанию, чтобы увидеть страницы с наибольшей потерей кликов.

Шаг 2: Детальный анализ страниц с просадкой трафика

Всегда необходимо анализировать совокупно клики и показы страницы. Если клики упали, а количество показов сохранилось – то вы были вытеснены конкурентами с топовых позиций. Если клики упали и упало количество показов, то, возможно, страница недостаточно качественная и по ряду запросов её выбросили из ранжирования.

Особым случаем является ситуация, когда клики и показы упали до 0. Это явный признак недовольства Гуглом вашей страницей и необходимо принимать меры по устранению этой проблемы. Чтобы увидеть такие страницы – воспользуйтесь фильтром справа (см скрин) и установите количество текущих кликов равных 0. Скорей всего, данные страницы попали под фильтр Гугла (если не учитывать сезонность, устарелость контента и прочие факторы).

Итак:
• Клики: Значительное падение кликов — основной сигнал проблемы.
• Показы:
1. Снижение показов и кликов: Это может свидетельствовать о потере позиций по важным запросам или о том, что страница перестала ранжироваться по определенным запросам.
2. Показы остались на прежнем уровне, а клики упали: Это может указывать на проблемы с CTR (кликабельностью). Возможно, конкуренты предложили более привлекательные сниппеты, или изменились результаты поиска (появились новые элементы SERP, например, быстрые ответы).
3. Средняя позиция: Рост значения средней позиции означает, что страница опустилась в поисковой выдаче.

Особый случай: Клики и показы упали до нуля

Если клики и показы страницы упали до нуля, это тревожный сигнал. Возможные причины:
1. Фильтрация Гуглом, например HCU (вероятность 80- 90%)
2. Технические проблемы: Ошибка 404, проблемы с индексацией, неправильная настройка robots.txt, noindex, canonical.
3. Ручные санкции: Страница могла попасть под ручные санкции Google за нарушение правил качества. Проверьте раздел "Проблемы безопасности и меры, принятые вручную" в GSC (крайне низкая вероятность).
4. Устаревший или неактуальный контент: Страница может потерять релевантность для пользователей и перестать ранжироваться.
5. Сезонность: Для некоторых тематик падение трафика до нуля в определенные периоды может быть нормой.
6. Каннибализация запросов: Трафик мог "перетечь" на другую, более релевантную страницу вашего сайта.

Чтобы найти такие страницы:
1. В отчете "Эффективность" выберите вкладку "Страницы".
2. Нажмите "Создать фильтр" (кнопка справа - см скрин).
3. Выберите "Клики (текущий диапазон)", затем "Равно" и введите значение 0.
4. Примените фильтр.
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжение

Шаг 3: Дополнительные методы поиска страниц с просадкой трафика в GSC:

1. Фильтрация по средней позиции.

Можно использовать фильтр "Средняя позиция" в отчете "Эффективность". Это позволит найти страницы которые резко потеряли позиции в поисковой выдаче.

Как это сделать:
1. В отчете "Эффективность" выберите вкладку "Страницы".
2. Нажмите кнопку "Создать фильтр".
3. Выберите "Средняя позиция", затем "Больше чем" и введите значение, например, 10 (то есть страницы, которые опустились ниже топ-10).
4. Установите диапазон дат как в первом методе.
5. Сравните полученные данные с предыдущим периодом, чтобы определить, какие страницы резко потеряли позиции.

2. Анализ поисковых запросов.

Перейдите на вкладку "Поисковые запросы" и проанализируйте, по каким запросам сайт потерял показы и клики. Это поможет понять, какие темы и ключевые слова стали менее релевантными.

3. Сравнение данных по разным типам поиска.

Используйте фильтр "Тип поиска" (Веб, Картинки, Видео, Новости), чтобы определить, в каком типе поиска произошла просадка трафика.

4. Анализ данных по странам и устройствам.

Фильтры "Страны" и "Устройства" помогут выявить проблемы, специфичные для определенного региона или типа устройства.

Шаг 4: Что делать со страницами с просадкой трафика?

После того как вы обнаружили страницы, потерявшие трафик, необходимо определить причину и принять соответствующие меры. Вот несколько общих рекомендаций:

1. Проверьте техническое состояние страницы: Убедитесь, что страница доступна для индексации, не имеет ошибок и корректно отображается на разных устройствах.

2. Обновите и дополните контент: Сделайте контент более актуальным, полезным и уникальным. Добавьте новую информацию, мультимедийные элементы, обновите статистику.

3. Проработайте метатеги: Оптимизируйте заголовки (title) и описания (description), чтобы они были более привлекательными и релевантными поисковым запросам.

4. Улучшите внутреннюю перелинковку: Убедитесь, что на проблемную страницу ведут ссылки с других релевантных страниц вашего сайта.

5. Проверьте внешние ссылки: Проанализируйте ссылочный профиль страницы. Возможно, она потеряла качественные внешние ссылки.

6. Проанализируйте конкурентов: Посмотрите, что делают ваши конкуренты, которые вытеснили вас из топа. Возможно, у них более качественный контент, лучше оптимизированы страницы или сильнее ссылочный профиль.

7. Полностью перепишите или удалите проблемный контент (если не помогли предыдущие меры)

Регулярный мониторинг трафика в Google Search Console — важная часть SEO-оптимизации. Используйте описанные выше методы, чтобы своевременно обнаруживать страницы с просадкой трафика и принимать меры по его восстановлению. Помните, что падение трафика не всегда связано с фильтрами Google. Причины могут быть разными, и важно провести комплексный анализ, чтобы найти и устранить проблему.

#DrMax #SEO #Google
Эксперимент 2025-1 (вывод из под HCU)

Итак, жил-был буржуинский проект и внезапно он попал под HCU. Оный не совсем убил его (порезал траф вдвое), так что варианты быстрого вывода все ж были. И была на оном проекте очень важная страница, которая давала значительную долю конвертабельного трафа. И посколь HCU накладывается на весь сайт целиком, то оная страница также просела.

Именно, основываясь на идее, что фильтр накладывается на домен было принято решение вынести данную страницу за пределы этого домена. Попросту говоря - пихнуть на поддомен. Такой кандибобер срабатывал при разнесении страниц по признакам YMYL, Так что шанс на удачное восстановление был.

Отдельная эпопея возникла после переноса страницы на поддомен. Гугл ни в какую не хотел признавать новый поддомен со страницей и пихать его в индекс. Он ворчал что это дубли, указывал каноничной страницу на офф сайте (коей уже не было), долго страдал, но в конце - концов взял страницу в индекс.

Поначалу все шло не плохо. В течении месяца показы быстро росли, появились клики, но чуть позже фильтр догнал эту страницу и все обрезалось в 0. Причем это случилось не в период апов.

Таким образом, как оказалось, фильтр HCU накладывается не только на домен, но и на поддомены основного домена. Поэтому вывод из под фильтра выносом контента за пределы основного домена - не сработал.

Посмотрел как сейчас обстоят дела со страницей- поддоменом. Трафа на ней нет. Показов нет.

Ну чтож, негативный опыт - тоже опыт.

PS
из за особенности переиндекса пришлось ставить 301 редиректы со страницы на офф сайте на страницу - поддомен.

PPS
контент намеренно не изменялся.

#DrMax #SEO #Google #HCU #test
Please open Telegram to view this post
VIEW IN TELEGRAM
Эксперимент 2025-2 (В ТОП 1 оптимизацией контента с использованием ИИ)

Собственно эксперимент достаточно простой. ИИ были скормлены все руководства Гугла по созданию качественного контента. Все что они там понавыдумывали было формализовано в 2-3 десятка правил.

После этого была скормлен контент страницы, который нужно оптимизировать и 4 СЧ ключа, по которым нужно вывести страницу в ТОП.

Было предложено переписать контент с соблюдением правил гугла по качественному контенту и оптимизировать его под эти 4 ключа. Мета тайтл и дескрипшен тоже меняются.

Ежедневно снимаются позиции по 4 ключам, уведомляется ИИ о позициях и требуем дальнейшей оптимизации контента в зависимости от результатов.

Все это находится в 1 ветке обсуждения. Используется Гугловская AI студия, модель Gemeni Experimental 1206. Температура 0.85 (из 2).

Таким образом, используя обратную связь мы пытаемся нащупать принципы оптимизации контента с использованием ИИ.

По завершении эксперимента эти принципы бдут формализованы и будет заложен кластер, ну например, из 10 страниц этого же сайта для их выталкивания в ТОП.

Время переиндексации и внесения измениния в органику - где то 4 часа (для данного проекта).

Если будут какие то положительные результаты - напишем софтинку, которая будет массово и на автомате снимать позиции, подсовывать ИИ и изменения публиковать на проекте. Но пока до этого очень далеко.

И да, я прекрасно понимаю, что разные тематики, гео, типы сайтов требуют разных подходов по оптимизации. Поэтому всю эту штуковину нужно обучать для каждого сайта отдельно.

Первые результаты довольно положительные. Рост идет.
Через пару месяцев можно будет подводить итоги. Уведомлю.

ЗЫ.
абсолютно не важно за счет чего происходит рост страницы. За счет оптимизации контента, тайтлов, свежести и т.д. Главное что это все внутренние факторы и все это очень просто автоматизируется.

#DrMax #SEO #Content
Please open Telegram to view this post
VIEW IN TELEGRAM
🔄 Январское обновление QRG

Google обновил Руководство для асессоров, добавив определение контента, сгенерированного искусственным интеллектом (ИИ), и описав новые типы спама. Руководство разрешает использование ИИ-инструментов, но подчеркивает, что контент должен представлять уникальную ценность. В обновлении также выделены три новых типа спама: злоупотребление просроченными доменами, злоупотребление репутацией сайта и злоупотребление масштабированным контентом.

Основные моменты таковы:

Определение контента, сгенерированного ИИ: В раздел 2.1 "Важные определения" добавлено формальное определение контента, созданного с помощью ИИ.
Google официально признает существование и влияние ИИ-контента на результаты поиска. Определение подчеркивает способность ИИ создавать разнообразный контент, что ставит вопрос о его качестве и оригинальности.

Разница между низким и самым низким качеством контента: Разделы 4.0-4.6 значительно переработаны и включают подробные подразделы о новых формах спама и низкокачественного контента, включая:

1. Злоупотребление просроченными доменами: Покупка и перепрофилирование просроченных доменов с целью размещения на них контента, не представляющего ценности для пользователей.

Этот тип спама нацелен на использование авторитета старого домена для быстрого ранжирования нового сайта. Google явно борется с этой тактикой, поскольку она вводит пользователей в заблуждение.

2. Злоупотребление репутацией сайта: Размещение стороннего контента на авторитетном сайте с целью использования его уже устоявшихся сигналов ранжирования.

Эта практика часто используется для продвижения низкокачественного или рекламного контента. Google стремится защитить пользователей от манипуляций, когда репутация сайта используется не по назначению.

3. Злоупотребление масштабированным контентом: Создание большого количества страниц с целью получения выгоды для владельца сайта, а не для помощи пользователям. Сюда относится использование ИИ для создания низкокачественного контента.

Google акцентирует внимание на том, что ИИ не должен использоваться как инструмент для массового производства бесполезного контента. Ключевой момент - ценность для пользователя, а не количество.

Идентификация контента, сгенерированного ИИ: В разделе 4.7 приведены конкретные примеры того, как идентифицировать и оценивать контент, созданный ИИ.

Приведенный пример с фразой "Как языковая модель, я не имею доступа к данным в реальном времени..." показывает, что Google может распознавать типичные для ИИ формулировки. Это сигнал о том, что нужно тщательно редактировать и адаптировать ИИ-контент, чтобы он выглядел естественно.

Новые технические требования: Асессорам предписано отключать блокировщики рекламы для точной оценки пользовательского опыта.

Это нововведение указывает на то, что Google уделяет больше внимания реальному пользовательскому опыту, включая взаимодействие с рекламой. Вероятно, это связано с тем, что реклама является важным источником дохода для Google и влияет на восприятие сайта пользователями.

Отсюда несколько умозаключений:

Стратегия ИИ-контента: ИИ-инструменты можно использовать, но фокус должен быть на создании уникального и ценного контента, а не на массовом производстве. ИИ может быть полезным инструментом для генерации идей, создания черновиков, но контент должен быть тщательно отредактирован и дополнен человеком, чтобы соответствовать стандартам Google. Нужно добавлять экспертное мнение, примеры, данные, чтобы сделать контент уникальным.

Качество важнее количества: Google по-прежнему ценит высококачественный, оригинальный контент. Вместо погони за количеством страниц, стоит сосредоточиться на создании подробных, исчерпывающих материалов, которые отвечают на вопросы пользователей и решают их проблемы.
Please open Telegram to view this post
VIEW IN TELEGRAM
Технические аспекты: Необходимо учитывать, как контент отображается для пользователей с включенными и отключенными блокировщиками рекламы.
Сайты должны быть оптимизированы для корректного отображения контента в различных браузерах и с разными настройками. Стоит протестировать свой сайт с включенным и отключенным блокировщиком рекламы, чтобы убедиться, что контент доступен и удобен для чтения.

Особое внимание к YMYL-тематикам при использовании ИИ: Тематики YMYL (Your Money or Your Life), такие как финансы, здоровье и право, требуют особой точности и достоверности. При создании контента в этих тематиках с использованием ИИ, необходимо тщательно проверять факты, ссылаться на авторитетные источники и привлекать экспертов для проверки информации.

Дополнительные мысли по SEO-стратегии:

E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness): Обновление руководства подчеркивает важность E-E-A-T. Контент должен демонстрировать опыт, авторитетность и надежность автора. Указывайте авторов контента, их квалификацию и опыт. Ссылайтесь на авторитетные источники. Добавляйте отзывы и социальные доказательства.

Пользовательский опыт (UX): Google все больше внимания уделяет UX. Убедитесь, что ваш сайт удобен для пользователей, быстро загружается, имеет понятную навигацию и адаптирован для мобильных устройств.

Оригинальность и уникальность: Создавайте контент, который отличается от конкурентов и предлагает что-то новое. Проводите исследования, анализируйте конкурентов, находите пробелы в информации и заполняйте их своим уникальным контентом.

Прозрачность использования ИИ: Если вы используете ИИ для создания контента, будьте прозрачны в этом. Можно добавить дисклеймер, что контент был создан с помощью ИИ, но отредактирован и проверен человеком. Это поможет повысить доверие пользователей.

#DrMax #SEO #QRG #Google
☄️ Фишка для повышения качества контента при ИИ генерации

На основе нового QRG можно повысить (значительно) качество генеренки контента для вашего сайта. Для этого берем чат бот (например Google AI Studio) и в новом промпте:
1. Подробно описываем ваш сайт: тематику, что есть на сайте, для кого он предназначен (например опытные пользователи софта или там покупатели, ищущие новые впечатления ), его гео и пр. Чем больше информации - тем лучше.
2. С новой строки пишем, какого рода контент вы хотите генерировать (описание товара или инструкции к играм или еще чего)
3. После этого просим написать промпт с требованиями по качеству контента, приведенным в руководстве для асессоров по качеству для лучшего ранжирования в Гугле.
Ну и прикладываем сам PDF файл.

В итоге вы получаете кусок промпта с рекомендациями по качеству именно под вашу тематику и под ваш сайт.

Повторив рекурсивно несколько раз эти операции вы сможете сделать отличный промпт, который позволит вам генерачить контент, полностью отвечающий требованиям QRG.

Пользуйтесь.

#DrMax #Фишки #QRG #Prompt
Please open Telegram to view this post
VIEW IN TELEGRAM
🔈 Про новый китайский ИИ (рассусоливатель)

Неделю назад китайцы выкатили убийцу ЧатГПТ - мега продукт под названием DeepSeek. В браузерной версии он бесплатен, не требует VPN и работает довольно прилично. Сейчас расскажу.

1. Он как и перплексити умеет работать с поиском по инету - т.е. собирать информацию и как то её обрабатывать. Конечно, тот же Гемени адвансед при запросе собирает и обрабатывает несколько сотен страниц (из Гугла) а DeepSeek несколько десятков (скорей всего из Байды), но это так себе показатель. Если кто то юзал платный перплексити, то он видел, что оный перплексити задает десяток последовательных вопросов, каждый из которых уточняет предыдущий. Так ли работает DeepSeek - неизвестно.

2. По качеству генеренки DeepSeek крайне напоминает Гемени 1.5PRO. Вплоть до совпадения некоторых фраз. Такое ощущение, что китайцы сперли часть наработок гугла.

3. DeepSeek в данной иттерации значительно уступает новым экспериментальным гугловским моделям по качеству контента. Но думается это ненадолго.

4. В данной иттерации DeepSeek требует крайне вдумчивых и обстоятельных промптов, в которых требуется достаточно полно описывать что вы хотите получить.

5. Запихал в него эксперимент №2 и понял, что контент в первой же иттерации более привлекательный, чем генерируемый AI Студией Гугла.

6. С Клавдией не сравнивал

7. При включении режима "рассусоливания", DeepSeek может менять результаты генерации на лету, поправляя самого себя. Это интересно и познавательно. Вот как это описано в исследовательской работе по этому ИИ.

В целом ИИ более понравился, чем не понравился. Будем юзать.

Офф сайт DeepSeek тут. Пользуйтесь.

ЗЫ. Акции Nvidea после выхода DeepSeek обрушились на $300 млрд. На разработку DeepSeek китайцы потратили $6 млн.

ЗЗЫ2. Какие то обиженки устроили DDOS атаку на DeepSeek. Регистрация (бесплатная) может быть недоступна какое то время.

#DrMax #ИИ #DeepSeek
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Обновление SiteAnalyzer SEO Tools от Андрея Симагина до v 2.2.

Наш хороший товарищ и талантливый программист, автор кучи бесплатного (а иногда и платного) SEO софта выкатил новую версию своего SiteAnalyzer SEO Tools - браузерное расширение для Chrome и Firefox, представляющее собой набор инструментов для анализа сайта, технического аудита, анализа URL и исправления ошибок SEO-оптимизации.

В версии 2.2 добавлена статистика рекламных блоков и органической выдачи в Яндексе и Google, добавлен расчет параметра TF-IDF, добавлено отображение графика Google Trends и многое другое.

Что нового:
- добавлена статистика рекламных блоков и органической выдачи в Яндексе и Google
- добавлен расчет параметра TF-IDF для анализа заголовков поисковой выдачи Яндекса и Google
- добавлено отображение графика популярности поисковых запросов в Google Trends для Яндекса и Google
- добавлен учет тега NOINDEX при анализе содержимого вкладки «Контент» (раздел «Настройки»)
- добавлена возможность изменения размера шрифта для первых двух вкладок расширения
- добавлена нумерация органической выдачи в Яндексе и Google (раздел «Настройки»)
- обновлен вид списка заголовков H1-H6 (отсутствующие заголовки H1 и дубли теперь выделяются красным)
- уменьшено число капч на выдаче Яндекса и Google

Подробнее: https://site-analyzer.ru/articles/seo-extension-se-organics-tf-idf/

Андрей читатет комменты - потому можно задавать ему вопросы, а главное, засылать свои хотелки в комментариях.

#DrMax #SiteAnalyzer #софт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔊 Сказ о "Просканировано – в настоящее время не проиндексировано" в GSC

Статус "Просканировано – в настоящее время не проиндексировано" в Google Search Console (GSC) означает, что Googlebot посетил страницу, но не добавил ее в поисковый индекс.

Иногда, наличие таких страниц в GSC говорит о фильтрах на сайте. Но, нужно знать, что
это не всегда проблема, иногда Google просто обновляет данные или намеренно не индексирует определенные страницы.

Не все страницы нужно индексировать. Многие страницы (страницы результатов поиска, фильтры, страницы тегов/категорий с дублированным контентом, тестовые страницы, устаревший контент, страницы для внутреннего пользования, глубоко пагинированные страницы, дубликаты, временные страницы, RSS, sitemap, взломанные страницы) могут и должны оставаться неиндексированными.

Если важные страницы не индексируются, нужно искать причины:

1. Низкокачественный контент: Thin, дублированный или малоценный контент.

2. Задержка индексации: Страницы недавно просканированы, но еще не проиндексированы.

3. Дублированный контент: Страницы слишком похожи на уже проиндексированные.

4. Ограничения краулингового бюджета: Google не успевает просканировать все страницы, отдавая приоритет более важным.

5. Спам или нерелевантный контент.

6. Проблемы с загрузкой и рендерингом страницы: Проблемы с JavaScript, замедляющие отрисовку контента.

7. Недостаток перелинковки: Страницы изолированы в структуре сайта.

8. Временный контент: Страницы с сезонной или временной информацией.

9. Взломанные страницы.

10. Новые сайты, публикующие сразу много контента: Google нужно время, чтобы оценить и проиндексировать все страницы.

11. Перекрывающийся контент: Страницы, которые не добавляют ничего нового к уже существующему контенту.

12. Чрезмерное использование параметров URL.

13. Плохая структура URL.

14. Недавняя миграция или смена домена.

15. Переизбыток пагинации.

Первопричин может быть гораздо больше, вплоть до ручных или автоматических фильтров. Вообще говоря, это наиболее паскудная проблема, которую можно выцепить в GSC.

Итак, кратко что можно сделать:

1. Улучшить контент: Создавать уникальный, углубленный и интересный контент.

2. Подождать или запросить индексацию вручную через GSC. Особо тревожным знаком наличия могучиъ фильтров будет непопадание в индекс после ручной переподаче.

3. Устранить дубликаты: Объединить, использовать canonical tag или 301 редирект.

4. Оптимизировать краулинговый бюджет: Заблокировать неважные страницы в robots.txt или через noindex.

5. Удалить или переработать спам-контент.

6. Оптимизировать производительность страниц и устранить проблемы с рендерингом (быстрей страница - большее их кол-во влезает в отмеренный бюджет краулинга).

7. Добавить внутренние ссылки.

8. Использовать 301 редирект или noindex/410 для устаревшего контента.

9. Удалить взломанные страницы и заблокировать их.

10. Постепенно публиковать контент на новых сайтах, растянуть на какое то время.

11. Улучшить перекрывающийся контент или объединить его (устраняя канибализацию).

12. Использовать canonical tags или блокировать параметры URL.

13. Упростить структуру URL, сделав сайт более плоским.

14. Проверить 301 редиректы, обновить sitemap и отправить URL в GSC при миграции.

Статус "Просканировано – в настоящее время не проиндексировано" – это не всегда проблема, но он требует внимательного анализа. Необходимо не только разбираться с технической стороной, но и постоянно работать над качеством контента, структурой сайта и общей SEO-стратегией.

#DrMax #SEO #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
🔊 Сказ о "Просканировано – в настоящее время не проиндексировано" в GSC (часть2)

После введения HCU фильтров, в этот раздел GSC гугл помещал все зафильтрованные страницы. Резкий рост числа страниц в этом разделе в момент Core апов Гугла хорошо показывал наложение фильтров на сайт. Однако, с добавлением алгоритмов HCU в ядро алгоритмов Гугла (весна-лето 2024), страницы перестали массово попадать в этот раздел, а будучи проиндексированы, просто не попадают в органическую выдачу. И потом плавно, спустя месяцы после фильтрации, потихоньку выпадают из индекса. Так что теперь это не совсем явный признак HCU фмльтров.

Давайте чуть более подробно рассмотрим что нам делать с такими страницами.

1. Нужно провести глубокий анализ раздела "Crawled - Currently Not Indexed": так как этот статус может быть симптомом крайне серьезных проблем. Если много важных страниц находятся в таком состоянии, это может говорить о проблемах с общим качеством сайта, техническими ошибками или недостаточной внутренней перелинковкой.

2. Приоритезация: Не все страницы одинаково важны. Сфокусируйтесь на индексации страниц, которые приносят трафик и конверсии.

3. Краулинговый бюджет: На крупных сайтах оптимизация краулингового бюджета - критически важна. Нужно тщательно выбирать, какие страницы блокировать через robots.txt и какие помечать noindex. Помните, что robots.txt просто блокирует сканирование, а noindex позволяет Google просканировать, но не индексировать.

4. Улучшение контента: Создание качественного контента – это не только про уникальность, но и про актуальность, современность, релевантность запросам пользователей, глубину проработки темы, удобство чтения, наличие мультимедиа.

5. Техническая оптимизация: Скорость загрузки сайта, мобильная адаптивность, корректная работа JavaScript, правильная структура сайта и URL – все это влияет на индексацию. Используйте PageSpeed Insights для диагностики проблем.

6. Внутренняя перелинковка: Создавайте логичную структуру сайта и используйте внутренние ссылки, чтобы "направлять" бота гугла к важным страницам. Анкорные тексты должны быть релевантными, разнообразными, не спамными. Структура сайта должна быть максимально плоской.

7. Мониторинг: Регулярно проверяйте Google Search Console на наличие ошибок и предупреждений, отслеживайте динамику индексации. Не забывайте про мониторинг позиций, органического трафика и конверсий, чтобы оценить эффективность SEO-стратегии.

8. Sitemap.xml: Убедитесь, что sitemap.xml актуален и содержит только те страницы, которые должны быть проиндексированы. В последнее время гугл крайне не охотно кушает обновления сайтмапа. Зайдите в GSC и посмотрите от какой даты ваши карты сайта и когда гугл их последний раз обрабатывал.

9. Помните про E-E-A-T

10. Внешние ссылки: Внешние ссылки могут значительно ускорить индексацию страниц.

11. Семантический анализ: Перед созданием контента нужно проводить семантический анализ, чтобы точно понимать, какие ключевые слова и запросы использовать.

12. Мультиязычность: Если ваш сайт мультиязычный, убедитесь, что используете правильно теги hreflang и нет ошибок ( у большинства сайтов с хрефлангом - их крайне много)

13. Структурированные данные (Schema.org): Используйте структурированные данные для улучшения представления страниц в поисковой выдаче.

14. Локальное SEO: Если ваш бизнес локальный, оптимизируйте страницы под локальные запросы.

15. Аудит безопасности: Регулярно проводите аудит безопасности сайта для защиты от взломов и спама.

Можно расписать еще больше, так как проблема с просканированными но не проиндексированными страницами крайне глобальна и далеко не все можно охватить в рамках ТГ поста. Но пока обожду )))

#DrMax #SEO #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
🟢О Мета заголовках (title) длиной 200+ символов

Большинство SEO-инструментов (и специалистов) настойчиво рекомендуют мастерить title-теги короткими, в идеале не более 55-60 символов. Дабы они не обрезались в дектопе (и не переписывались Гуглом). Однако, данный прием можно и проигнорировать. Как показывает практика, мета заголовки 200+ символов работают достаточно хорошо, а так как тайтлы являются первейшими по важности внутренним фактором ранжирования, то длинные title-теги, выходящие за пределы 200 символов, могут существенно улучшить позиции сайта в органике.

Собственно этой технике 100500 лет. На заре SEO она прекрасно работала и использовалась многими тогдашними оптимизаторами. Заголовок конструируется таким образом, чтобы конвертабельная часть с важнейшим ключом попадала в первые 50+ символов, а второстепенные ключи пихались за пределами видимой части.

Некий Джоэл Хедл, бывший сотрудник Google (ох уж эти бывшие сотрудники Гугла) провел эксперимент с тысячами веб-сайтов в сфере здравоохранения, добавляя названия районов в title-теги. Результатом стало увеличение видимости в Google на 15%. Это не просто незначительное улучшение – это означает, что эти сайты начали ранжироваться по большему количеству запросов и получили значительный прирост трафика.

Почему работают длинные title-теги?

Google обрезает title-теги примерно после 60 символов, либо полностью переписывает мета- заголовок. Но на самом деле Google учитывает весь title-тег целиком, даже если не отображает его полностью в поисковой выдаче. Включая больше релевантных терминов, вы повышаете вероятность совпадения с множеством поисковых запросов, что, в свою очередь, повышает вашу видимость.

Обратите внимание, что речь не идет о набивании ключевыми словами, а о расширении заголовков для включения большего количества релевантной информации. Вы даете Google больше контекста для лучшего понимания содержания страницы и, как следствие, для более точного ее ранжирования. По сути, длинные title-теги позволяют более полно и точно описать страницу, что, в свою очередь, отвечает на разнообразные запросы пользователей.

Не снизится ли CTR из-за длинных title-тегов?

Если видимая часть заголовка привлекательна, пользователи вряд ли обратят внимание на лишнюю длину. Главное, чтобы начало title-тега было информативным и конвертабельным.

Выводы:

1. Не стоит переживать насчет 60 символов в тайтлах. Длинные title-теги позволяют использовать больше вариаций ключевых слов, включая их в разных формах. Это увеличивает охват поисковых запросов и привлекает более широкий круг пользователей.

2. Добавление локальных ориентиров, таких как названия районов, улиц или даже знаковых объектов, в длинные title-теги может значительно улучшить видимость сайта в локальном поиске.

3. Длинные title-теги позволяют более точно описать содержание страницы, что помогает пользователям принимать более обоснованные решения при выборе результата поиска. Важно не просто "впихнуть" ключевые слова, но и создать привлекательный и релевантный текст.

4. Длинные title-теги работают лучше в сочетании с другими SEO-тактиками, такими как оптимизация контента, наращивание ссылочной массы и улучшение пользовательского опыта.

5. Нет необходимости делать заголовки чрезмерно длинными. Оптимальная длина может варьироваться в зависимости от специфики ниши и контента страницы.

#DrMax #SEO #title #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔝 Как попасть в ТОП Гугла за 3 копейки

После летних апдейтов постоянно вижу в ТОПах гугла по конкурентным запросам всевозможные социальные сети. Даже старый могучие сайты по ВЧ запросам достаточно легко кроются оными соцсетями, ну или болтаются эти посты в соцсетях рядом с ТОПами.

Лучше всего работают посты из Линкедина и Реддита, похуже - Медиум. Твиттер (X) встречается также, но только с НЧ запросами или с запросами с низкой конкуренцией.

Потроша данные посты в соцсетях отметил, насколько грамотно они сделаны. Набиты явными и не явными ключами, ловко выдержаны по размеру и умело сливают трафик на подготовленные лендинги.

Казалось бы - вот оно. Кнопка бабло. Но не все так просто.

Если вы просто повторите оный пост - то абсолютно никуда не вылезете ( ну если только случайно). Препарация этих постов показала обязательное наличие 2-х вещей - комментарии и сигналы в самой соц сети (возможно чтобы обойти внутренние спам фильтры) и наличие десятков тысяч анкорных говноссылок на пост. Мощь соц-платформы такова, что от оных говноссылок вреда нет кроме пользы ( не вздумайте строить такое на свои сайты).

В принципе и то и другое автоматизируется крайне легко, либо покупается у фрилансеров за копейки. Те же 100500 разумных комментарияев (генеренка), какие то там оценки (пальцы вверх), подписки и прочее - все это стоит дешево. Аналогично, практически ничего не стоят прогоны хрумером или там GSA и легко добываются или на фриланс биржах или буржуйских площадках типа коворки.

Собственно это работает здесь и сейчас. Будет это работать завтра? Не знаю.

В принципе можете потестить, пока оно работает. Только сливайте траф не на свои площадки, а на специально подготовленные лендинги (от греха подальше).

Вот такой нехитрый серый способ, как забрать себе топы, пользуясь некачественной выдачей гугла.

PS
подобные посты потихоньку съезжают вниз. Например летние посты с ТОП1 упали до 7-8-9 места, но все равно мотаются в ТОП 10. Скорей всего это отмирают говноссылки и необходим допрогон хрумером (GSA или еще чем). Хотя проще сделать новый пост по такому же шаблону (наверное).

#DrMax #Google #Black_SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Google знает о вас все и постоянно врет

Судебные показания и юридические расследования еще больше раскрыли деловую и юридическую тактику Google, включая активное сокрытие и уничтожение доказательств в текущих судебных процессах. Судья Донато охарактеризовал обманные действия Google в суде как вопиющее нарушение и назвал поведение Google в суде «прямой атакой на справедливое отправление правосудия», подчеркнув серьезность проблемы.

Это поднимает фундаментальный вопрос: почему мы должны доверять тому, что нам говорит Google? Выводы Министерства юстиции раскрывают существенные закономерности обмана, не только в сохранении доказательств, но и в секретных показаниях в зале суда , где Google последовательно затушевывает правду , чтобы скрыть свои истинные методы.

Почему мы думаем, что все те писульки, что постоянно публикует Гугл о всяких там правильных и неправильных методах продвижения - это истина??? Гугл постоянно манипулирует сеошниками, все его говорящие головы (типа лысого перца Джона Мюллера) постоянно врут и сеошники постоянно ловят их всех на вранье.

"Мы не используем поведенческое для ранжирования" - говорили они. Сливы прошлогодние показали что нет, используют и юзают очень активно. Доказательства, полученные из дела Министерства юстиции (DOJ) против Google указывают, что Google использует данные о кликах и вовлеченности Chrome в качестве основной части трехкомпонентной модели в своем алгоритме . Chrome занимает самую большую долю рынка среди всех браузеров в мире, захватывая около 65% рынка на мобильных устройствах и компьютерах. В течение многих лет Google преуменьшал или прямо отрицал роль кликов и вовлеченности пользователей как факторов ранжирования в своем алгоритме.

Интересно, что некоторые из этих сигналов были видны в течение многих лет в отслеживании гистограммы Chrome. В гистограммах ( введите в URL хрома chrome://histograms ) наглядно отслеживает каждый клик, загрузку страницы, глубину прокрутки и даже использование автоматически заполненных форм и полей кредитной карты — как в обычном режиме, так и в режиме просмотра «Инкогнито». Эти данные, собранные без явного согласия пользователей как в мобильных, так и в настольных версиях Chrome без явного согласия, передаются в алгоритмы Google для оптимизации рейтинга поиска, рекламных моделей и других систем машинного обучения. Вот описание оных гистограм. И таких подсистем (как скрытых так и явных) - дофига.

Таким образом Гугл знает всё о всех и использует это в собственных целях, при этом обманывая опять таки всех.

Потому доверять любому заявлению Гугла - опрометчиво.

Гугл - это не про пользователей. Гугл - это про бабло.


#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
📔 Руководство: Причины наложения HCU фильтров

Опубликовал небольшой список основных причин наложения HCU фильтров в виде практического руководства по оценке сайта с примерами. Большинство из них встречал сам в процессе анализа сайтов, о некоторых мне рассказали, что то вычитал.

⚠️ЧИТАЙТЕ ВНИМАТЕЛЬНО. НЕ ТОРОПИТЕСЬ. Практически за каждой строчкой торчит чей то зафильтрованный сайт, раззорившийся бизнес, закрытая компания или еще чего похуже.

Руководство неполное - оно просто не влезло полностью ни в Телеграм, ни в Telegraph, потому пришлось подрезать.

Предназначено для как для пострадавших сайтов, так и для проектов, которые с трудом наращивают трафик.

Печатайте, проверяйте сайт, крыжте. Практически все можно проверить самостоятельно, лишь некоторые пункты требуют специальных знаний.

Важно понимать, что отдельные проблемы, скорее всего, не приведут к фильтрам. Наверняка на ваших сайтах есть целый комплекс проблем, которые нужно устранить.

Пользуйтесь, репостите, рассказывайте коллегам, ставьте лайки )))

📚 Ссылка на руководство

PS
Чет ошибку в превью выдает у меня.
Вот это вот скопируйте:

https://telegra.ph/Prichiny-nalozheniya-HCU-filtrov-02-03


и в браузере откройте, если ошибка.

#DrMax #Book #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/06 23:42:06
Back to Top
HTML Embed Code: