Telegram Web Link
⚠️ Semrush за $3, ChatGPT за 20 руб и иная SEO халява

На развалах цифровой барахолки Plati .ru есть множество полезностей - тот же доступ к SEMRush за 300 руб на 14 дней. Это демо доступ, продаваемый ресселерами с готовыми логинами/паролями и привязанной виртуальной картой. 2 недели хватает за глаза чтобы проанализировать сайт или даже пачку сайтов.

Есть куча демо доступов к ChatGPT c $5 на борту. Для создания сетки сателлитов в авто режиме - самое оно. Поднял WordPress, поставил любой из плагинов по работе с ChatGPT и получай тематический сателлит, набитый контентом. И это только один из сотен вариантов использования.

Там же есть доступы к Deepl -самому лучшему переводчику и рерайтеру, проф версией которого можно переводить хоть книжки целиком и получать отменное качество перевода.

Есть еще куча всего интересного. Например базы со спарсенными WordPress (27 млн. штук - привет GSA и Xrumer) и иными CMS/форумами. Есть масса разнообразных VPN и т.д и т.п

Сгреб все полезные (с моей точки зрения) ссылки в одну кучу - см вот тут.

Важно:
1. Я не имею никакого отношения к любому товару/продукту/сайту. По всем вопросам обращайтесь к продавцу.
2. Перед покупкой - обязательно читайте отзывы
3. Вдумчиво читайте описание - возможно это не то, что вы хотели)))

Вся вот эта штука со ссылками - является всего лишь сборищем ссылок с Plati на штукенции, которые могут быть полезны вебмастерам/SEO-шникам.

Пользуйтесь )))

#DrMax #SEOштукенции
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥84👍457😱4🆒2
DrMax SEO pinned a photo
🟥 Телеконференция "Расширенные стратегии добычи Google-трафика" (анализ GSC, часть 3)

14 сентября в 11 по Москве смотрите Телеконференцию у Миши Шакина на тему хитрых приемов работы с GSC для дальнейшего роста трафика

📺 Трансляция на YouTube (жмите кнопку "Прислать уведомление", чтобы не пропустить):
https://www.youtube.com/watch?v=1uATH7y-624

1️⃣ Смотрите предыдущие выпуски:
Первая часть:
(Не)-секретные способы анализа GSC для мощного роста трафика
https://www.youtube.com/watch?v=n_2zYvCbniY

2️⃣ Вторая часть:
И снова о (не)-секретах работы с GSC. Турбо трафик за неделю (часть II)
https://www.youtube.com/watch?v=-4QdLAUxH4U

🎥 Трансляция в ВК (просто добавьтесь в друзья к Мише Шакину, и получите уведомление. Все записи вебинаров доступны здесь https://vk.com/video/@globator):
https://vk.com/globator

📼 Кроме этого, запись вебинара будет размещена в канале Миши на Дзене:
https://dzen.ru/shakin

📹 И в Rutube канале:
https://rutube.ru/channel/24777621/

Всенепременно ждем на трансляции. Будет интересно.
И готовьте вопросы!!!

#DrMax #SEO #GSC #video #Телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥8🆒21😱1
Обзор на сервис для анализа сайта от PR-CY

Цель сервиса — в любое время выдать seo-шнику свежую сводку по состоянию сайта.

Как это работает: добавляешь сайт в сервис, можно несколько, если позволяет тариф. Подключаешь метрики, чтобы следить за трафиком прямо здесь, указываешь конкурентов, чтобы смотреть и за их прогрессом, загружаешь ключи и указываешь регионы, чтобы сервис отслеживал позиции, на этом все.

Что показывает сервис:
— Основные данные по состоянию сайта: метрики домена, оптимизация главной, техничка, скорость, трафик и тд.
— Аудит внутренних страниц: список URL с конкретными ошибками на них.
— Позиции по запросам, целевым страницам и сводные.
— PDF-отчеты с параметрами сайта и отдельные с позициями.

Базовая проверка - бесплатная!
С подпиской больше интересного:
- Несколько сайтов на проверку;
- Аудит внутренних страниц;
- Позиции;
- Сравнение с конкурентами;

Если у вас подписка, открывается безлимитный доступ к другим инструментам: парсеру топа выдачи,составлению ТЗ для копирайтера, массовой проверке доменов и другим.
Справка по работе с сервисом — HELP

Сервис —PR-CY
👍123👏1
Джон Мюллер отменяет Фак!

Google
изменил отображение расширенных сниппетов HowTo в органической выдаче.
Первое отключение произошло в 8 августа для мобильной версии.
Сегодня не 9/11, но 9/14 - сломали полностью, а точнее отключили в том числе для десктопа 😢.
Источник: Джон Мюллер и Google

#GoogleSeo #Google #MaxP
😡13👍6👀4🤔1👻1
Google выкатил новый апдейт - September Helpful content update 2023

Сегодня Google обрадовал новым апдейтом, который доступен только пока в США.
Он будет разворачиваться в течение 2 недель в бурж сегменте, потом пойдет к нам
Отследить его статус можно здесь

Сторонний контент на вашем сайте
Добавлены новые рекомендации по размещению стороннего контента и дополнительные пояснения о том, что делать после полезного обновления системы контента (возможно, вам не нужно ничего делать или, возможно, самостоятельно оценить свой контент).
Если вы размещаете сторонний контент на своем основном сайте или в своих поддоменах, помните, что такой контент может быть включен в сигналы, которые Google генерирует для всего сайта, например о полезности контента.
По этой причине, если этот контент в значительной степени не зависит от цели основного сайта или создан без пристального контроля или участия основного сайта, мы рекомендуем заблокировать его индексацию Google

Правила обновления дат при обновлении страниц на сайте
На страницу справки добавлены новые сведения об удалении контента или изменении дат.
Если вы меняете дату страниц, чтобы они выглядели свежими, хотя содержание существенно не изменилось - у меня для вас плохие новости. Google добавил эти строки в свой список рекомендаций (только на английской версии)
Поэтому теперь неважно - добавляете ли вы много нового контента или удаляете много старого контента главным образом потому, что считаете, что это улучшит ваши позиции в поисковых системах, каким-то образом заставив ваш сайт выглядеть «свежим»?
Нет, не будет)
Поэтому теперь если вы просто обновляете какие-то мелочи, сделайте так, чтобы ДАТА обновления не менялась.

Контент не обязательно должен быть создан человеком
Внезапно Google также удалил слова «написано людьми» и просто написал в результатах поиска «полезный контент, созданный для людей». Я подозреваю, что это означает, что контент, созданный ИИ, хорош, когда он полезен.
Изменилось вот что:
«Этот контент написан экспертом?» ——-> «Этот контент написан или проверен экспертом?»
Что это значит?
Google понял, что не все, что создано при помощи ИИ, плохо, как он думал в прошлом апдейте.
Но он дал понять, что контент, который не имеет пометки проверенной человеком, все равно не заслуживает доверия
Это значит, что теперь к каждой статье на вашем сайте нужно помимо автора статьи добавлять Рецензента (или Reviewed By). И это должен быть Ваш сотрудник. Так как любой контент теперь имеет автора, даже если это сторонний контент, рецензировать его нужно и отвечать за чужой или созданный при помощи ИИ контент. Указывая своего специалиста или организацию, которая проверила этот контент.
И Искусственный контент, созданный при ChatGPT, Гугл может "пропустить", если он очень хорош и полезен и создан с умом. Но все же стоит всегда его "очеловечить"

Что делать если упали после апдейта?
Если вы пострадали от этого апдейта, могу вас расстроить. Он хостовый, влияет не на отдельные страницы, а на ВЕСЬ сайт. Поэтому если у вас есть ИИ созданный некачественный контент,
- Закрыть от индексации весь сторонний контент низкого качества
- Обновить и переписать контент, который можно освежить
- Переписывать нужно масштабно
- Добавить микроразметки и указать автора и рецензента для своих и чужих статей

#DrMax #НеМое
👍15😱9🤔54🔥3
🕯 Качество является главным фактором при индексировании

Согласно обсуждению в недавнем подкасте, качественный контент является основным фактором, влияющим на решения Google по индексированию и сканированию.

При этом:
🔠 Качество влияет на все в поиске, особенно на индексацию.
🔠 Однако качественный контент не гарантирует высокий рейтинг.
🔠 Удаление контента низкого качества может помочь улучшить восприятие сайта Google.

В ходе разговора выяснилось, что планировщик сканирования Google использует сигналы качества для определения приоритета URL-адресов для сканирования. Если Google знает, что у него есть X URL-адресов для сканирования с сайта, он пытается создать упорядоченный список на основе его прогнозируемого качества.

Качество сайта может повлиять на процесс сканирования, даже если это новые сайты. Например, если новая страница обнаружена с помощью файлов Sitemap, Google оценит качество ранее просканированной домашней страницы, чтобы решить, сканировать ли новую страницу.

Иллиес объяснил, что качество может быть специфичным для разных частей веб-сайта.

Например, если одна часть сайта постоянно предоставляет высококачественный контент, к ней могут относиться иначе, чем к другой, известной контентом более низкого качества.
С другой стороны, если определенные части сайта постоянно содержат контент низкого качества, эти области могут сканироваться реже.
Пользовательский контент (UGC) был приведен в качестве примера, качество которого может варьироваться. Если в разделе пользовательского контента обнаружена тенденция к контенту более низкого качества, это может повлиять на поведение сканирования Google для этой конкретной части сайта.

Иллиес заверил слушателей, что они могут улучшить качество своего сайта, даже если раньше он содержал контент низкого качества. Он призывает владельцев сайтов удалять некачественный контент, чтобы улучшить остальную часть сайта.
Удаление некачественного контента может улучшить восприятие сайта Google, что может повлиять на то, как Google сканирует и индексирует оставшиеся страницы.

Хотя качество контента само по себе не гарантирует высокий рейтинг, выделение ресурсов для создания ценного, уникального контента, скорее всего, повысит позиции сайта в поиске.

#DrMax #SEO #Google #QualityContent
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24🗿53👏2
Всем привет!
SiteAnalyzer - Версия 3.0! 🎉🎉🎉

Популярный софт для seo-шника 🛠 эволюционировал на новую ступень.

Что нового:
- добавлен график по ТОП доменов;
- добавлен график распределения анкоров по числу слов;
- появилась возможность изменения псевдонима проектов;
- исправления в алгоритмах работы программы, багов и фиксы;

ВАЖНОЕ:
Новая версия 3.0 = переход на платную версию программы!💗

Ловите ИНСАЙД/ЭКСКЛЮЗИВ 📢 от компании разработки и владельца Андрея Симагина:
- В планах появление партнёрки с заработком реферальной программы!
(ЧИТАТЬ ВНИМАТЕЛЬНО - анонс рефералки будет примерно через месяц, текущие привлеченные рефералы учитываться не будут)
Чтобы переход не был таким грустным и неожиданным от нас промокод

saDrMax_092023_1w

Спешите воспользоваться – у вас неделя. 😉
Почитать о новой версии и подробнее о фишках SiteAnalyzer.
Всем удачного сканирования без 404!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15😡13👻21🔥1
🟡 Одна из сотен фишек для анализа причин падения трафика

Я неоднократно уже рассказывал и показывал как анализировать причины падения трафика и купировать их, а вот о такой фишке - не припоминаю чтоб докладывал. Использую при поиске причин падения трафика как в апдейты Гугла, так и в межапдейтный период (например при реструктуризации сайта).

Итак.

1. Идем в GSC, смотрим отчет эффективность и на графике отмечаем дату падения трафа/просмотров. Далее тут же выстраиваем сравнение страниц по периодам (по датам). Желательно брать месяц/два до падения и после падения и сравнивать их.

2. Выгружаем в Excel. На листе "Страницы" считаем в отдельном столбце дельту между столбцами "клики до" и "клики после". Сортируем дельту в порядке возрастания (отрицательные результаты - т.е. падения будут вверху).

3. Отбираем 100-200-300 самых припавших страниц. Нам не нужны страницы с флуктуацией в десяток упавших/выросших запросов. Нужны явно припавшие страницы.

4. Открываем лягушку. Переключаемся в "List -Mode". Импортируем или вставляем руками список припавших страниц и быстренько сканируем их

Нас особо интересуют показатели:
Ответ сервера - если не 200, а 4XX - то возможно страницу грохнули или перенесли на новый адрес, при этом забыли прописать редирект. Это очень часто случается при реорганизации сайта. Или он 5xx - значит что то сломалось на сервере/сайте и нужно срочно чинить. В общем должен настораживать любой ответ, кроме 200.

Тайтлы/дескрипшены/H1 - возможно криво прописаны или сломались или еще чего - проверяем списком - очень удобно.

Объем контента - возможно кто то грохнул контент на странице.

Дату обновления контента (не всегда срабатывает)- если дата обновления контента попадает на период падения - проверяем что там менялось.

Смотрим бегло и иные показатели, которые могут вызвать тревогу.

Собственно прием не хитрый и позволяет отбросить десяток простых гипотез, которые легко автоматизировано проверить и перейти к более сложным гипотезам падения трафика.

Хотел этот (и пяток подобных) приемов для GSC+лягушки показать в последней телеконференции по GSC, но не успел. Может быть потом расскажу.

Сравнивать в Экселе можно (и нужно) не только страницы по падению кликов, но и по показам, позициям и CTR. Так мы соберем дополнительный пул "закапризничавших" страниц и сможем их проанализировать при падении трафика.

Еще раз напомню это только один из сотен простых приемов, которые следует использовать для анализа сайтов при падении трафика.

Попробуйте )))

#DrMax #SEO #Google #PenaltyRecovery
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29👍13😱65🤔3
🥸 Новости про Клавдию

Есть 2 новости о Клавдии:
1. Амазон вваливает 4 млрд в развитие
2. Начался обширный разговор о "Клавдии 2"

Amazon инвестирует до 4 млрд. долл. в компанию Anthropic. Это соглашение является частью более широкого сотрудничества, направленного на разработку самых надежных и высокопроизводительных моделей фундаментов в отрасли. Наши передовые исследования и продукты в области безопасности в сочетании с опытом Amazon Web Services (AWS) в создании безопасной и надежной инфраструктуры сделают безопасный и управляемый искусственный интеллект Anthropic широко доступным для клиентов AWS.

AWS станет основным облачным провайдером Anthropic для критически важных рабочих нагрузок, предоставляя нашей команде доступ к ведущей вычислительной инфраструктуре в виде чипов AWS Trainium и Inferentia, которые будут использоваться в дополнение к существующим решениям для обучения и развертывания моделей. Вместе мы объединим наши знания и опыт для совместной разработки будущих технологий Trainium и Inferentia".

Учитывая значительный спрос клиентов AWS на Claude, мы также расширяем поддержку Amazon Bedrock. Это включает безопасную настройку моделей и тонкую настройку на сервисе, что позволит предприятиям оптимизировать работу Claude с помощью своих экспертных знаний, ограничивая при этом возможность возникновения вредных последствий.

Разработчики и инженеры Amazon получат возможность создавать на основе наших современных моделей с помощью Amazon Bedrock. Это позволит им внедрять возможности генеративного ИИ в свою работу, улучшать существующие приложения и создавать новые возможности для клиентов во всех подразделениях Amazon.

Организации смогут использовать Claude 2 для решения широкого спектра задач - от сложных диалогов и создания креативного контента до сложных рассуждений и детальных инструкций. Наше лучшее в отрасли контекстное окно на 100 000 токенов поможет им безопасно обрабатывать большие объемы информации, включая технические документы, специфичные для конкретной области, для использования в финансовой, юридической, кодировочной и других сферах.

Предприятия многих отраслей уже работают с моделями Anthropic на Amazon Bedrock. LexisNexis Legal & Professional, ведущий мировой поставщик информации и аналитики, использует специальную, доработанную модель Claude 2 для обеспечения разговорного поиска, глубокого обобщения и интеллектуального составления юридических документов с помощью нового решения Lexis+ AI. Ведущая компания по управлению активами Bridgewater Associates разрабатывает помощника инвестиционного аналитика на базе Claude 2 для построения сложных графиков, вычисления финансовых показателей и создания сводок результатов. Lonely Planet, известное издательство, специализирующееся на путешествиях, после внедрения Claude 2 сократило расходы на составление маршрутов почти на 80%, синтезировав накопленный за десятилетия работы контент для предоставления целостных и высокоточных рекомендаций по путешествиям.

Короче, Клавдии кирдык скоро (наверное). Наилучшим образом (по моему мнению) она работала при обучении. Все эти вваливания денег ни до чего хорошего не доведут (стоит вспомнить сколько компаний скупил Гугл и где они теперь и эти купленные технологии).

#DrMax #Claude
👍19💯7
На цифровом кладбище Google пополнение! Утилизированных проектов на данный момент более 240. Компания приняла решение закрыть сервис подкастов.

Google Podcasts появился летом 2018 года и теперь доживает последние месяцы. Смысла в содержании сервиса больше нет, потому что у Google появился потенциально более прибыльный продукт — YouTube Music. Тот самый, который неудобно слушать без подписки, так что оптимизация аудиосервисов будет проведена с выгодой для бизнеса.

Но дело тут не только в деньгах: Google также сильно взволнована популярностью подкаст-направления Spotify и намеревается включиться в борьбу, дабы не оказаться в будущем у разбитого корыта. Чтобы помочь пользователям с переходом на YouTube Music, компания предложит инструмент миграции и переноса RSS-каналов. Фактически, в США останется только один крупный игрок рынка, который все еще разделяет подкасты и музыку по разным приложениям. Судя по устойчивому тренду, Apple Podcasts тоже осталось недолго.
😱121👍1
📈 Скажем грозное НЕТ всяким там Бардам

Google анонсировала новый веб-сканер Google-Extended, который позволяет контролировать, могут ли Bard и Vertex AI получать доступ к контенту на вашем сайте.

Если вы не хотите, чтобы на ваших материалах обучались эти ИИ, то достаточно в robots.txt прописать следующее:

User-agent: Google-Extended
Disallow: /

В своем блоге Google отписал так:
"Сегодня мы анонсируем Google-Extended, новый элемент управления, который веб-издатели могут использовать для управления тем, помогают ли их сайты улучшать генеративные API Bard и Vertex, включая будущие поколения моделей, на которых основаны эти продукты. Используя Google-Extended для контроля доступа к контенту на сайте, администратор веб-сайта может решить, стоит ли помогать этим моделям искусственного интеллекта со временем становиться более точными и функциональными".

Вот такие дела.

ЗЫ:
242 из 1000 самых популярных веб-сайтов уже решили заблокировать GPTBot - веб-сканер OpenAI

#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25👀9🔥6
🔄 Google использует данные о кликах для ранжирования

Гугл всегда публично отрицал использование данных о кликах для сортировки результатов поиска. Но на слушаниях, которые сейчас проходят в США относительно потенциальных нарушений антимонопольного законодательства со стороны Google, теперь вырисовывается иная точка зрения (см скрин).

Эрик Леман, который 17 лет работал в Google над качеством поиска и рейтингом, показал в суде, что Google использует данные о кликах для ранжирования. Кроме того, Google дал указание не подтверждать эту информацию, чтобы оптимизаторы не могли использовать эти знания для манипулирования результатами поиска.

#DrMax #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
😁28😱9👍81🔥1
woman-health.xlsx
74.2 KB
💻 Топ100 доменов тематики "Женское Здоровье" из Миралинкс

Посчитал / фильтранул.
Отброшено 2,8 тыс потенциальных доноров.
Основано на выгрузке из Миралинкса, той что выкладывал уважаемый Миша Шакин.

#DrMax #линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28🔥1
🟦Bing внедрил отчеты по качеству контента в свой вебмастер

Bing представил отчет об охвате XML-карты сайта в инструментах Bing для веб-мастеров, который является отличным дополнением для владельцев сайтов. Используя отчет, вы можете проверить уровни индексации на основе URL-адресов, отправленных через XML-карты сайта.

Как и Google, Bing предоставляет ряд категорий для исключаемых URL-адресов, включая неиндексированные, перенаправленные, 404 и другие. Но одна из этих категорий действительно поражает - "Качество контента". Поскольку данный показатель сейчас является (наверное) самым важным моментом, на котором должны сосредоточиться вебмастера, понимание того, когда крупная поисковая система считает, что у вас есть проблемы с качеством, и обнаружение этих конкретных URL-адресов — это очень важно и полезно. Про Яшку упоминать не надо )))

То бишь выбрав категорию «Качество контента», вы сможете просмотреть все URL-адреса (из этой XML-карты сайта), которые были помечены как имеющие проблемы с качеством контента.

Благодаря крупным обновлениям алгоритма, оценивающего качество на нескольких уровнях, получение этой информации от Bing потенциально может помочь владельцам сайтов выявить и улучшить контент более низкого качества. А благодаря обширным основным обновлениям Google, обновлениям обзоров, а теперь и полезным обновлениям контента, изучение URL-адресов, помеченных как "низкокачественные", может помочь провести анализ - чего ж там не в порядке.

При анализе информации были обнаружены следующие типы страниц низкого качества:
Короткие и бесполезные посты с вопросами и ответами.
Пресс-релизы уровня Thin Content (малоценные, бесполезные, которые и не должны попадать в индекс из за г-но качества)
Устаревшие/короткие новости
Страницы со списком компаний
YMYL контент недостаточного качества.
Страницы с видео, заполненные рекламой.
Незаполненные профиля пользователя.
и т.д.

Отчет об индексировании — не единственное место, где можно выявить проблемы с качеством контента в инструментах Bing для веб-мастеров. Тоже самое можно увидеть и при проверке определенных URL-адресов и через Site Explorer (с фильтрацией по «URL-адресам с другими проблемами» - т.е. качеству контента). Что интересно, данные между этими инструментами могут не совпадать ( говорят что могут синхронизироваться в течении1–2 дня).

Итак, учитывая большой упор на «качество» со стороны основных поисковых систем, очень полезно покопаться и проанализировать URL-адреса, которые обнаруживают проблемы с качеством.

Совершенно понятно, что данные отчеты никогда не будут идеальными и на 100% верными, но это хорошая затравка для вебмастеров, пытающихся понять проблемы с качеством контента на своих сайтах.

ЗЫ.
заводите себе Бинг Вебмастер и удивитесь тому, насколько он требовательней Гугла.

#DrMax #SEO #Bing #Google #ЛысинаДжонаМюллера
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍7💯31🤔1
October 2023 Spam Update

Вы не ждали, они не спрашивали - идеальные токсичные отношения! 😆
Новый апдейт от Google! Долой спам из выдачи!

Пока можно выдохнуть, вытереть холодный пот и заниматься своими проектами дальше.
Языковая раскатка - турецкий, вьетнамский, индонезийский, хинди, китайский и другие языки. (Здесь должен быть обязательный комментарий Мюллера).

На всё про всё несколько недель Google Search Central Blog
#Google #SEOGoogle #MaxP
👍12😁6😱5👀1
🔥 Как я на днях совершенствовал контент

Поскольку я крайне ленив, то решил разработать усовершенствованную методу оптимизации контента, которую успешно применил на днях, затратив при этом минимум времени (по сравнению с прошлыми методами). Распишу пошагово.

1. Подготовка данных
Лезу в GSC-Эффективность, отбираю страницы с большим кол-вом показов и малым кол-вом кликов. Убеждаюсь, что дело не в неоптимизированных мета-заголовках / описаниях (хотя их тоже будем оптимизировать), не в переписанном сниппете в органике. Далее выдираю все ключи из отчета с большим числом показов и малым кол-вом кликов. Можно ориентироваться и на позиции, чтоб они были поближе к топу. Все индивидуально. Беру штук 40-50 таких перспективных ключей.

После этого лезу в Семраш и добираю еще трафиковых и/или перспективных ключей.

2. Работа с Клавдией.
Работаю с Клавдией, так как она на 1 запрос выделяет то ли 10 тыс, то ли 100 тыс токенов ( в отличии от 2000 у чатгпт). В общем нет проблем с размером обрабатываемой информации. Не забываем, что для работы нужен VPN.
Итак, стартуем новый чат.
Беру контент из ТОП-3 по основным запросам, последовательно пихаю в Клавдию, прошу запомнить контент и вычленить основные ключи из оного. Применяю стандартный, единый промпт для всех конкурентов. Ключи закидываю в общий список.

3. Кластеризация
По завершению предыдущего шага, вычурным промптом прошу Клавдию кластеризировать ключи и подсовываю полный список. Проверяю ключи/ кластера (просматриваю, если нужно правлю).

4. Доработка исходного контента
Скармливаю свой контент Клавдии, скармливаю кластера/ключи и прошу (опять таки изысканным промптом слов на 200-300) доработать контент создавая новые подразделы согласно неиспользуемых кластеров и расширить уже существующий контент новыми ключами и фактами на их основе (факты дерутся из конкурентов, контент которых мы попросили запомнить на этапе 1). Ключи предлагаю склонять/спрягать/ расширять если это необходимо.
Прошу (если нужно) изменить тональность нового контента.

5. Проверяю контент
Как правило, Клавдия ленится и практически всегда не использует полностью все нужные кластера (не говоря о ключах). Вот тут немного ручной работы. Нужно попинать Клавдию, указав на неиспользованные кластера, а то и важные ключи и попросить еще больше расширить контент. Генерируем еще раз контент.

6. Вычитка контента
Вычитываем контент. Тут надо быть экспертом, чтобы сходу находить несуразности и править/удалять их (если они есть). Это очень важный этап.

7. Заливаем контент на сайт

Собственно что сказать, контент получается более ярким, насыщенный фактами, более экспертный, использующий значительное кол-во доказательств. В общем мне нравится. Посмотрим как Гугл отработает с новым контентом.

Промпты приводить не буду, ибо они обширны и дюже специфические. Придумаете сами - это не проблема.

Пользуйтесь, пока Амазон Клавдию не испортил.

ЗЫ:
кофий практически закончился

#DrMax #контент #II
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍54😁1
🔥 Анализ обновления полезного контента Google (сентябрь 2023 года)

Сентябрьское обновление полезного контента (оно же Helpful Content Update оно же HCU) – уже третья попытка Гугла избавиться от засилия некачественного, бесполезного, мусорного контента в выдаче.

Ко мне обратились десятки владельцев сайтов с просьбой помочь восстановиться в выдаче и вернуть утерянный трафик.

Проанализировав некоторые из представленных сайтов я пришел к выводу, что HCU это не только про некачественный контент, но и про убогие интерфейсы, стремление проиндексировать все страницы фильтров, запутанную и нелогичную навигацию – то есть крайне отвратительное взаимодействие с пользователями. По простому – проблемы с UX.

На многих сайтах, непосредственно контент был неплох. Видно, что писан с душой и старанием, особых ошибок с EEAT нет, но при этом сентябрьский HCU прибил трафик.

Отбрасывая всю техничку (естественно, что её стоит вылизывать и улучшать постоянно), отбрасывая бесполезные Core Web Vitals и учитывая пояснения выданные Гуглом в апреле ( после второй иттерации HCU), становиться понятно, что пользователю просто-напросто некомфортно на таком сайте. И именно с понимания этого и стоит рыть дальше.

Для начала читаем вот это а потом изучаем вот это и понимаем, что UX тут явно замешан, ибо: "система ранжирования по качеству контента, как и наша основная система ранжирования, в определенной степени учитывает сигналы, говорящие об удобстве страницы".

Однако это не значит, что только UX может привести к потере трафика. Вовсе нет. Тут может быть целый букет разнообразных проблем. Но добавление этой информации в документацию по полезному контенту и наблюдение за упавшими проектами, которые мне выдали на разбор, и наблюдение за проблемами с UX на них заставляет думать о взаимосвязи с этими факторами.

Отдельно стоит сказать о сайтах, размещающих рекламу на своих страницах. Наблюдал на некоторых припавших проектах дикое засилие рекламы, которую пихают куда угодно в огромном количестве. Говорить о хорошем UX тут не приходится.

Друзья, если вы размещаете рекламу на своих страницах – откройте ваш сайт на мобильнике и походите по страницам. Перекрытие экрана баннерами, какие то самозапускающиеся видео, могучая реклама выше сгиба (первого экрана) – не удивительно, что Гугл понижает такие сайты в выдаче.

У одних товарищей обнаружил, что оверлей от рекламы перекрывает полностью экран и отключить его невозможно. Вот и приплыли. Естественно траф припал.

В целом, вот порядок проверки сайта после падения:
1. Проверяем /правим полностью техничку
2. Проверяем/правим UX
3. Сносим рекламу
4. Удаляем Thin Content
5. Проверяем/правим контент
6. Проверяем EEAT факторы

Ну и посколь сейчас идет спам апдейт – проверяем ссылочное.

Работа не быстрая, например я на проверку одного небольшого проекта затратил 2 недели, написал отчет около 100 страниц и сверстал 20+ приложений. И все это направлено на правку сайта. Которое тоже займет немало времени.

Но ежели есть желание восстановить трафик – то заниматься этим нужно.

А пока почитайте офф документацию о том, как нужно вставлять рекламу, чтоб она не влияла на ранжирование очень сильно.

#DrMax #Google #HCU #ранжирование
Please open Telegram to view this post
VIEW IN TELEGRAM
👍316
📕 Факторы ранжирования 2023

Вышла бесплатная книженция по факторам ранжирования от SEJ. Ну что сказать. Есть что почитать, над чем задуматься.

Но в то же время не стоит все воспринимать всерьез- постоянные оговорки типа мы точно не знаем, но гугловцы говорят, при этом, скорей всего, фиг оно заработает, но мож и работает но не для страницы а для домена, при этом гугловцы молчат, но Мюллер вещает и пр.

В целом изучайте, чтоб не возникали вопросы по факторам ранжирования в представлении западных специалистов.

Вот здесь находится урезанная версия , сортируемый список по факторам. Возможно, он более удобен чем книга.

Скачать книгу можно здесь.

В общем обязательно для прочтения и переосмысления.

#DrMax #SEJ #RankingFactors #FreeBook
👍29🔥6🤔21
👋 Новости про Клавдию (claude.ai)

Пару раз уже писал в комментариях, но видимо многие пропустили.

Тем у кого проблема с регистрацией аккаунта: на плати появились кренделя, которые делают фри аккаунты - рублей за 50-100. Они есть в списке том, что в закрепе болтается.

Кому не хватает фришки - то регайте 2 аккаунт. PRO от Free сейчас отличается только в 5 раз большим числом токенов на период.

Есть наработанные хитрости при работе с Клавдией:

Если быстро кончаются лимиты: Каждую новую тему, не связанную со старой, запускайте в новом чате. Например, как только закончили с 1 темой и приступили ко 2, не связанной с первой - сразу же делайте новый чат. Так вы будете экономить лимиты, ибо Клавдия в любой беседе перечитывает свой чат с самого начала ( на том и строится точечное обучение Клавдии при разговоре на 1 тему). Не стоит несвязанные вопросы решать в 1 чате.

Кстати, максимальная длина приглашения (то что вы пишите), которую может обработать Клавдия (контекстное окно) в настоящее время составляет ~75 000 слов/~100 000 токенов/~340 000 символов Юникода.

Пользуйтесь.

#DrMax #Claude #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
22👍11
2025/07/08 23:03:51
Back to Top
HTML Embed Code: