⚙️ Расчет релевантности сайта ключевому слову.
Наши коллеги выкатили интересный инструмент, позволяющий спроецировать запрос в 512-мерное векторное пространство, затем через косинусное сходство сравнивает с каждым документом ТОПа (и вашего сайта) и преобразовывает результат в двумерное пространство.
Вот полное описание принципа работы инструмента.
Интересные выводы по примеру в статье - ежели релевантности достаточно, при этом сайт не в ТОПе, тогда подбавим ссылок и выйдем в ТОП ))))
Вот ссылка на сам инструмент. Если вашего сайта (буржуинского) нет в ТОП10, то по окончании расчетов добавите его в новом поле и посмотрите как он соотносится с ключевым словом.
На скрине потестил инструмент на ключе EEAT. Как видим, только 3 сайта (отметил стрелками) перекрывают запрос (черный кружок) . Остальные не дотягивают до запроса, но берут своё за счёт траста (и ссылочного в том числе).
Очень интересно )))
#DrMax #Relevance
Наши коллеги выкатили интересный инструмент, позволяющий спроецировать запрос в 512-мерное векторное пространство, затем через косинусное сходство сравнивает с каждым документом ТОПа (и вашего сайта) и преобразовывает результат в двумерное пространство.
Вот полное описание принципа работы инструмента.
Интересные выводы по примеру в статье - ежели релевантности достаточно, при этом сайт не в ТОПе, тогда подбавим ссылок и выйдем в ТОП ))))
Вот ссылка на сам инструмент. Если вашего сайта (буржуинского) нет в ТОП10, то по окончании расчетов добавите его в новом поле и посмотрите как он соотносится с ключевым словом.
На скрине потестил инструмент на ключе EEAT. Как видим, только 3 сайта (отметил стрелками) перекрывают запрос (черный кружок) . Остальные не дотягивают до запроса, но берут своё за счёт траста (и ссылочного в том числе).
Очень интересно )))
#DrMax #Relevance
👍23🔥7
🔝 [Эксперимент] Тестирование правила First Link Priority
В стародавние времена Гугл при обнаружении нескольких ссылок с одной страницы на другую страницу (или домен) передавал PR по всем ссылкам и учитывал все анкоры. Потом Гугл резко прекратил это и экспериментаторы выяснили, что теперь Гугл передает вес только с одной ссылки, зачастую с первой, встреченной в контенте (не в навигации), а с остальных ссылок утекает в небытие. Это и было названо правилом First Link Priority.
Пытливые умы оптимизаторов на этом не остановились и продолжили эксперименты. И к своему удовольствию обнаружили, что если поставить сначала ссылку с изображения, а затем текстовую ссылку - то PR и анкорный текст передается и с ссылки с изображения, учитывая alt-текст в виде анкора и с текстовой контентной ссылки (первой). Таким образом, стало возможно увеличить пропускную способность донора в плане передачи ссылочного сока и разнообразить ссылающиеся анкоры. И это было хорошо и правильно.
После этого долгое время ни о каких экспериментах слышно не было. И вот сейчас наш коллега выкатил новое исследование на эту тематику.
Выводы эксперимента таковы:
✅ из текстовых контентных ссылок по прежнему учитывается только одна
✅ как правило, это первая ссылка
✅ ссылка с изображения также передает вес и анкорную составляющую (alt-текст в виде анкора)
✅ расположение изображения с ссылкой теперь не имеет значения.
Отсюда умозаключения:
✅ на доноре по прежнему используем только 1 текстовую исходящую ссылку в контенте на 1 страницу (при перелинковке) или на 1 домен (при линкбилдинге).
✅ текстовую ссылку желательно запихать повыше, до линии сгиба
✅ используем вторую ссылку с изображения с правильно прописанным alt-текстом, который не должен совпадать с анкором текстовой ссылки.
✅ при совместном использовании текстовой ссылки и ссылки с картинкой - вдвое увеличиваем анкорное разнообразие и передаваемый ссылочный сок.
Изучайте и пользуйтесь
#DrMax #SEO #Links
В стародавние времена Гугл при обнаружении нескольких ссылок с одной страницы на другую страницу (или домен) передавал PR по всем ссылкам и учитывал все анкоры. Потом Гугл резко прекратил это и экспериментаторы выяснили, что теперь Гугл передает вес только с одной ссылки, зачастую с первой, встреченной в контенте (не в навигации), а с остальных ссылок утекает в небытие. Это и было названо правилом First Link Priority.
Пытливые умы оптимизаторов на этом не остановились и продолжили эксперименты. И к своему удовольствию обнаружили, что если поставить сначала ссылку с изображения, а затем текстовую ссылку - то PR и анкорный текст передается и с ссылки с изображения, учитывая alt-текст в виде анкора и с текстовой контентной ссылки (первой). Таким образом, стало возможно увеличить пропускную способность донора в плане передачи ссылочного сока и разнообразить ссылающиеся анкоры. И это было хорошо и правильно.
После этого долгое время ни о каких экспериментах слышно не было. И вот сейчас наш коллега выкатил новое исследование на эту тематику.
Выводы эксперимента таковы:
✅ из текстовых контентных ссылок по прежнему учитывается только одна
✅ как правило, это первая ссылка
✅ ссылка с изображения также передает вес и анкорную составляющую (alt-текст в виде анкора)
✅ расположение изображения с ссылкой теперь не имеет значения.
Отсюда умозаключения:
✅ на доноре по прежнему используем только 1 текстовую исходящую ссылку в контенте на 1 страницу (при перелинковке) или на 1 домен (при линкбилдинге).
✅ текстовую ссылку желательно запихать повыше, до линии сгиба
✅ используем вторую ссылку с изображения с правильно прописанным alt-текстом, который не должен совпадать с анкором текстовой ссылки.
✅ при совместном использовании текстовой ссылки и ссылки с картинкой - вдвое увеличиваем анкорное разнообразие и передаваемый ссылочный сок.
Изучайте и пользуйтесь
#DrMax #SEO #Links
👍60🔥10❤5👏3🤔1
🥸 Google об идеальном количестве товаров на странице для улучшения ранжирования
На днях великого Джона Мюллера (потрясателя основ и сущностей) вопросили - сколько выводить товаров на странице, чтобы Гугл начал лучше её ранжировать.
Вопрос отличный, так как известно, что ранжирование страницы при выводе 20 товаров отличается от ранжирования страницы, где выводятся 2 товара или там 40 товаров.
Хитрый Мюллер не ответил прямо на поставленный вопрос и начал уговаривать вопрошающего провести тестирование, дабы увязать число выводимых товаров с удобством для пользователя.
То есть в очередной раз Мюллер подтвердил наличие и значимость пользовательских факторов ранжирования. Также он косвенно подтвердил значимость количества выводимых товаров на странице для ранжирования (при прочих одинаковых факторах).
А идея с A/B тестированием, хоть и не нова, но вполне разумна.
Полный текст статьи тут.
#DrMax #SEO #Google #Ranking #Мюллер_в_канале
На днях великого Джона Мюллера (потрясателя основ и сущностей) вопросили - сколько выводить товаров на странице, чтобы Гугл начал лучше её ранжировать.
Вопрос отличный, так как известно, что ранжирование страницы при выводе 20 товаров отличается от ранжирования страницы, где выводятся 2 товара или там 40 товаров.
Хитрый Мюллер не ответил прямо на поставленный вопрос и начал уговаривать вопрошающего провести тестирование, дабы увязать число выводимых товаров с удобством для пользователя.
То есть в очередной раз Мюллер подтвердил наличие и значимость пользовательских факторов ранжирования. Также он косвенно подтвердил значимость количества выводимых товаров на странице для ранжирования (при прочих одинаковых факторах).
А идея с A/B тестированием, хоть и не нова, но вполне разумна.
Полный текст статьи тут.
#DrMax #SEO #Google #Ranking #Мюллер_в_канале
❤15🔥3
Компания Hugging Face выпустил чат-бот HuggingChat, которого уже назвали «альтернативой ChatGPT с открытым исходным кодом». Он доступен через веб-интерфейс даже в России (но желающих пообщаться так много, что чат-бот может отвечать не сразу и жаловаться на трафик), и его можно интегрировать в приложения через API.
AI-модель, управляющая HuggingChat, была разработана в рамках проекта Open Assistant, организованного LAION. Эта немецкая некоммерческая организация ответственна за создание набора данных, на котором была обучена модель Stable Diffusion, преобразующая текст в изображение.
Разработчики HuggingChat хотят «создать помощника будущего, способного не только писать электронные письма, но и выполнять значимую работу, использовать API, динамически исследовать информацию и многое другое, с возможностью персонализации и расширения кем угодно».
Исследователи критиковали выпуск моделей с открытым исходным кодом, утверждая, что они способны ошибаться и могут использоваться в злонамеренных целях, например в создании фишинговых электронных писем. Но их оппоненты возражали, что и закрытые коммерческие модели, такие как ChatGPT, иногда оказываются несовершенными в работе, даже со всеми их фильтрами и системами модерации.
Потестил - что то криво по-русски говорит.
#DrMax #ChatGPT #HuggingChat
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤2🔥2
В рамках разработки стратегии линкбилдинга возникает необходимость прикинуть, какой примерно объем ссылок строить. Допустим, сколько будет нужно ссылочного для продвижения 10 запросов в ТОП3.
Что я делаю:
1. Снимаю ТОП-10 выдачи по каждому запросу
2. Подмешиваю конкурентов, которых нужно обязательно учесть
3. Получаю, сколько каждый домен имеет ссылочных доменов, сколько анкоров он использует. (любой сервис типа семраша)
4. Вычисляю среднее арифметическое и среднее геометрическое по каждому показателю.
6. Делю средние домены на средние анкоры и получаю разброс, сколько ссылающихся доменов нужно для продвижения 1 анкора.
Замечания:
1. Полученная цифра - это продвижения ключа в среднем, без разбора на ВЧ/СЧ/НЧ и места в ТОП. Потому нужно вводить поправки (например средний СЧ ключ в тематике аптек раз в 5 сложней вывести, чем НЧ ключ). Чем меньше в тематике СЧ/ВЧ ключей, тем коэффициенты выше.
2. Использование средней геометрической гораздо предпочтительней, так как сглаживает мощные разбросы в количестве ссылающихся доменов для лидеров и аутсайдеров ТОПа
3. Ну а бюджет примерно прикидываем после анализа средней стоимости лучших доноров для данной тематике на биржах. СМ скрин
Но самое важное - планы никогда не совпадают с реальностью. Поэтому нужно не забывать отслеживать позиции продвигаемых ключей. Раз в неделю, чаще не нужно.
И очень важно - недофинансирование ссылочных бюджетов всегда ведет к краху. Лучше совсем не браться за продвижения, чем потратив сумму какую то задвинуть ключ с 80-й на 30-ю позицию. Толку ноль.
Потому рассчитывайте свои возможности и не беритесь за продвижение 100500 ключей сразу.
Вот такие премудрости ))))
Если есть идеи по улучшению расчетов - пишите в комментах.
#DrMax #линкбилдинг #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46🔥5❤1
Хотел вопросить насчет контента канала. Что нужно улучшить, переделать, нарастить и пр.
Final Results
19%
Контент кул. Ничего не менять
30%
Нужно больше про техничку
26%
Нужно больше про линкбилдинг
22%
Нужно больше про семантику
21%
Нужно больше про EEAT
10%
Нужно больше про качество проектов
4%
Нужно больше про Мюллера (великого и ужасного)
8%
Нужно больше про маркетинг
42%
Нужно больше про фишки и секреты (которые и не секреты вообще)
5%
Контент - фигня: всё менять
👍21👀4
Совершая покупки, потребители хотят знать общую стоимость приобретаемых товаров, включая стоимость доставки. Скорость доставки, стоимость и политика возврата являются основными факторами, учитываемыми покупателями при покупке товаров в Интернете. Часто покупатели не завершают покупку из-за слишком высокой стоимости доставки, недостаточно быстрой скорости доставки или нечеткой информации о возврате. Поэтому четкое отображение информации о доставке и возврате товара в самом начале имеет решающее значение для успеха ваших онлайн-продаж.
Google Поиск уже может отображать цены на товары, теперь ваши товары смогут отображать информацию о доставке и возврате в Google Поиске в США, а в скором времени и в других странах.
Чтобы отображать информацию о доставке и возврате в результатах поиска продуктов, добавьте информацию с помощью структурированной разметки данных, аналогично тому, как вы разметили свои продукты. Если вы уже отправили информацию о своих товарах в Google в Merchant Center, Google будет использовать информацию о доставке и возврате из Merchant Center таким же образом.
Search Console облегчает понимание того, когда в ваших продуктах отсутствует эта информация. Если у ваших товаров нет информации о доставке и возврате или информация о доставке и возврате была добавлена неправильно, вы получите предупреждения в отчете Merchant Listings и в уведомлениях по электронной почте.
Новость в офф источнике.
P.S.
Доделывайте микроразметку, пока есть время и будете чуть ярче выглядеть сниппетом в серпе. Полезная штукенция.
#DrMax #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6
[Решено] Сгорел монитор.
Сто пудов кондеры попухли у БП. Лечится понятно как. Но просто монику уже лет 15 - может и на покой пора.
У супруги забрал на время....
Что у нас сейчас из мониторов посоветуете - а то их там 100500 штук
Прикупил монитор. Спасибо за советы! Очень помогли!
З/Ы (LG 24GN600-B. Из имеющегося в наличии - единственное что то более-менее приемлемое)
#DrMax
Сто пудов кондеры попухли у БП. Лечится понятно как. Но просто монику уже лет 15 - может и на покой пора.
У супруги забрал на время....
Что у нас сейчас из мониторов посоветуете - а то их там 100500 штук
Прикупил монитор. Спасибо за советы! Очень помогли!
З/Ы (LG 24GN600-B. Из имеющегося в наличии - единственное что то более-менее приемлемое)
#DrMax
😁5🤔3👏2👀2🤯1
🌀О тематических кластерах.
Общаясь с товарищами, понял, что многие представляют себе тематические кластеры как некую обособленную часть сайта, состоящую из нескольких страниц, которые выталкивают вверх одну родительскую страницу путем тематической перелинковки. В принципе это верно, но это всего лишь один из вариантов организации семантического кластера.
Зачастую, тематический кластер проще организовать на одной странице. Это стало возможным после того, как гугл научился ранжировать 2-3 года назад отдельные части страниц и засовывать эти отдельные части в выдачу.
Для правильной организации такого кластера необходимо разбить страницу на отдельные смысловые зоны и группировать контент по теме. Каждая тематическая зона должна иметь свой заголовок (h2-h3) и (желательно) обернута в отдельный блок с уникальным ID.
Контент для главного запроса расположим повыше, подзапросы, организующие отдельные смысловые зоны – пониже.
Отдельные части контента на странице должны быть связаны между собой с помощью перелинковки. Каждая смысловая часть должна иметь ссылки на другие части страницы, чтобы усилить их связь и повысить релевантность. Оглавление также должно быть организовано в виде разбавленных анкорных ссылок на отдельные части страницы (с использованием ID).
Каждая смысловая часть страницы должна отвечать на 1-2 запроса и быть от 200 до 300 слов (оптимально - больше).
Как правило, тематические кластера организуют вокруг 5-7 запросов, поэтому весь контент (включая основную часть) будет 1500-2000 слов.
На отдельные части страницы строим внешнее ссылочное с использованием якорей в URL на отдельные ID (используя разные анкоры для разных частей контента).
Выводы:
1. Разбивайте страницу на отдельные смысловые зоны и группируйте контент по теме.
2. Оптимизируйте каждую смысловую часть страницы под конкретный запрос.
3. Перелинковывайте отдельные части контента на странице, чтобы повысить их связь и релевантность.
4. Организуйте оглавление в виде ссылок на отдельные части страницы.
5. Организуйте линкбилдинг на страницу с использованием якорей
Может чего и упустил – но вот такая организация семантического кластера выручает в отдельных случаях.
#DrMax #SEO #GoogleCoreUpdate
Общаясь с товарищами, понял, что многие представляют себе тематические кластеры как некую обособленную часть сайта, состоящую из нескольких страниц, которые выталкивают вверх одну родительскую страницу путем тематической перелинковки. В принципе это верно, но это всего лишь один из вариантов организации семантического кластера.
Зачастую, тематический кластер проще организовать на одной странице. Это стало возможным после того, как гугл научился ранжировать 2-3 года назад отдельные части страниц и засовывать эти отдельные части в выдачу.
Для правильной организации такого кластера необходимо разбить страницу на отдельные смысловые зоны и группировать контент по теме. Каждая тематическая зона должна иметь свой заголовок (h2-h3) и (желательно) обернута в отдельный блок с уникальным ID.
Контент для главного запроса расположим повыше, подзапросы, организующие отдельные смысловые зоны – пониже.
Отдельные части контента на странице должны быть связаны между собой с помощью перелинковки. Каждая смысловая часть должна иметь ссылки на другие части страницы, чтобы усилить их связь и повысить релевантность. Оглавление также должно быть организовано в виде разбавленных анкорных ссылок на отдельные части страницы (с использованием ID).
Каждая смысловая часть страницы должна отвечать на 1-2 запроса и быть от 200 до 300 слов (оптимально - больше).
Как правило, тематические кластера организуют вокруг 5-7 запросов, поэтому весь контент (включая основную часть) будет 1500-2000 слов.
На отдельные части страницы строим внешнее ссылочное с использованием якорей в URL на отдельные ID (используя разные анкоры для разных частей контента).
Выводы:
1. Разбивайте страницу на отдельные смысловые зоны и группируйте контент по теме.
2. Оптимизируйте каждую смысловую часть страницы под конкретный запрос.
3. Перелинковывайте отдельные части контента на странице, чтобы повысить их связь и релевантность.
4. Организуйте оглавление в виде ссылок на отдельные части страницы.
5. Организуйте линкбилдинг на страницу с использованием якорей
Может чего и упустил – но вот такая организация семантического кластера выручает в отдельных случаях.
#DrMax #SEO #GoogleCoreUpdate
👍38❤3🔥2👏1
🛠 Линкбилдинг - интересные вопросы.
Постоянно мне задают несколько однотипных вопросов по ссылкостроению. Сейчас накидаю, что обычно отвечаю.
Вопрос № 1. Как быстро проиндексировать ссылку у донора?
Как правило, товарищи слышали про разнообразные Tier1 и Tier2 уровни и хотят на своего донора понастроить говноссылок с профилей или там с мертвых форумов. Ну чтобы "усилить" передаваемый ссылочный вес.
Я всегда задаю таким товарищам пару вопросов.
Первое - вы представляете, какой тематический хлам накопиться на странице - доноре? Ссылки с ядовитых ресурсов может быть и добавят ссылочного сока (что вряд ли - ибо он рассосется по внутренней перелинковке), но остальные десятки параметров, передаваемые ссылкой (в том числе и тематика) будет ниже плинтуса.
Второе - вы хотели бы чтобы на ваш сайт строили такие говноссылки? Наверняка нет. И если вы строите с хорошего донора, вложившись немалыми деньгами (а с плохих нет смысла строиться), то почему вы считаете, что владелец этого донора не снесет вашу ссылку, в ответ на то что вы понастроили 100500 говноссылок на страницу-донора?
Если вы строите какие то там уровни - то делайте это правильно, пусть с дешевых доноров, но статьями, с правильным контентом и правильными анкорными ссылками. А теперь попробуйте это масштабировать на 100 или 200 ссылок ))))
Есть замечательнейший вариант быстрой и качественной индексации и мощного усиления ссылочного веса с донора. Но сначала я расскажу про давнее исследование о "тени ссылки".
Наши коллеги всегда задавались интересным вопросом как долго будет работать удаленная ссылка. Путем экспериментов было выяснено, что Гугл пересчитывает веса ссылок не молниеносно, а при удалении ссылки помнит о ней и передает вес в течении относительно длительного периода. По разным экспериментальным данным - от месяца до полугода. Этот интересный результат - получение профита с отсутствующей ссылки и называли "тенью ссылки".
Вернемся к нашему донору. Всегда просите владельца донора проставить ссылочку на вашу размещенную статью (из нового предложения) на морде сайта и закрепить её. Пусть вы несколько переплатите за такое размещение. Но при этом:
1. Ссылка с донора (с вашей статьи) проиндексируется максимально быстро
2. Ссылка из вашей размещенной статьи на ваш сайт-акцептор будет передавать практически максимально возможный вес (так как ваша статья будет находиться в 1 клике от главной)
3. Даже когда хозяин сайта уберет ссылку с морды на вашу статью - вес вашей статьи (и передаваемый вес ссылки) просчитается не сразу и ваша ссылка в течении еще какого то времени (месяц-два а то и три ) будет работать в максимальном режиме.
Тогда как вес передаваемый ссылкой из вашей статьи будет со временем затухать (например и из за того, что статья будет уползать всё дальше в ленте новостей и растет количество кликов от главной), вес ссылки со статьи, на которую ссылаются с главной - будет максимально большим.
И всегда, в последствии, при повторном размещении у хозяина сайта можно выбить скидку)))) Как постоянному клиенту с доп. заказами.
——————
Если интересно - могу написать небольшой цикл с ответами на вопросы, которые мне постоянно задают при заказе стратегии линкбилдинга.
Думается это будет интересно - не все ж про выходки Мюллера писать)))
#DrMax #SEO #линкбилдинг
Постоянно мне задают несколько однотипных вопросов по ссылкостроению. Сейчас накидаю, что обычно отвечаю.
Вопрос № 1. Как быстро проиндексировать ссылку у донора?
Как правило, товарищи слышали про разнообразные Tier1 и Tier2 уровни и хотят на своего донора понастроить говноссылок с профилей или там с мертвых форумов. Ну чтобы "усилить" передаваемый ссылочный вес.
Я всегда задаю таким товарищам пару вопросов.
Первое - вы представляете, какой тематический хлам накопиться на странице - доноре? Ссылки с ядовитых ресурсов может быть и добавят ссылочного сока (что вряд ли - ибо он рассосется по внутренней перелинковке), но остальные десятки параметров, передаваемые ссылкой (в том числе и тематика) будет ниже плинтуса.
Второе - вы хотели бы чтобы на ваш сайт строили такие говноссылки? Наверняка нет. И если вы строите с хорошего донора, вложившись немалыми деньгами (а с плохих нет смысла строиться), то почему вы считаете, что владелец этого донора не снесет вашу ссылку, в ответ на то что вы понастроили 100500 говноссылок на страницу-донора?
Если вы строите какие то там уровни - то делайте это правильно, пусть с дешевых доноров, но статьями, с правильным контентом и правильными анкорными ссылками. А теперь попробуйте это масштабировать на 100 или 200 ссылок ))))
Есть замечательнейший вариант быстрой и качественной индексации и мощного усиления ссылочного веса с донора. Но сначала я расскажу про давнее исследование о "тени ссылки".
Наши коллеги всегда задавались интересным вопросом как долго будет работать удаленная ссылка. Путем экспериментов было выяснено, что Гугл пересчитывает веса ссылок не молниеносно, а при удалении ссылки помнит о ней и передает вес в течении относительно длительного периода. По разным экспериментальным данным - от месяца до полугода. Этот интересный результат - получение профита с отсутствующей ссылки и называли "тенью ссылки".
Вернемся к нашему донору. Всегда просите владельца донора проставить ссылочку на вашу размещенную статью (из нового предложения) на морде сайта и закрепить её. Пусть вы несколько переплатите за такое размещение. Но при этом:
1. Ссылка с донора (с вашей статьи) проиндексируется максимально быстро
2. Ссылка из вашей размещенной статьи на ваш сайт-акцептор будет передавать практически максимально возможный вес (так как ваша статья будет находиться в 1 клике от главной)
3. Даже когда хозяин сайта уберет ссылку с морды на вашу статью - вес вашей статьи (и передаваемый вес ссылки) просчитается не сразу и ваша ссылка в течении еще какого то времени (месяц-два а то и три ) будет работать в максимальном режиме.
Тогда как вес передаваемый ссылкой из вашей статьи будет со временем затухать (например и из за того, что статья будет уползать всё дальше в ленте новостей и растет количество кликов от главной), вес ссылки со статьи, на которую ссылаются с главной - будет максимально большим.
И всегда, в последствии, при повторном размещении у хозяина сайта можно выбить скидку)))) Как постоянному клиенту с доп. заказами.
——————
Если интересно - могу написать небольшой цикл с ответами на вопросы, которые мне постоянно задают при заказе стратегии линкбилдинга.
Думается это будет интересно - не все ж про выходки Мюллера писать)))
#DrMax #SEO #линкбилдинг
👍67🔥5🆒2💯1
Как утверждают некоторые оптимизаторы, сервис дизавуации уже не работает. Если прислушаться к великому Джону Мюллеру, то сервис работает, но в большинстве случаев он вреден - ибо оптимизаторы не умеют им пользоваться. Есть отдельное мнение, что Google автоматически отклоняет спам-ссылки и сервис не нужен. Ну есть и еще 100500 иных мнений о дизавуации ссылок.
Интересный пример привел наш буржуинский коллега Benjamin Golden о работе сервиса дизавуации.
В январе 2023 года он дезавуировал 45% всех обратных ссылок и через месяц увеличил органический трафик на 135%…
История такова: у одной коммерческой компании припал трафик более чем на 50%. Он провел аудит и понял, что у конторы не только отлично настроен EEAT, но и феноменальный контент. При этом, как оказалось в наличии имеется более 500 тысяч спамных обратных ссылок - форумы (привет любителям КРАУДА), порно ссылки и прочий спам. После анализа ссылок, создания и отправки файла дезавуирования сайт начал восстанавливаться. Сегодня сайт работает лучше, чем когда-либо.
Его рассказ (и комментарии к нему) подтверждают несколько истин, про которые я давно рассказывал, но напомню:
1. Говноссылки не отображаются в GSC (по большей степени), но они участвуют в общей оценке ссылочной массы.
2. Когда набирается критическая масса говноссылок (лет 5 назад гугловцы говорили о 50 %), то включаются алгоритмические штрафы.
3. Файл дизавуации нужно строить, собирая ссылочное сторонними сервисами (в примере был Ахрефс)
4. Крауд маркетинг (спам по мертвым форумам и профилям) - вселенское зло.
И обратите внимание на ссылочный профиль компании - если они отклонили 500 тыс ссылок и это составило 45% - то даже оставшиеся 550 тыс относительно хороших ссылок не смогли перебороть спам. Возможно Гугл и старается отсеять говноссылки, но зачастую это у него не выходит и приходиться пользоваться сервисом дизавуации.
Вот такие вот дела. А вы говорите нейронные сети ....
#DrMax #SEO #disavows #spammy_backlinks #Мюллер_в_канале
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥5❤3👏1🤔1
Итоги голосования и новая телеконференция
Давайте подведем итоги голосования. Всего приняло участие 677 товарищей, при этом кол-во просмотров 3188. Заленились, друзья, тыкнуть в опросник? Или мнение не выработали? Ну в принципе тенденции и так ясны.
Нужно больше про техничку + ссылкостроение и как можно больше фишек и тонкостей открывать.
И лишь 18 % указали, что менять особо ничего не надо на канале.
В принципе понятно.
Сюда же.
24 мая у Миши Шакина состоится очередная телеконференция с моим участием. Раз хотите техничку - оно будет )))) Ну и фишек несколько новых/старых покажу.
Так что на первую половину дня ничего не планируйте и готовьте вопросы для традиционной рубрики вопросов и ответов.
Кстати, меня почти уговорили провести закрытый курс лекций (обучение) для некоторых отдельных товарищей. Если всё сложиться - постараюсь выполнить это в июне. В каком формате и как всё организовать - пока не думал.
#DrMax #news
Давайте подведем итоги голосования. Всего приняло участие 677 товарищей, при этом кол-во просмотров 3188. Заленились, друзья, тыкнуть в опросник? Или мнение не выработали? Ну в принципе тенденции и так ясны.
Нужно больше про техничку + ссылкостроение и как можно больше фишек и тонкостей открывать.
И лишь 18 % указали, что менять особо ничего не надо на канале.
В принципе понятно.
Сюда же.
24 мая у Миши Шакина состоится очередная телеконференция с моим участием. Раз хотите техничку - оно будет )))) Ну и фишек несколько новых/старых покажу.
Так что на первую половину дня ничего не планируйте и готовьте вопросы для традиционной рубрики вопросов и ответов.
Кстати, меня почти уговорили провести закрытый курс лекций (обучение) для некоторых отдельных товарищей. Если всё сложиться - постараюсь выполнить это в июне. В каком формате и как всё организовать - пока не думал.
#DrMax #news
🔥34👍14😁3❤2🤬1
Техническое SEO, работа с GSC, устранение технических ошибок и совершенствование сайта техническими средствами - наиболее дешёвое и доступное средство наращивания трафика / конверсий / прибыли своими силами.
Собственно подобных скринов могу привести еще немало. Это, кстати из комментов к телеконференции про GSC у Миши Шакина.
Так что может быть и разумно упор в канале делать на техничку.
А еще у кого подобные результаты есть? Отпишитесь в комментах.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👏33🔥6👍4
Если не знаете чем занять себя на выходных/праздниках - подскажу. И от рутины отойдете и время с пользой проведете. Заниматься будем точечным наращиванием продаж/конверсий.
Суть такова: нам нужно найти транзакционные запросы, стоящие близко к ТОПу, обладающие значительными показами и при этом крайне низким CTR. После этого понять почему CTR настолько мал и повысить его (возможно заодно улучшив позиции).
1. Для каждой тематики есть свои транзакционные запросы. У кого то купить, продать что-то, у другого ремонт чего-то, у третьего подписаться или рассчитать что-то. Вот список наиболее общих составных частей транзакционных запросов:
(купить|куплю|покупка|скупка|продажа|продать|продам|заказать|заказ|приобрести|оплатить|оплата|аренда|арендовать|доставка|доставить|прокат|в кредит|рассрочка|бронирование|бронь|оформить|оформление|нанять|услуги|вызов|вызвать|подбор|подобрать|цена|стоимость|дорого|недорого|дешево|премиум|люкс|распродажа|дисконт|прайс|тариф|опт|оптовый|в наличии|бюджетный|скидки|скидочный|акции|акционный|срочно|быстро|сегодня|сейчас|зачас|рядом)2. Для работы используем GSC - отчет эффективность. Добавляем регулярный запрос, соответствующий регулярному выражению. И копируем в качестве аргумента список (вместе со скобками)
3. Справа вверху жмем "Экспортировать". Выгружаем в Excel. Сортируем по столбцу "показы" в порядке уменьшения. Включаем автофильтр и в столбце "Позиции" фильтруем, например, менее 15. В столбце CTR фильтруем, например, менее 1%
4. Отбираем наиболее привлекательный транзакционный запрос. Если ничего не нашлось (что вряд ли), расширяем диапазоны фильтрации
5. Отобранный запрос используем в новом отчете "Эффективность", чтобы найти страницу, который ранжируется по нему
6. Проверяем нет ли канибализации по этому запросу
7. Тут же переключаемся на закладку "Устройства" и смотрим, где преобладает запрос.
8. Выясняем, почему такой низкий CTR. Для этого, на преобладающем устройстве (мобила/десктоп) смотрим выдачу ТОП 3. Снимаем показатели: мета-заголовок, мета-описание, структура страницы, <h1>, разбивка на подразделы, наполнение контентом, графика, видео
9. Сравниваем со своей страницей и подгоняем под лидеров. У вас могут быть плохие сниппеты в выдаче - тогда пользователи будут опасаться заходить к вам. У вас может быть плохой/неполный контент - тогда посетители зайдут к вам и сразу же уйдут (Пого Стикинг), что будет постепенно "топить" в органике вашу страницу и ухудшать ранжирование. Могут быть и иные варианты.
10. Вносим исправления, расширяем контент, делаем перелинковку на страницу, прикупаем ссылку - другую с анкором, переписываем мета описания и т.д. Всё от ситуации зависит. После этого отдаем страницу на переиндексацию
Собственно весь анализ занимает 5-10 минут на запрос вместе с принятием решения, а порой и с исправлениями ситуации.
Если что то непонятно по работе с GSC - посмотрите телеконференцию, там разжевываю подобные примеры.
Хорошего вам развлечения!
P/S - приведенные приемы не отменяют планомерную работу над SEO сайта, а лишь разнообразят рутину и помогают увеличить профит проекта
P/P/S - подумалось, что это неплохая идея для SEO услуги - "Нахождение точек роста". Пользуйтесь )))))
#DrMax #SEO #техничка
Please open Telegram to view this post
VIEW IN TELEGRAM
👍47🔥17❤2
Наши коллеги провели исследование нескольких сервисов по XML и для вас теперь собрали всё в одном месте.
Скорость, особенности, цена/стоимость.
https://site-analyzer.ru/articles/xml-services-speed-compare/
Напомню, что у них есть ещё крутой софт, который постоянно обновляется, дополняется фишками – SiteAnalyzer. Подходит для сканирования небольших и средних проектов. Реальная помощь при поиске проблем и ошибок проекта, инструмент технического аудита. При изучении многостраничных миллионников - придётся немного пострадать. Впрочем, SEO – это уже осознанный мазохизм. 😂
Важно - пока soft бесплатный! Налетай, торопись - забирай софт зашибись!
#SEO #техничка
Скорость, особенности, цена/стоимость.
https://site-analyzer.ru/articles/xml-services-speed-compare/
Напомню, что у них есть ещё крутой софт, который постоянно обновляется, дополняется фишками – SiteAnalyzer. Подходит для сканирования небольших и средних проектов. Реальная помощь при поиске проблем и ошибок проекта, инструмент технического аудита. При изучении многостраничных миллионников - придётся немного пострадать. Впрочем, SEO – это уже осознанный мазохизм. 😂
Важно - пока soft бесплатный! Налетай, торопись - забирай софт зашибись!
#SEO #техничка
site-analyzer.ru
Сравнение 6 сервисов аренды XML-лимитов Яндекса и Google
В данной статье мы провели тест скорости 6 популярных сервисов аренды XML-лимитов Яндекса: XMLRiver, XMLProxy, XMLStock, Word Keeper, Majento и SERPRiver. Все сервисы работают через API Яндекс XML.
👍17🔥1
Пробежало у Миши Шакина. Он обнаружил интересный сервис для подбора свободных доменных имен по описанию.
Русский понимает.
Вон на скрине попросил подобрать мне имя для "онлайн сервиса по выращиванию лягушек для поставки во французские рестораны".
Выдало мне целый список довольно коротких и прикольных свободных доменных имен, например ToadTreats.com, что дословно можно перевести как "Жабьи лакомства" дот ком.
Попутно проверяет доступность оного названия в соцсетях, что тоже отлично.
В общем очень интересно. Побаловаться можно вот тут.
#DrMax #Domain
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🔥10😁1
В ближайшие месяцы Google выпустит новое обновление для системы полезного контента. Это обновление позволит Google Search "более глубоко понимать контент, созданный с личной или экспертной точки зрения" - уведомляет Гугл.
"Мы улучшаем то, как мы ранжируем результаты в Поиске в целом, уделяя больше внимания контенту с уникальными знаниями и опытом".
"Мы выпустим обновление этой системы, которое будет более глубоко понимать контент, созданный с личной или экспертной точки зрения, что позволит нам ранжировать больше такой полезной информации в Поиске".
Обновление полезного контента Google направлено на "контент, который, как представляется, был создан в первую очередь для ранжирования в поисковых системах, а не для помощи или информирования людей". Цель этого обновления алгоритма - помочь поисковикам найти "высококачественный контент". Google хочет поощрять более качественный и полезный контент, который был написан для людей и для помощи пользователям.
Обновление, наверняка, будет тесно увязано с SGE ( Search Generative Experience ) - системой генеративного ИИ, который будет встроен непосредственно в поиск Google (новая выдача органики).
Итак, новое обновление пока еще не вышло, но оно появится в "ближайшие месяцы".
Интересно, переплюнет ли это обновление пресловутые "медицинские апдейты" по количеству стонов от недобросовестных оптимизаторов ??? Посмотрим.
З/Ы кстати, правильная семантическая разметка основанная на сущностях позволяет хорошему контенту ранжироваться еще лучше. Но это уже другая история .....
#DrMax #Google #Content #EEAT
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22👏4😁2
Разработал и опробовал несколько интересных фишек при разработке стратегии линкбилдинга.
1. Собранные и прочеканные доноры теперь проверяются на пересечения с:
- GSC - так мы можем отсечь построения ссылок с тех доменов, на которых у нас уже есть ссылка. На самом деле повторно строить то можно, но через какой то срок (я считаю, что не менее года).
- всем пулом доноров (собранных в семраше/ахрефсе и иных инструментах) - это позволяет (при сравнении с ссылками в GSC) отсечь домены, которые не попадают в GSC и на которых строиться смысла нет (совсем).
2. Проверка доноров на повтор IP / С-блоков. Так отлеживаются сетки продавцов ссылок и (возможно) на них строить нельзя (надо смотреть иные показатели еще).
3. Проверка потенциальных доноров на возраст. Довольно опасно строить ссылки с 1-2 летних сайтов.
4. Для каждого потенциального донора приводится пример размещения конкурента. Дается URL (чтобы вы могли посмотреть оформление статьи и встраивание ссылки, да и просто ознакомиться с контентом), снимается title и description, рассчитывается вес страницы (в зависимости от глубины вложения, перелинковки), снимаются показатели исходящих ссылок и, главное, рассчитывается примерный вес, передаваемый ссылкой на сайт конкурента.
Не забываем про хитрый прием, позволяющий удваивать как ссылочный сок, так и текстовые составляющие ссылки, о котором я рассказывал ранее.
В целом, в отвалы уходит около половины потенциальных доноров (иногда и больше), а оставшиеся ранжируются по качеству.
5. Что касается самой стратегии, то опробовали кластерное продвижение. Т.е. если нужно вытолкнуть ВЧ запрос в ТОП, то подбираю выгодные / легкие анкоры не только для основной страницы, но и для некоторых страниц кластера (если он есть). Потестили с ребятами такое продвижение - оказалось довольно эффективным )))
Вот такие вот наработки.
Подробнее смотрите вот тут.
#DrMax #линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥5❤3
Друзья, многие из вас имеют сайты на WP. Так вот, пока остерегитесь обновляться до версии 6.2.1., если ваши темы или плагины используют шорткоды. И отключите автоматическое обновление!
В этой версии шорткоды были вырезаны, так как обнаружили уязвимость. Что вызывает критические сбои во многих плагинах. Сайты корявятся, расползаются или вообще не работают.
Вот ветка с обсуждением этой проблемы.
Есть заплатка, написанная некоторым умельцем, которая восстанавливается функционал шорткодов. Но оно того не стоит (наверное).
Лучше обождать с обновлением.
#DrMax #WordPress
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17👀3😁1🤯1