Telegram Web Link
⁉️ Прочитал и особенно удивился, услышав это от человека известного в нашей ниши, что внутреннего ссылочного веса не существует.

Я давно топлю, за то что внутренней перелинковкой надо заниматься, особенно заметен эффект на больших объемах

Мои аргументы за ссылочный вес следующие:
🟢Если владелец сайта не ставит внутренние ссылки на страницы, то для него они либо не важны, либо представляют малую ценность, т.е уже на этом этапе понятие "веса" появляется
🟢 Для хорошего ранжирования должно быть достаточно файла sitemap.xml, но из практики - ссылки из сайтмапа сначала попадают в индекс, а затем вылетают из него. После корректной перелинковки страниц внутри сайта они не только начинают индексироваться, но и сильно лучше ранжироваться.
🟢 Теговые страницы (фильтры) в ИМ начинают "работать" после получения на себя не только одной ссылки с категории, но и при перелинковки с карточек
🟢 Сайты с SILO структурой хорошо растут с самого старта, потому что естественным образом получается накачка весом родительских категорий через дочерние
🟢 Несмотря на явные бонусы в выдаче самому себе, Яндекс в своих сервисах активно перелинковку между важными страницами. Пример - Яндекс.Маркет и любая категорийная страница. Блок с перелинковкой находится в футере и не предназначен для пользователя. Другой пример - Яндекс.Путешествия, на странице категории снова в футере перелинковка на важные фильтры, как и в карточке отеля

И несколько наблюдений из работы:
💙Минимальное число внутренних ссылок на страницу должно быть не менее 5
💙Если сайт небольшой, то эффекта от перелинковки почти нет (сайты до 100 страниц)
💙 Подозреваю, что на основе внутреннего ссылочного определяется, например, ассортимент в категории ИМ, а именно по количеству ссылок на неё с товаров. Категория с малым ассортиментом закономерно имеет мало ссылок на себя и, как следствие, плохо ранжируется
Please open Telegram to view this post
VIEW IN TELEGRAM
цена_герметика_силиконового_—_Яндекс_нашлось_19_тыс_результатов.png
1.4 MB
Выдача по запросу: цена силиконового герметика. Уже перебор или еще пара блоков куда-нибудь влезет?
Всё что я сам делал, оно работает лучшем чем когда я делаю это через какие-то агентства и так далее, денег больше, а выхлопа нет никакого
Дословная цитата с последней консультации по интернет-магазину от владельца бизнеса. За продвижение в студии платит 60 000 рублей, отдельный бюджет на ссылки - 5000 руб., в работах исправление get параметров и 5 дублей тайтлов.

За последние полгода видимость и трафик остались на уровне 2-5%, в топ-3 - ни одного запроса. Много умных слов в отчётах про кронирование и ссылочные аудиты (зачем, если все равно просто покупают 5 ссылок с миры?), рандомно выставленная оценка по часам, реального результата нет.

И если бы это было исключение, 1 в 1 слышу тоже самое про студии, которые выступают на конференциях, ведут каналы на ютубе и пишут кейсы на VC.

Владелец при этом параллельно сам запускает и наполняет другие интернет-магазины:

У нас несколько таких сайтов и без всякого SEO, ну например, структуру я понимаю как делать, как люди ищут, я это делаю, и всё само дальше растёт
И на самом деле, это суровая реальность, в которой сеошники ковыряют технические ошибки, забывая что Яндекс уже много лет ранжирует бизнес, а не сайт. Становится очевидным, что исправление гет параметров и перестановка слов места в тайтле не приведёт к росту заказов.

Почему так происходит? Глобально вижу 2 проблемы:

1. Нет кадров. Есть много выпускников курсов, которым рассказали про текстовую релевантность и теперь они всюду пытаются её внедрить. Но для меня это выглядит как попытка поменять слова местами на вывеске у ларька, когда рядом стоит супермаркет. Разговор накануне с владельцем сообщества SEO-шников это подтверждает:
Есть много людей, кто готов взять заказы, но по пальцам одной руки хватит тех, кого я реально готов рекомендовать
2. Продавать умные слова проще. Обучить джуна проверять технические ошибки по чек-листу кратно проще, чем обучить его разбираться в потребностях людей, которые заходят на сайт. Зато потребности своих клиентов прекрасно понимает владелец бизнеса. Вот и выходит, что одни ищут 301 ошибки, а другие зная особенность своей ниши, но не зная SEO делают сайт удобный для клиентов.

В сухом остатке SEO для ИМ я вижу так:
- Семантика + Посадки под кластеры запросов с обязательной проверкой на наличие ассортимента в них
- Хороший шаблон метатегов
- Проработка ком. факторов
- А дальше начинаем работать над узнаваемостью бренда не сеошными способами - соц. сети, платный трафик, ютуб, работа с отзывами, ...
Forwarded from SEO ТРЕНД
Ну что могу сказать, хост и в Яндексе и Google решает, но механизмы "Трастовасти" разные у Яндекса это Browserank и его разнавидность так называемый green traffic - одна из метрик Proximы основанного на онлайн оценке людей. У Google это PR образные факторы учитывающие ссылочный вес. Что такое PR - это по сути вероятность оказаться на том или ином ресурсе после определенных итераций распределения пользователей. Так что это тоже своеобразный ПФ, у этих двух алгоритмов узлами графа являются документы, а вот ребрами у первого переходы, а у второго тоже переходы, но посчитанные с вероятностью.

Как вы видите EEAT у домена sravni.ru есть + хост жирный = топ
Поделюсь своими мыслями на основе исследования данных Я.Вебмастера, а конкретно мониторинга запросов, но начну издалека.

В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый из которых ПС показывает 10 наиболее релевантных сайтов.

Занимаясь текстовой оптимизацией и созданием новых страниц, фактически идет только расширение запросного индекса (ЗИ). Т.е добавляя новые страницы, сайт может ответить на все большое число поисковых запросов, но это не равно показам и трафику по этим запросам.

Хорошо проработанный сайт имеет большой ЗИ, но когда таких сайтов в нише становится много, то суммарный ЗИ всех сайтов в выдаче начинает сильно преобладать над суммарным спросом. Проще говоря, мест в выдаче 10, а ответить на запрос могут сильно больше чем 10 сайтов. И здесь поисковая система встаёт перед выбором, кому, по каким запросам и в каком объеме дать аудиторию.

Становится логичным ввести понятие траст, но если ориентироваться только на него, то 10 сайтов с наибольшим трастом и ЗИ будут держать топ-10 выдачи, не пуская туда ни кого больше. Отчасти так и происходит, но все же молодые сайты могут получать трафик (за счёт некоторого "авансового" траста) несмотря на существование всем известных гигантов.

В таком случае, все будут получать соразмерный своему трасту объем спроса аудитории по разным запросам, если на сайте есть оптимизированные релевантные страницы. Но что делать, если запросный индекс большой (хорошо проработали сайт и создали много страниц), а вес маленький? Дать больше трафика вам не могут, но много страниц могут ответить на запрос.

Это реально важный момент, в случае доработок сайта поисковик не даёт соразмерно больше проработанным страницам трафика, он отдаёт конкретный объем аудитории, далеко не полностью покрывающей ЗИ.

Ровно с этой ситуацией сталкивается почти любой сайт. Много страниц проработаны, но вес ограничен, как следствие сайт показывается и получает трафик по абсолютно разным группам запросов в течении месяца. Т.е в понедельник получили клики по одной группе запросов, во вторник - по другой, и так далее.

Проверить этот факт самостоятельно крайне просто:
- Заходим в мониторинг запросов Яндекс.Вебмастера и выгружаем данные
- Суммируем в Excel число кликов за разные дни - сумма будет примерно одинаковая (это и есть та самая квота на аудиторию)
- Видим, что клики в разные дни приходят по разным запросам
- Заодно сравниваем объем трафика с объемом ЗИ

⭐️Выводы: Рост на текстовой доработке сайта возможен, но в верхний предел трафика есть (не очень большой) и ограничен он квотой аудитории, которую вам выделил поисковик в рамках траста. Вы не сможете получить больше трафика продолжая создавать и дорабатывать страницы. После определенного предела дальнейшие доработки и улучшения сайта не могут увеличить трафик без роста его траста.

Кстати, ровно поэтому так бодро начинают расти сайты на качественных дропах, а дорвеи индексироваться и ранжироваться именно после прогонов, сюда же встраивается пример со сравни из поста выше, когда текущий ЗИ не покрывает его бешенный траст, в итоге простое создание любых страниц тут же ставит их в топ.

Также напрашивается вывод про абсолютно бессмысленный мониторинг позиций, в зависимости от вагона факторов ПС отгружает тот объем аудитории, которую заслуживает сайт, не больше ни меньше, а наличие определенных запросов в топе не является гарантией получения трафика.

В итоге, борьба топа - это не борьба текстовых оптимизаций или позиций, а борьба "веса" сайтов, и в первую очередь им и надо заниматься для роста в органике.
Please open Telegram to view this post
VIEW IN TELEGRAM
Еще совсем недавно в категориях интернет-магазинов размещали портянки бесполезных текстов, за которые, кстати, реально было получить локальную пессимизацию. Текущий тренд - вопросы и ответы, которые размещают не только на ИМ, а вообще везде.

Как видно по скриншоту - никакой ценности для пользователя в них нет и задача просто повысить тошноту по словосочетанию.

Время идёт, а сеошники как занимались спамом на страницах, так и занимаются, включая сам Яндекс, потому что это сильно проще, чем нормально проработать страницу (FAQ ей и не нужны)
🎁 Скидки на SEO-сервисы в черную пятницу:

Сервисы
SEO-Reports.ru (20.11-24.11) -40% при оплате на год
Rush-Analytics.ru (20.11-30.11) -40% | промокод BlackFriday2023
Keys.so (20.11-30.11) -25% | промокод FRIDAY25
Arsenkin.ru (до конца года) -15% | промокод IZIMIN-15
Checktrust.ru (до 1 декабря) -25% | промокод CTA706216D
Moo.team (до конца года) | удвоение платежа при первой оплате
pr-cy.ru (20.11-30.11) -30% на годовые тарифы| промокод ВFPRCY30XWZ
tools.pixelplus.ru (до 26 ноября) -20% | промокод BF23

Программы
SiteAnalyzer (до 26 ноября) -20% | промокод saBlackFriday2023
PositionMeter (до 26 ноября) -20% | промокод pmBlackFriday2023
KeyClusterer (до 26 ноября) -20% | промокод kcBlackFriday2023

Прочее
FriendHosting.net (20.11-18.12) -40% на VDS | промокод bf2023
WPShop.ru (до 24 ноября) -30% | промокод добавляется по ссылке

Пост будет обновляться, по мере появления новых промокодов.
Сообщить о них можно в комментариях 👇👇👇
Скидка на бурж-сервисы есть у Андрея Буйлова
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in the widget
VIEW IN TELEGRAM
📈 Еще несколько лет назад позиции запросов и их частотность в Яндексе были понятной и наглядной величиной. Именно на них строились прогнозы по трафику или отчеты, которые потом демонстрировались клиенту.

Работало это примерно так: зная распределение CTR по выдаче и точную частоту, можно было достоверно оценить объем посетителей после получения определенной средней позиции по собранной семантике.

Сейчас эта метрика почти полностью потеряла свой смысл и вот почему:

Перекрученная накрутчиками частотность, совершенно не отражающая число запросов от реальных пользователей, которая и раньше сильно хромала. Итог - появление запроса в топе не приносит реальных посетителей, потому что их там может быть мало или совсем нет
Позиции в Яндексе отвязались от апдейтов и сейчас меняются в течении дня (дробные значения в мониторинге запросов)
По умолчанию в поиске включена опция "персонализации выдачи", про которую 99% людей даже не знают. Это означает, что во время поиска лично им выше будут показываться те сайты, на которых до этого они уже бывали
Позиции могут не только гулять в диапазоне нескольких пунктов, но и заходить и выходить из топ-100 хоть ежедневно. И дело совсем не в качестве оптимизации.
Нахождение в топе всего лишь повышает вероятность клика на сниппет, но не гарантирует его. Это важно понимать, что даже находясь в топ-1, можно совершенно не заинтересовывать людей кликнуть по нему
Поисковый трафик формирует огромный хвост НЧ запросов, а не как может показаться небольшая партия известных СЧ-ВЧ запросов

В сухом остатке, снимая позиции в любом сервисе, получаете данные на момент съема в режиме инкогнито для запросов с неизвестной реальной частотой. Ничего общего эти цифры с выдачей для живых посетителей не имеют, как следствие становятся совершенно бесполезными для анализа.

Лично мне сейчас интересны два параметры у сайта, которые определяют объем трафика и вероятность его получения: запросный индекс (на какое количество запросов у сайта есть посадочные страницы с ответом) и траст (объем трафика, на который можно рассчитывать), а семантика собирается лишь целью лучшего понимания намерений пользователей для создания релевантных посадок.

❗️Оценить запросный индекс можно скачав запросы из раздела "Мониторинг запросов" в Яндекс.Вебмастере (до 150к).
Please open Telegram to view this post
VIEW IN TELEGRAM
🛒То ли не было, то ли не обращал внимания, но на Озоне сделали перелинковку с карточек на теги, которой у многих до сих пор нет.

Вещь крайне эффективная и использую её давно, потому что распределение ссылочного веса внутри сайта работает.

Основной трафик практически на любой ИМ (кроме узконишевых) - категории и теги. Если категории получают достаточно веса с меню и хлебных крошек, то теговые страницы обычно имеют вообще 1 внутреннюю ссылку - со страницы категории.

В итоге получается, что тегов много, но они не работают. При этом на сайте присутствует огромное число карточек товаров, которые трафика почти не дают, но ссылочный вес за счет количества имеют.

Далее реализуем просто механизм: на странице карточки выводим те теги, в которые эта карточка попадает. Тем самым более важные теги получают соразмерно ассортименту больше веса, а небольшие теги - меньше.

У Озона, кстати, сделано проще, в карточку выведено ограниченное число тегов просто из категории товаров, возможно потому, что тегов у них очень много и блок с подборками будет перегружен ссылками.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Если спросить про то, что такое траст в Яндексе, то в ответ вы либо не услышите ничего конкретного, либо что-то такое расплывчатое про большие пузомерки.

Имея некоторую насмотренность какие действия дают результат одним сайтам, и отсутствие чего не даёт результат другим, у меня в голове было понимание, что означает трастовый сайт, но критерии этого самого траста даже для себя я не формулировал.

После очередного комментария в чате, где спросили - «а траст это вообще что?» решил этот вопрос закрыть сначала для себя, а потом попробовать объяснить вам. Поехали.

Перед началом неплохо уточнить, что изолированные действия как нельзя списывать на то, что они не вносят вклад в траст, так и нельзя считать что траст формируют.

Траст - более глубокое понятие, чем, например, время на сайте, или большой CTR сниппета. Все это отдельные паззлы, но картина куда глубже и смотреть на неё нужно издалека.


Начнём с простого - ссылочное. Если закупить много ссылок, станет ли новый сайт трастовым? Положительные сигналы в Google он получит, но в Яндексе результат будет слабым. Т.е ссылки сами по себе траст в Яндексе если и добавляют, то незначительный. Но при этом все трастовые сайты обладают большим ссылочным.

Если на сайте создать много хороших страниц, станет ли сайт трастовым? Не станет, это факт, иначе все что требовалось бы для получения траста - могла бы делать любая SEO-студия. Но трастовые сайты имеют много хороших посадочных страниц.

Брендовые (витальные) запросы являются сигналом траста? Не являются, иначе их простая накрутка с помощью софта для ПФ добавляла бы траста. Но трастовые сайты имеют много брендовых запросов.

Продолжить аналогичную цепочку рассуждений можно для остальных параметров, которые "принято" улучшать на месте SEO-специалиста: CTR на выдаче, время на сайте, внешний трафик и так далее. Вывод здесь простой.

У трастового сайта всё это следствие, а SEO-специалисты хотят видеть в них причину


Подходим к самому интересному, тогда что за магия делает один сайт трастовым, и почему другие только пытаются мимикрировать под них?

Чтобы разобраться, нужно отойти от отдельных критериев и взять для примера аудиторию в 100 человек, а на все запросы им показывать только два сайта (неплохая получится пытка).

Так или иначе, через какое-то время эти 100 человек вбивая разные запросы и видя только два сайта, заметят, что чаще и лучше ответ им даёт один сайт, чем другой.

Следствием станет:
Рост CTR одного из двух сайтов в выдаче
К запросам начнут добавлять название бренда, чтобы видеть сразу его (или искать только по нему)
Возврат в выдачу с одного из сайтов будет происходить реже
Время проведенное на одном сайте, начнёт всё сильнее отличаться от времени на другом
Поняв, что один из сайтов стабильно лучше даёт ответ на большинство запросов, люди начнут заходить сразу на него (type-in).

И тут мы приближаемся к выводу, что же такое траст.

Траст - это попытка Яндекса оценить вероятность того, что на сайте пользователь решит свою проблему.


Если из 100 человек, 90 решают на сайте проблему и другие сайты им не нужны, траст этого сайта - высокий. Яндекс это видит и показывает сайт чаще, чем остальные. Если на сайт зашло 100 человек, но 95 вернулись в выдачу и дальше продолжили искать, траст сайта хоть и низкий, но не нулевой (5 человек же всё таки решили задачу). Ну и дальше полетели в распределение дневной аудитории согласно вероятности сайта ответить на запрос пользователя.

😶Выводы
Трастовый сайт лучше решает проблему пользователя. Ровно поэтому маркетплейсы давят рынок, они не просто хороши, они предлагают сервис лучше любого интернет-магазина, тогда зачем Яндексу показывать в топе что-то другое?

Поэтому когда начинаете работать с сайтом, оперируйте не понятием "улучшить" отдельные характеристики техническими средствами, а подумайте с какой болью приходит пользователь и как лучше остальных вы сможете решить его проблему, чтобы другие сайты ему были уже не нужны.

В этом случае вдруг совершенно ненужным становится текст в категории интернет-магазина или что-то знать про тошноту слов в статье. Think about it.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚙️ Скрипт для быстрой очистки семантики на основе топа

Идея предложена ребятами из MOAB, а это максимально простая реализация на Python.

Напомню суть: чтобы понять относится ли запрос к вашему сайту или нет, нужно собрать список наиболее близких конкурентов и посчитать, сколько раз они встречаются в топе по семантике.

Если в топ-10 хотя бы 2 ваших конкурента, то однозначно он релевантен и вам. Если в топе нет ни одного конкурента, то запрос можно удалить.

Считая для каждого запроса количество «баллов» можно быстро отфильтровать семантику и удалить запросы набравшие 0 или 1 балл.

Область применения скрипта не только в чистке семантики, но и для определения коммерческости запроса (например, по наличию Яндекс.Услуг / Маркета)

Как работать со скриптом
Устанавливаем Python
Выгружаем семантику из необходимых источников: Яндекс.Вебмастер, Поисковые подсказки, Яндекс.Wordstat, Keys.so
Собираем данные выдачи, например, через KeyAssort
Приводим к формату запрос;url1;...;url10 в текстовом файле input.txt (экспорт данных в XLSX в программе KeyAssort)
Сохраняем код питона в файл cleankeys.py и кладём рядом с input.txt, не забываем указать конкурентов (больше - точнее)
Запускаем скрипт, получаем файл finish.csv, в котором содержится колонка с баллами.
Средствами экселя фильтруем запросы, набравшие 0 или 1 балл

Результат на скриншоте, за пару часов можно автоматом вычистить десятки тысяч запросов и оставить только целевые, ссылка на код скрипта.
Please open Telegram to view this post
VIEW IN TELEGRAM
Вчерашний пост породил ряд важных замечаний, которые стоит проговорить:

Коррелирует ли ИКС с реальным показателем траста сайта в Яндексе? Мое наблюдение что нет. Видел сайты с очень низким ИКСом и большим трафиком/трастом, так и наоборот - прямо сейчас есть проект с огромным значением ИКС, а страницы в топ не идут. Подробно про ИКС и про гипотезы его формирования есть у Алексея Чекушина.
Скорость попадания в топ, это чуть ли не единственный критерий траста, который означает, что у поисковиков есть доверие к новым страницам сайта априори. Их не надо тестировать на небольшой группе подкидывая сайт по НЧ запросам, а сразу встают в топ-10 по бОльшей части кластера. Про это также писали Андрей Джилавдаров и MAXIMAFFILIATE.
При продвижении в Яндексе есть общепринятая концепция создания отдельных страниц под каждый, даже небольшой кластер запросов. Вот как раз на основе того, что отдельная страница с узкой услугой/подборкой товаров с большей вероятностью решит задачу пользователя и происходит рост.
Одно из наблюдений по Яндексу и екому, то что топ сейчас делят два типа сайтов: маркетплейсы и узконишевые сайты. Легко догадаться, что и те, и те хорошо справляются с закрытием интента для пользователя. Среднестатистический ИМ проигрывает маркетплейсам в сервисе и ассортименте, а узконишевым - в ассортименте и экспертизе.
Аналогично можно вести цепочку для ГЕО, когда региональный проект с бОльшей вероятностью ответит на запрос пользователя. Ровно для этого создаются поддомены/подпапки.
И последнее, запросный индекс (количество страниц, которые могут дать ответ) и траст - это два отдельных понятия, независимых друг от друга.

Трафик = Запросный индекс * Траст. Если одна из переменных 0 или близка к 0, трафика не будет, какой бы большой не была другая величина
Please open Telegram to view this post
VIEW IN TELEGRAM
В комментариях на 🖥 подсветили, что код из телеграфа читается криво и скрипты не запускаются, поэтому недолго думая зарегистрировал github.

⚡️ Сейчас там лежат два скрипта:

1️⃣Анализатор запросов из Яндекс.Вебмастера (Мониторинг запросов)
2️⃣Подсчет баллов на основе выдачи и конкурентов через Arsenkin.ru

Я их использую последовательно - сначала фильтрую данные из Вебмастера, а затем проверяю на соответствие конкурентам, на выходе за 20-30 минут получается хорошая концентрированная семантика.

Все с комментариями и пояснениями, дальнейшие обновления и новые скрипты буду заливать туда.
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/14 09:09:19
Back to Top
HTML Embed Code: