В своей практике я не использую подобных методик, но зацепил тезис, с которым я полностью согласен:
Например, мои последние эксперименты показывают, что обновление/доработка метатегов Title не ведёт к существенному изменению позиций, а в топе выдачи всё больше сайтов, которые не заполняют Description. Тоже самое касается попыток подгонять тексты на страницах под стандарты топа.
Please open Telegram to view this post
VIEW IN TELEGRAM
vc.ru
Микроразметка в SEO: от синтаксического поиска – к семантическому — SEO на vc.ru
Интернет меняется, а за ним – и средства продвижения. Рассмотрим эволюцию поисковых алгоритмов, и применительно к этому попробуем посмотреть на микроразметку как на средство семантического структурирования, а не привычный способ получить красивый сниппет.
У меня в ассортименте не так много инструментов, которые использую на постоянной основе, но вот про один ни разу не писал здесь, хотя использую почти каждый день при аудите сайтов, подготовке шаблона метатегов на консультациях и просто в работе.
Это сервис Мета-теги Онлайн от Рината Хайсмана. Решает он простую, но важную задачу - обеспечить текстовую релевантность для тайтла, дескрипшена и H1 по кластеру запросов.
Подход следующий:
- Собираю кластер запросов к странице или к определенному типу страниц через Keys.so
- Загоняю в сервис и получаю распределение слов, которые встречаются чаще всего в рамках кластера
- Начинаю формировать шаблон метатегов так, чтобы первые 5-7 самых популярных слов обязательно присутствовали в Title / Description / H1.
На примере екомерса и Леруа:
- Определяем какой URL соответствует товарам и категориям: товарам -
- Вставляем список запросов, сервис сам считает частоту встречаемости слов, смотрим "универсальные" слова. Для Леруа у меня получились следующие -
- Начинаем формировать метатеги, сразу отмечая какие слова еще нужно использовать
У меня получился такой шаблон Title -
Вот такой простой операцией можно составить грамотные универсальные метатеги и больше не возвращаться к вопросу их доработки.
Это сервис Мета-теги Онлайн от Рината Хайсмана. Решает он простую, но важную задачу - обеспечить текстовую релевантность для тайтла, дескрипшена и H1 по кластеру запросов.
Подход следующий:
- Собираю кластер запросов к странице или к определенному типу страниц через Keys.so
- Загоняю в сервис и получаю распределение слов, которые встречаются чаще всего в рамках кластера
- Начинаю формировать шаблон метатегов так, чтобы первые 5-7 самых популярных слов обязательно присутствовали в Title / Description / H1.
На примере екомерса и Леруа:
- Определяем какой URL соответствует товарам и категориям: товарам -
/product/
, категориям /сatalogue/
- Чтобы понять, какие слова чаще всего встречаются в рамках всех продуктовых карточек - открываем отчет в keys.so по всем запросам и делаем срез по вхождение урла /product/
, дополнительно можно срезать НЧ запросы через параметр Wordstat > 500 и позицию < 15 (чтобы убрать нерелевантные запросы)- Вставляем список запросов, сервис сам считает частоту встречаемости слов, смотрим "универсальные" слова. Для Леруа у меня получились следующие -
купить, цена, отзывы, фото, описание
.- Начинаем формировать метатеги, сразу отмечая какие слова еще нужно использовать
У меня получился такой шаблон Title -
{название_товара} - купить в Москве по низкой цене, описание, фото и отзывы в Леруа Мерлен
Сейчас на сайте - {название_товара} в Москве – купить по низкой цене в интернет-магазине Леруа Мерлен
При этом на основе встречаемости слов были упущены: фото, отзывы, словосочетание интернет-магазин удлиняет Title не неся смысловой нагрузки.Вот такой простой операцией можно составить грамотные универсальные метатеги и больше не возвращаться к вопросу их доработки.
Forwarded from SEO без воды
Яндекс выкатил новый Вордстат
Что нового:
– Есть динамика за любой период с января 2018 года
– Регионы не глючат
– Добавили динамику по дням
– Добавили возможность экспорта в CSV
– Единичные запросы не режутся (можно выгрузить всё)
– Стало красиво
Новый адрес: https://wordstat-2.yandex.ru/
Что нового:
– Есть динамика за любой период с января 2018 года
– Регионы не глючат
– Добавили динамику по дням
– Добавили возможность экспорта в CSV
– Единичные запросы не режутся (можно выгрузить всё)
– Стало красиво
Новый адрес: https://wordstat-2.yandex.ru/
Я давно топлю, за то что внутренней перелинковкой надо заниматься, особенно заметен эффект на больших объемах
Мои аргументы за ссылочный вес следующие:
И несколько наблюдений из работы:
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Oleg Shestakov - Digital Business
В этом выпуске поговорили с легендарным Alex SEO Nomad от том как делать миллионы долларов на онлайн казино 🔥🔥🔥
Залетайте!
https://www.youtube.com/watch?v=y0GJXKFApkY
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
От SEO-спеца до миллионера: история и полная схема Alex SEO Nomad
Алекс из простого SEO-спеца стал делать миллионы долларов на онлайн казино - его история и советы новичкам, которые только заходят в нишу онлайн казино. В подкасте обсудили как он пришел к этому, сколько можно заработать в Gambling индустрии и как стартовать…
цена_герметика_силиконового_—_Яндекс_нашлось_19_тыс_результатов.png
1.4 MB
Выдача по запросу:
цена силиконового герметика
. Уже перебор или еще пара блоков куда-нибудь влезет?Всё что я сам делал, оно работает лучшем чем когда я делаю это через какие-то агентства и так далее, денег больше, а выхлопа нет никакогоДословная цитата с последней консультации по интернет-магазину от владельца бизнеса. За продвижение в студии платит 60 000 рублей, отдельный бюджет на ссылки - 5000 руб., в работах исправление get параметров и 5 дублей тайтлов.
За последние полгода видимость и трафик остались на уровне 2-5%, в топ-3 - ни одного запроса. Много умных слов в отчётах про кронирование и ссылочные аудиты (зачем, если все равно просто покупают 5 ссылок с миры?), рандомно выставленная оценка по часам, реального результата нет.
И если бы это было исключение, 1 в 1 слышу тоже самое про студии, которые выступают на конференциях, ведут каналы на ютубе и пишут кейсы на VC.
—
Владелец при этом параллельно сам запускает и наполняет другие интернет-магазины:
У нас несколько таких сайтов и без всякого SEO, ну например, структуру я понимаю как делать, как люди ищут, я это делаю, и всё само дальше растётИ на самом деле, это суровая реальность, в которой сеошники ковыряют технические ошибки, забывая что Яндекс уже много лет ранжирует бизнес, а не сайт. Становится очевидным, что исправление гет параметров и перестановка слов места в тайтле не приведёт к росту заказов.
Почему так происходит? Глобально вижу 2 проблемы:
1. Нет кадров. Есть много выпускников курсов, которым рассказали про текстовую релевантность и теперь они всюду пытаются её внедрить. Но для меня это выглядит как попытка поменять слова местами на вывеске у ларька, когда рядом стоит супермаркет. Разговор накануне с владельцем сообщества SEO-шников это подтверждает:
Есть много людей, кто готов взять заказы, но по пальцам одной руки хватит тех, кого я реально готов рекомендовать2. Продавать умные слова проще. Обучить джуна проверять технические ошибки по чек-листу кратно проще, чем обучить его разбираться в потребностях людей, которые заходят на сайт. Зато потребности своих клиентов прекрасно понимает владелец бизнеса. Вот и выходит, что одни ищут 301 ошибки, а другие зная особенность своей ниши, но не зная SEO делают сайт удобный для клиентов.
В сухом остатке SEO для ИМ я вижу так:
- Семантика + Посадки под кластеры запросов с обязательной проверкой на наличие ассортимента в них
- Хороший шаблон метатегов
- Проработка ком. факторов
- А дальше начинаем работать над узнаваемостью бренда не сеошными способами - соц. сети, платный трафик, ютуб, работа с отзывами, ...
Forwarded from SEO ТРЕНД
Ну что могу сказать, хост и в Яндексе и Google решает, но механизмы "Трастовасти" разные у Яндекса это Browserank и его разнавидность так называемый green traffic - одна из метрик Proximы основанного на онлайн оценке людей. У Google это PR образные факторы учитывающие ссылочный вес. Что такое PR - это по сути вероятность оказаться на том или ином ресурсе после определенных итераций распределения пользователей. Так что это тоже своеобразный ПФ, у этих двух алгоритмов узлами графа являются документы, а вот ребрами у первого переходы, а у второго тоже переходы, но посчитанные с вероятностью.
Как вы видите EEAT у домена sravni.ru есть + хост жирный = топ
Как вы видите EEAT у домена sravni.ru есть + хост жирный = топ
Поделюсь своими мыслями на основе исследования данных Я.Вебмастера, а конкретно мониторинга запросов, но начну издалека.
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый из которых ПС показывает 10 наиболее релевантных сайтов.
Занимаясь текстовой оптимизацией и созданием новых страниц, фактически идет только расширение запросного индекса (ЗИ). Т.е добавляя новые страницы, сайт может ответить на все большое число поисковых запросов, но это не равно показам и трафику по этим запросам.
Хорошо проработанный сайт имеет большой ЗИ, но когда таких сайтов в нише становится много, то суммарный ЗИ всех сайтов в выдаче начинает сильно преобладать над суммарным спросом. Проще говоря, мест в выдаче 10, а ответить на запрос могут сильно больше чем 10 сайтов. И здесь поисковая система встаёт перед выбором, кому, по каким запросам и в каком объеме дать аудиторию.
Становится логичным ввести понятие траст, но если ориентироваться только на него, то 10 сайтов с наибольшим трастом и ЗИ будут держать топ-10 выдачи, не пуская туда ни кого больше. Отчасти так и происходит, но все же молодые сайты могут получать трафик (за счёт некоторого "авансового" траста) несмотря на существование всем известных гигантов.
В таком случае, все будут получать соразмерный своему трасту объем спроса аудитории по разным запросам, если на сайте есть оптимизированные релевантные страницы. Но что делать, если запросный индекс большой (хорошо проработали сайт и создали много страниц), а вес маленький? Дать больше трафика вам не могут, но много страниц могут ответить на запрос.
Это реально важный момент, в случае доработок сайта поисковик не даёт соразмерно больше проработанным страницам трафика, он отдаёт конкретный объем аудитории, далеко не полностью покрывающей ЗИ.
Ровно с этой ситуацией сталкивается почти любой сайт. Много страниц проработаны, но вес ограничен, как следствие сайт показывается и получает трафик по абсолютно разным группам запросов в течении месяца. Т.е в понедельник получили клики по одной группе запросов, во вторник - по другой, и так далее.
Проверить этот факт самостоятельно крайне просто:
- Заходим в мониторинг запросов Яндекс.Вебмастера и выгружаем данные
- Суммируем в Excel число кликов за разные дни - сумма будет примерно одинаковая (это и есть та самая квота на аудиторию)
- Видим, что клики в разные дни приходят по разным запросам
- Заодно сравниваем объем трафика с объемом ЗИ
⭐️ Выводы: Рост на текстовой доработке сайта возможен, но в верхний предел трафика есть (не очень большой) и ограничен он квотой аудитории, которую вам выделил поисковик в рамках траста. Вы не сможете получить больше трафика продолжая создавать и дорабатывать страницы. После определенного предела дальнейшие доработки и улучшения сайта не могут увеличить трафик без роста его траста.
Кстати, ровно поэтому так бодро начинают расти сайты на качественных дропах, а дорвеи индексироваться и ранжироваться именно после прогонов, сюда же встраивается пример со сравни из поста выше, когда текущий ЗИ не покрывает его бешенный траст, в итоге простое создание любых страниц тут же ставит их в топ.
Также напрашивается вывод про абсолютно бессмысленный мониторинг позиций, в зависимости от вагона факторов ПС отгружает тот объем аудитории, которую заслуживает сайт, не больше ни меньше, а наличие определенных запросов в топе не является гарантией получения трафика.
В итоге, борьба топа - это не борьба текстовых оптимизаций или позиций, а борьба "веса" сайтов, и в первую очередь им и надо заниматься для роста в органике.
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый из которых ПС показывает 10 наиболее релевантных сайтов.
Занимаясь текстовой оптимизацией и созданием новых страниц, фактически идет только расширение запросного индекса (ЗИ). Т.е добавляя новые страницы, сайт может ответить на все большое число поисковых запросов, но это не равно показам и трафику по этим запросам.
Хорошо проработанный сайт имеет большой ЗИ, но когда таких сайтов в нише становится много, то суммарный ЗИ всех сайтов в выдаче начинает сильно преобладать над суммарным спросом. Проще говоря, мест в выдаче 10, а ответить на запрос могут сильно больше чем 10 сайтов. И здесь поисковая система встаёт перед выбором, кому, по каким запросам и в каком объеме дать аудиторию.
Становится логичным ввести понятие траст, но если ориентироваться только на него, то 10 сайтов с наибольшим трастом и ЗИ будут держать топ-10 выдачи, не пуская туда ни кого больше. Отчасти так и происходит, но все же молодые сайты могут получать трафик (за счёт некоторого "авансового" траста) несмотря на существование всем известных гигантов.
В таком случае, все будут получать соразмерный своему трасту объем спроса аудитории по разным запросам, если на сайте есть оптимизированные релевантные страницы. Но что делать, если запросный индекс большой (хорошо проработали сайт и создали много страниц), а вес маленький? Дать больше трафика вам не могут, но много страниц могут ответить на запрос.
Это реально важный момент, в случае доработок сайта поисковик не даёт соразмерно больше проработанным страницам трафика, он отдаёт конкретный объем аудитории, далеко не полностью покрывающей ЗИ.
Ровно с этой ситуацией сталкивается почти любой сайт. Много страниц проработаны, но вес ограничен, как следствие сайт показывается и получает трафик по абсолютно разным группам запросов в течении месяца. Т.е в понедельник получили клики по одной группе запросов, во вторник - по другой, и так далее.
Проверить этот факт самостоятельно крайне просто:
- Заходим в мониторинг запросов Яндекс.Вебмастера и выгружаем данные
- Суммируем в Excel число кликов за разные дни - сумма будет примерно одинаковая (это и есть та самая квота на аудиторию)
- Видим, что клики в разные дни приходят по разным запросам
- Заодно сравниваем объем трафика с объемом ЗИ
Кстати, ровно поэтому так бодро начинают расти сайты на качественных дропах, а дорвеи индексироваться и ранжироваться именно после прогонов, сюда же встраивается пример со сравни из поста выше, когда текущий ЗИ не покрывает его бешенный траст, в итоге простое создание любых страниц тут же ставит их в топ.
Также напрашивается вывод про абсолютно бессмысленный мониторинг позиций, в зависимости от вагона факторов ПС отгружает тот объем аудитории, которую заслуживает сайт, не больше ни меньше, а наличие определенных запросов в топе не является гарантией получения трафика.
В итоге, борьба топа - это не борьба текстовых оптимизаций или позиций, а борьба "веса" сайтов, и в первую очередь им и надо заниматься для роста в органике.
Please open Telegram to view this post
VIEW IN TELEGRAM
Аудитория канала
Anonymous Poll
30%
SEO-специалист в штате
14%
SEO-фрилансер
19%
Вебмастер
7%
Маркетолог
19%
Предприниматель
10%
Другое
Еще совсем недавно в категориях интернет-магазинов размещали портянки бесполезных текстов, за которые, кстати, реально было получить локальную пессимизацию. Текущий тренд - вопросы и ответы, которые размещают не только на ИМ, а вообще везде.
Как видно по скриншоту - никакой ценности для пользователя в них нет и задача просто повысить тошноту по словосочетанию.
Время идёт, а сеошники как занимались спамом на страницах, так и занимаются, включая сам Яндекс, потому что это сильно проще, чем нормально проработать страницу (FAQ ей и не нужны)
Как видно по скриншоту - никакой ценности для пользователя в них нет и задача просто повысить тошноту по словосочетанию.
Время идёт, а сеошники как занимались спамом на страницах, так и занимаются, включая сам Яндекс, потому что это сильно проще, чем нормально проработать страницу (FAQ ей и не нужны)
Сервисы
SEO-Reports.ru (20.11-24.11) -40% при оплате на год
Rush-Analytics.ru (20.11-30.11) -40% | промокод
BlackFriday2023
Keys.so (20.11-30.11) -25% | промокод
FRIDAY25
Arsenkin.ru (до конца года) -15% | промокод
IZIMIN-15
Checktrust.ru (до 1 декабря) -25% | промокод
CTA706216D
Moo.team (до конца года) | удвоение платежа при первой оплате
pr-cy.ru (20.11-30.11) -30% на годовые тарифы| промокод
ВFPRCY30XWZ
tools.pixelplus.ru (до 26 ноября) -20% | промокод
BF23
Программы
SiteAnalyzer (до 26 ноября) -20% | промокод
saBlackFriday2023
PositionMeter (до 26 ноября) -20% | промокод
pmBlackFriday2023
KeyClusterer (до 26 ноября) -20% | промокод
kcBlackFriday2023
Прочее
FriendHosting.net (20.11-18.12) -40% на VDS | промокод
bf2023
WPShop.ru (до 24 ноября) -30% | промокод добавляется по ссылке
—
Пост будет обновляться, по мере появления новых промокодов.
Сообщить о них можно в комментариях
Скидка на бурж-сервисы есть у Андрея Буйлова
Please open Telegram to view this post
VIEW IN TELEGRAM
Работало это примерно так: зная распределение CTR по выдаче и точную частоту, можно было достоверно оценить объем посетителей после получения определенной средней позиции по собранной семантике.
В сухом остатке, снимая позиции в любом сервисе, получаете данные на момент съема в режиме инкогнито для запросов с неизвестной реальной частотой. Ничего общего эти цифры с выдачей для живых посетителей не имеют, как следствие становятся совершенно бесполезными для анализа.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Иван Зимин | SEO
Поделюсь своими мыслями на основе исследования данных Я.Вебмастера, а конкретно мониторинга запросов, но начну издалека.
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый…
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый…
Вещь крайне эффективная и использую её давно, потому что распределение ссылочного веса внутри сайта работает.
Основной трафик
В итоге получается, что тегов много, но они не работают. При этом на сайте присутствует огромное число карточек товаров, которые трафика почти не дают, но ссылочный вес за счет количества имеют.
Далее реализуем просто механизм: на странице карточки выводим те теги, в которые эта карточка попадает. Тем самым более важные теги получают соразмерно ассортименту больше веса, а небольшие теги - меньше.
У Озона, кстати, сделано проще, в карточку выведено ограниченное число тегов просто из категории товаров, возможно потому, что тегов у них очень много и блок с подборками будет перегружен ссылками.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Если спросить про то, что такое траст в Яндексе, то в ответ вы либо не услышите ничего конкретного, либо что-то такое расплывчатое про большие пузомерки.
Имея некоторую насмотренность какие действия дают результат одним сайтам, и отсутствие чего не даёт результат другим, у меня в голове было понимание, что означает трастовый сайт, но критерии этого самого траста даже для себя я не формулировал.
После очередного комментария в чате, где спросили - «а траст это вообще что?» решил этот вопрос закрыть сначала для себя, а потом попробовать объяснить вам. Поехали.
—
Перед началом неплохо уточнить, что изолированные действия как нельзя списывать на то, что они не вносят вклад в траст, так и нельзя считать что траст формируют.
Начнём с простого - ссылочное. Если закупить много ссылок, станет ли новый сайт трастовым? Положительные сигналы в Google он получит, но в Яндексе результат будет слабым. Т.е ссылки сами по себе траст в Яндексе если и добавляют, то незначительный. Но при этом все трастовые сайты обладают большим ссылочным.
Если на сайте создать много хороших страниц, станет ли сайт трастовым? Не станет, это факт, иначе все что требовалось бы для получения траста - могла бы делать любая SEO-студия. Но трастовые сайты имеют много хороших посадочных страниц.
Брендовые (витальные) запросы являются сигналом траста? Не являются, иначе их простая накрутка с помощью софта для ПФ добавляла бы траста. Но трастовые сайты имеют много брендовых запросов.
Продолжить аналогичную цепочку рассуждений можно для остальных параметров, которые "принято" улучшать на месте SEO-специалиста: CTR на выдаче, время на сайте, внешний трафик и так далее. Вывод здесь простой.
Подходим к самому интересному, тогда что за магия делает один сайт трастовым, и почему другие только пытаются мимикрировать под них?
Чтобы разобраться, нужно отойти от отдельных критериев и взять для примера аудиторию в 100 человек, а на все запросы им показывать только два сайта (неплохая получится пытка).
Так или иначе, через какое-то время эти 100 человек вбивая разные запросы и видя только два сайта, заметят, что чаще и лучше ответ им даёт один сайт, чем другой.
Следствием станет:
➖ Рост CTR одного из двух сайтов в выдаче
➖ К запросам начнут добавлять название бренда, чтобы видеть сразу его (или искать только по нему)
➖ Возврат в выдачу с одного из сайтов будет происходить реже
➖ Время проведенное на одном сайте, начнёт всё сильнее отличаться от времени на другом
➖ Поняв, что один из сайтов стабильно лучше даёт ответ на большинство запросов, люди начнут заходить сразу на него (type-in).
И тут мы приближаемся к выводу, что же такое траст.
Если из 100 человек, 90 решают на сайте проблему и другие сайты им не нужны, траст этого сайта - высокий. Яндекс это видит и показывает сайт чаще, чем остальные. Если на сайт зашло 100 человек, но 95 вернулись в выдачу и дальше продолжили искать, траст сайта хоть и низкий, но не нулевой (5 человек же всё таки решили задачу). Ну и дальше полетели в распределение дневной аудитории согласно вероятности сайта ответить на запрос пользователя.
😶 Выводы
Трастовый сайт лучше решает проблему пользователя. Ровно поэтому маркетплейсы давят рынок, они не просто хороши, они предлагают сервис лучше любого интернет-магазина, тогда зачем Яндексу показывать в топе что-то другое?
Поэтому когда начинаете работать с сайтом, оперируйте не понятием "улучшить" отдельные характеристики техническими средствами, а подумайте с какой болью приходит пользователь и как лучше остальных вы сможете решить его проблему, чтобы другие сайты ему были уже не нужны.
В этом случае вдруг совершенно ненужным становится текст в категории интернет-магазина или что-то знать про тошноту слов в статье. Think about it.
Имея некоторую насмотренность какие действия дают результат одним сайтам, и отсутствие чего не даёт результат другим, у меня в голове было понимание, что означает трастовый сайт, но критерии этого самого траста даже для себя я не формулировал.
После очередного комментария в чате, где спросили - «а траст это вообще что?» решил этот вопрос закрыть сначала для себя, а потом попробовать объяснить вам. Поехали.
—
Перед началом неплохо уточнить, что изолированные действия как нельзя списывать на то, что они не вносят вклад в траст, так и нельзя считать что траст формируют.
Траст - более глубокое понятие, чем, например, время на сайте, или большой CTR сниппета. Все это отдельные паззлы, но картина куда глубже и смотреть на неё нужно издалека.
Начнём с простого - ссылочное. Если закупить много ссылок, станет ли новый сайт трастовым? Положительные сигналы в Google он получит, но в Яндексе результат будет слабым. Т.е ссылки сами по себе траст в Яндексе если и добавляют, то незначительный. Но при этом все трастовые сайты обладают большим ссылочным.
Если на сайте создать много хороших страниц, станет ли сайт трастовым? Не станет, это факт, иначе все что требовалось бы для получения траста - могла бы делать любая SEO-студия. Но трастовые сайты имеют много хороших посадочных страниц.
Брендовые (витальные) запросы являются сигналом траста? Не являются, иначе их простая накрутка с помощью софта для ПФ добавляла бы траста. Но трастовые сайты имеют много брендовых запросов.
Продолжить аналогичную цепочку рассуждений можно для остальных параметров, которые "принято" улучшать на месте SEO-специалиста: CTR на выдаче, время на сайте, внешний трафик и так далее. Вывод здесь простой.
У трастового сайта всё это следствие, а SEO-специалисты хотят видеть в них причину
Подходим к самому интересному, тогда что за магия делает один сайт трастовым, и почему другие только пытаются мимикрировать под них?
Чтобы разобраться, нужно отойти от отдельных критериев и взять для примера аудиторию в 100 человек, а на все запросы им показывать только два сайта (неплохая получится пытка).
Так или иначе, через какое-то время эти 100 человек вбивая разные запросы и видя только два сайта, заметят, что чаще и лучше ответ им даёт один сайт, чем другой.
Следствием станет:
И тут мы приближаемся к выводу, что же такое траст.
Траст - это попытка Яндекса оценить вероятность того, что на сайте пользователь решит свою проблему.
Если из 100 человек, 90 решают на сайте проблему и другие сайты им не нужны, траст этого сайта - высокий. Яндекс это видит и показывает сайт чаще, чем остальные. Если на сайт зашло 100 человек, но 95 вернулись в выдачу и дальше продолжили искать, траст сайта хоть и низкий, но не нулевой (5 человек же всё таки решили задачу). Ну и дальше полетели в распределение дневной аудитории согласно вероятности сайта ответить на запрос пользователя.
Трастовый сайт лучше решает проблему пользователя. Ровно поэтому маркетплейсы давят рынок, они не просто хороши, они предлагают сервис лучше любого интернет-магазина, тогда зачем Яндексу показывать в топе что-то другое?
Поэтому когда начинаете работать с сайтом, оперируйте не понятием "улучшить" отдельные характеристики техническими средствами, а подумайте с какой болью приходит пользователь и как лучше остальных вы сможете решить его проблему, чтобы другие сайты ему были уже не нужны.
В этом случае вдруг совершенно ненужным становится текст в категории интернет-магазина или что-то знать про тошноту слов в статье. Think about it.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Иван Зимин | SEO
Поделюсь своими мыслями на основе исследования данных Я.Вебмастера, а конкретно мониторинга запросов, но начну издалека.
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый…
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый…