Retrieval-augmented generation (RAG) - это подход в области искусственного интеллекта, который объединяет методы извлечения информации и генерации естественного языка.
Основная идея RAG заключается в том, чтобы дополнить модели генерации текста возможностью извлекать релевантную информацию из больших текстовых коллекций. Это позволяет модели генерировать более точные, информативные и когерентные ответы.
Процесс работы RAG выглядит следующим образом:
1. Модель получает запрос (например, вопрос пользователя)
2. Извлекает релевантные фрагменты текста из коллекции документов с помощью модуля ретриевера
3. Передает эти фрагменты вместе с запросом в модель генерации (например, transformer)
4. Модель генерации создает ответ, основываясь на запросе и извлеченной информации.
Такой подход позволяет сочетать преимущества извлечения информации и генерации естественного языка. RAG-модели демонстрируют более глубокое понимание контекста и могут генерировать более подробные, точные и информативные ответы.
Обязательно прочитайте эту статью.
Search Generative Experience, или SGE, - это новая функция от Google, которая использует генеративный искусственный интеллект для улучшения результатов поиска.
Вот как это работает: Когда вы вводите поисковый запрос, SGE генерирует обзор наиболее релевантной и полезной информации. Этот обзор может включать в себя краткое изложение ключевых моментов, различные точки зрения на тему и даже смежные вопросы. SGE может определить ключевые моменты и ответить на вопросы напрямую, без необходимости читать всю страницу.
SGE от Гугла является одной из разновидностей RAG. Впрочем как и ЧатГПТ и поиск Бинга и всеми нами любимая Клавдия.
После раскатки SGE, значимость простого органического поиска резко упадет. Отсюда должно быть понимание, что необходимо не только лидировать в органике, но и застолбить себе места в SGE.
Обратите внимание, что на сегодняшний день внедряется уже четвертая иттерация семантического поиска. Сначала были модели на базе tf-idf. После этого стали использовать модели, работающие с ключевыми словами. На сегодняшний день алгоритмы Гугла используют именованные сущности. Ну и прямо сейчас внедряется четвертое поколение – модели на базе векторов (Word embeddings).
Word embeddings или по другому Векторное представление слов. Обычно это представление представляет собой вещественно-значный вектор, который кодирует значение слова таким образом, что слова, которые находятся ближе в пространстве вектора, как ожидается, будут похожи по смыслу. RAG – как раз алгоритм, использующий векторное представление слов.
Векторное представление помогает понять интент запроса, вычислить тональность текста, обнаружить синонимы, более точно понимать значение запроса и т.д.
Прочитайте это описание Word embeddings.
Итак, есть несколько методов для понимания как попасть в SGE и заполучить свою долю трафика. Первый из них – это анализ фраглов (ошметков страниц-конкурентов, выводимый в SGE) реверс-инжиниринг страниц – конкурентов. Но, пока раскатки SGE не произошло – мы использовать этот метод не будем.
Второй способ – использование предобученных моделей и сопоставление текущего контента с запросами.
Есть множество бесплатных сервисов, которые позволяют оценить близость вашего контента к запросу и возможность попадания в SGE. Например бесплатный SGE Visualizer.
Вбейте анализируемый урл, обождите пяток минут и потом мучайте его, вводя справа вверху нужные запросы. Там вы сможете посмотреть насколько ваш контент, порубленный на «чанки» близок к запросу, оценить заголовки, мета-информацию, полюбоваться на проекцию векторного представления на плоскость.
Среди иных инструментов рекомендую ORBITWISE, MarketMuse , SurferSEO и т.д. Все они могут помочь вам оценить релевантность вашего контента для запросов.
Результаты моделей RAG основаны на вероятностях, а это означает, что ваша основная задача для появления в SGE по целевому запросу заключается в понимании и адаптации к этим вероятностным моделям.
#DrMax #Google #SGE
Please open Telegram to view this post
VIEW IN TELEGRAM
Собственно такая задача время от времени всплывает. Ранее у меня были всевозможные Адоб скринреадер и иные софтинки, но лицензии отсохли. В принципе, такую фишку умеет делать значительное количество софта. Например, та же десктопная версия Deepl (переводчика) умеет такое. Даже разнообразные TechSmith это умеют. Но посколь процедура то нечастая, постоянно забываешь хитрые сочетания кнопок, дабы дергать текст. Да и вообще...
Итак, ежели нужно выдрать текст из картинки с сайта, то нам поможет Гугл Линз. В Хроме жмем на картинке правую кнопку мыши - "Найти через Гугл" и над картинкой справа жмем кнопку "Открыть в новой вкладке", после чего мы можем скопировать текст.
Чем хорош такой способ - Гугл может распознавать любые кривые/косые тексты и правильно их отформатировать.
Ежели нам нужно выдрать текст из софта - ставим любой скриншутер (например LightShot), скриним картинку, идем в гугл-поиск, тыкаем в строке поиска кнопку "Поиск по картинке" и вставляем туда скрин (Ctrl+V). Далее, просто копируем нужный кусок текста.
Вот собственно и всё )))
#DrMax #screen
Please open Telegram to view this post
VIEW IN TELEGRAM
Подъехала большая статья от SEJ о сущностях и онтологиях - ровно то, о чем я вам недавно рассказывал. В ней кучка товарищей пытается рассуждать на тему именованных ( и не только) сущностей и дополнили рассуждения достаточно заезженным термином "онтология". Последнее - суть подраздел философии, который достаточно давно пытаются вкрячить в информационные исследования ( в киберленинке куча материалов по этой теме) с целью понятия взаимосвязей между сущностями.
Кроме того, в статье краем задета тема микроразметки (структурированных данных).
Именно о применении разметки на базе выявленных именованных сущностей, связей их с доменами я и задумывал второй пост, рассказывая об исследованиях сущностей.
Но, то ли из меня промпт инженер никакой, то ли что -то не так, в общем автоматизировать в достаточно приемлемом виде генерацию достоверной разметки на базе связей между доменами-сущностями-темами мне не удалось. Строить то строит Бард разметку - но не верно и приходиться править руками. Примерный промпт выкладывал в комментариях.
А задумка была - построение смысловых карт на базе связей между сущностями, с использованием Json-LD schema.
В общем знакомьтесь со статьей и обратите внимание, насколько вырос интерес к оным сущностям. Делают громкие заявления, планируют замену ссылочного оными сущностями и пр.
#DrMax #SEO #Google #ранжирование
Please open Telegram to view this post
VIEW IN TELEGRAM
Если в прошлый раз мы искали пути совершенствования отдельных страниц сайта, то теперь попробуем понять, чего хотят посетители сайта в целом. Ежели мы подсунем посетителям их хотелки, то, возможно, лояльность посетителей возрастет, что потянет за собой кучу положительных поведенческих факторов и в свою очередь улучшит ранжирование в Гугле.
Пользователи ищут в Интернете ответы для решения своих проблем. Что нам нужно понять - это мотивацию пользователей к поиску и намерения/задачи (на языке маркетинга это звучит как «болевые точки») во время поиска. Нужно понимать, что мотивы у каждого пользователя будут индивидуальны, но их можно сгруппировать для каждого исследуемого сайта.
Например, у нас есть стоматологическая клиника в Воронеже. Тогда мы составим вот такой промпт для Барда/Гемини:
Каковы основные мотивы пользователей, ищущих в Интернете стоматологическую клинику в Воронеже?
Внимательно изучаем информацию, выписываем все мотивы (и их составляющие) в столбик в отдельный лист Excel. Обязательно прощелкиваем все черновики и пополняем наш мотивационный лист.
Последовательно, для каждого раздела мотивации мы задаем вот такой вопрос: Я хочу узнать больше об этой [указать] мотивации. Каковы наиболее распространенные болевые точки пользователей?
Например:
Раскрой подробно мотивацию «Сравнение предложений». Каковы наиболее распространенные болевые точки пользователей?
Для каждой мотивации во второй столбик выписываем все болевые точки посетителей.
Промпт:
Что сделать на сайте, чтобы устранить "Недоверие к низким ценам"
Получаем список конкретных решений.
Посмотрите комментарии – там сделал в первом несколько скринов.
Такое простое исследование способно заменить дорогостоящие опросы фокус – групп. Самое главное правильно задавать вопросы ))) Ну и поняв, зачем посетители лезут на сайт - можно предпринять усилия, чтобы оные нашли искомое. То есть внести изменения на сайт, дополнить контент, создать новые странички и пр.
Почти кнопка "Бабло"
Пробуйте )))
#DrMax #prompt
Please open Telegram to view this post
VIEW IN TELEGRAM
🧩 Концепция E-E-A-T: Как демонстрировать опыт в соответствии с QRG
Как известно, EEAT – это не фактор ранжирования, не какой то измеримый показатель, а концепция видения Гуглом, как должен выглядеть качественный и хорошо ранжируемый контент.
Давайте пошагово разберем, как оптимизировать наши сайты, в соответствии с этой концепцией, опираясь на исследования широко известного в узких кругах оптимизатора Nathan Gotch.
Итак, сейчас поговорим об Experience – то бишь опыте, который необходимо демонстрировать Гуглу в контенте.
Натан выделяет три вида опыта, учитываемого Гуглом:
✅ First-Hand Experience – то есть житейский опыт. Он заключается в использовании продукта, посещении места или передачи личного опыта. При этом валидность данного типа опыта легко проверяется.
✅ Experience in the Field- то есть опыт в какой то области: Знания и навыки, полученные в конкретной сфере.
✅ The Searcher’s Experience – то есть пользовательский опыт или качество взаимодействия пользователя с сайтом.
Натан предлагает несколько приемов, позволяющих доказать опыт автора. Так для житейского опыта он предлагает:
🔵 Используйте язык, демонстрирующий личный опыт, например, "мы отправились в...", "были рады попробовать" или "не понравилось нашим дегустаторам".
🔵 Предоставляйте визуальные доказательства опыта, такие как фотографии или видеоролики.
🔵 Укажите на биографии авторов, демонстрирующие их опыт.
Для профессионального опыта:
🔵 Используйте язык, отражающий ваши знания в сфере, например, "исходя из моего опыта...".
🔵 Ссылайтесь на исследования, данные и примеры, подтверждающие вашу компетентность.
🔵 Укажите на наличие соответствующих сертификатов или степеней (если применимо).
Пользовательский опыт – ну тут всё понятно, нужно улучшать пользовательские факторы ранжирования.
Итак, в статье Натан предлагает несколько практических методов демонстрации опыта в контенте:
🔵 Использование визуальных доказательств: Фотографии, видеоролики и другие материалы, подтверждающие ваш опыт.
🔵 Подробная биография автора: Информация об опыте и квалификации автора.
🔵 Язык, демонстрирующий опыт: Использование слов и фраз, показывающих, что вы непосредственно взаимодействовали с предметом контента.
🔵 Сравнительные данные и исследования: Презентация данных, полученных в результате собственных исследований и сравнений.
🔵 Отзывы и мнения экспертов: Использование отзывов людей, обладающих опытом в данной области.
🔵 Создание уникального контента: Разработка собственных исследований, руководств и инструментов, демонстрирующих ваш опыт и знания.
🔵 Проведение опросов и исследований: Сбор данных от целевой аудитории для создания контента, отвечающего их потребностям.
🔵 Партнерство с экспертами: Сотрудничество с людьми, обладающими опытом в вашей области, для создания совместного контента.
🔵 Использование социальных сетей: Взаимодействие с аудиторией в социальных сетях для демонстрации своей экспертности и построения доверия.
🌈 Теперь самое интересное!!!
Потом он говорит что-то об этичности и тут же выкатил способы использования чат-ботов для генерации контента с видимостью личного опыта. Полюбопытствуйте, там есть несколько темплейтов, позволяющих генерировать контент, демонстрирующий высокий опыт, а потом проверить его.
Кроме того, я бы добавил несколько советов:
🔵 Фокусируйтесь на нишевых темах, где у вас действительно есть опыт. Избегайте обзоров того, с чем не знакомы.
🔵 Подходите к тестированию максимально непредвзято. Пользователю нужна объективная оценка.
🔵 Опыт - это не только тест продукта. Можно описать опыт решения проблемы, достижения цели с помощью продукта.
🔵 Добавляйте свои рекомендации и советы на основе опыта. Это повышает ценность контента.
🔵 Опыт можно накапливать со временем. Обновляйте старые статьи с новыми данными и наблюдениями.
В целом, пользователю нужен максимум конкретики, чтобы поверить в ваш опыт. Поэтому чем больше подробностей и доказательств - тем лучше. Фокусируйтесь на качестве, а не количестве контента.
Ну и вот сама статья.
#DrMax #Google #EEAT
Как известно, EEAT – это не фактор ранжирования, не какой то измеримый показатель, а концепция видения Гуглом, как должен выглядеть качественный и хорошо ранжируемый контент.
Давайте пошагово разберем, как оптимизировать наши сайты, в соответствии с этой концепцией, опираясь на исследования широко известного в узких кругах оптимизатора Nathan Gotch.
Итак, сейчас поговорим об Experience – то бишь опыте, который необходимо демонстрировать Гуглу в контенте.
Натан выделяет три вида опыта, учитываемого Гуглом:
Натан предлагает несколько приемов, позволяющих доказать опыт автора. Так для житейского опыта он предлагает:
Для профессионального опыта:
Пользовательский опыт – ну тут всё понятно, нужно улучшать пользовательские факторы ранжирования.
Итак, в статье Натан предлагает несколько практических методов демонстрации опыта в контенте:
Потом он говорит что-то об этичности и тут же выкатил способы использования чат-ботов для генерации контента с видимостью личного опыта. Полюбопытствуйте, там есть несколько темплейтов, позволяющих генерировать контент, демонстрирующий высокий опыт, а потом проверить его.
Кроме того, я бы добавил несколько советов:
В целом, пользователю нужен максимум конкретики, чтобы поверить в ваш опыт. Поэтому чем больше подробностей и доказательств - тем лучше. Фокусируйтесь на качестве, а не количестве контента.
Ну и вот сама статья.
#DrMax #Google #EEAT
Please open Telegram to view this post
VIEW IN TELEGRAM
У большинства сайтов часть страниц не индексируется и значит не приносит абсолютно никакого трафика. Крайне обидно бывает, что часть созданных страниц абсолютно никак не принимает участие в работе сайта.
Проходим в GSC - страницы.
Если у вас много страниц в разделе "Страница просканирована, но пока не проиндексирована" - значит либо качество недостаточное у этих страниц, либо они и не должны попадать в индекс по многим причинам.
Для таких страниц (если их качество недостаточно) попробуйте прогнать их академическим промптом (если это информационные страницы) и переписать тайтл / дескрипшен руками + поправить H1 (для всех страниц).
После этого подайте на переиндекс.
Если у вас много страниц в разделе "Обнаружена, не проиндексирована" - то либо вам не хватает бюджета сканирования, либо страницы находятся так глубоко в структуре сайта, что до них не доходит вес (PageRank). В последнем случае сделайте структуру сайта более плоской (вытащите на главную побольше ссылок на внутренние узлы)
В любом случае подайте всё на переиндекс.
Попробуйте индексацию через Гугл API. Подключение и настройка абсолютно просты ( см например тут или тут ). Один раз настроив такую индексацию, вы сможете подавать по 100 URL за раз (всего 200 в день на переиндекс).
Это частично решает проблему и с малым бюджетом сканирования и с переподачей на индекс исправленных страниц.
Чем больше страниц в индексе - тем больше вероятность того, что хоть по немногу, по сверх НЧ вы соберете дополнительный трафик.
Ну а страницы, которые через 3 месяца нахождения в индексе не принесут трафик - вы знаете что делать (переписать, объединить, перенаправить или удалить).
Вот такой нехитрый прием работы для роста трафика.
Пользуйтесь.
PS
кстати, переписывать академическим промптом можно не весь контент страницы, а только первые пару разделов (ну например четверть контента). Зачастую этого достаточно.
ЗЗЫ
Фишка:
Если 200 страниц в день для вас недостаточно, то загоняйте в GSC отдельную директорию сайта и настройте API аналогично всему сайту. И так несколько раз. Так вы сможете ежедневно переиндексировать неограниченное число страниц (пока вас не забанят).
#DrMax #SEO #Google #GSC
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня зарелизили 3 версию Клавдии. Нахваливают её, якобы в тестах уделывает все иные чат-боты.
Безос (который вбухал миллиард в клавдию) выкатил ценник в 15 баксов за мульон токенов (платная версия), что в полтора раза выше, чем у 4 версии Чат ГПТ.
Ну и как водится, Клавдию сразу поломали (см скрин).
Починят - потестим. Очень интересно.
#DrMax #SEO #Клавдия
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну дождались.
Стартовало основное обновление ядра алгоритмов Гугла + обновление по борьбе со спамом. Ну что за практика такая складывается - уже второй раз одновременно несколько обновлений запускают. Не понятно куда глядеть и кто виноват)))
Сразу за запуском обновления, Гугл выкатил пояснительный документ, где повествует что он делает и к чему стремиться - одним из пунктов является борьба с дроп доменами (пресловутые ПБН). Помнится, лет 6-7 назад Гугл впервые вычистил все дропы и снизил их влияние до 0. Посмотрим что будет на этот раз.
Итак:
1. Обновление включает в себя изменения в нескольких основных системах ранжирования Google и представляет новый подход к определению полезности контента.
2. Google представил новую политику по борьбе со спамом, включающую три новых правила: против злоупотребления доменами с истекшим сроком действия, масштабного злоупотребления контентом и злоупотребления репутацией сайта.
3. Масштабное злоупотребление контентом относится к созданию большого количества неоригинального контента низкого качества исключительно для манипулирования ранжированием.
4. Злоупотребление репутацией сайта происходит, когда сторонние страницы размещаются без контроля с целью манипулирования ранжированием через сигналы сайта.
5. Обновление может занять до месяца для полного развертывания, с возможными значительными колебаниями в ранжировании.
Таким образом, основной акцент делается на борьбе со спамом и более строгом подходе к определению полезного контента для улучшения результатов поиска.
Вот сама новость.
Замерли в ожидании )))
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжаем разговор про концепцию E-E-A-T. Часть первая тут. И опять рассматриваем статью широко известного в довольно узких кругах SEO эксперта Натана Готч.
В статье рассматривается важность экспертности ("Expertise") в рамках концепции E-E-A-T Гугла. Натан доходчиво разъясняет, что экспертность сложно однозначно определить, так как она может проявляться в разных формах: способностях, опыте, поведении, официальных сертификатах и воспринимаемом авторитете. Для Гугла важны не только официальные критерии, но и внешние сигналы экспертности - отзывы, упоминания на авторитетных сайтах и т.д.
Приводится простой и смешной пример. Какой из 2-х кренделей является экспертом по фитнесу. Первый - без сертификатов, но подтянутый качок или второй - с кучей дипломов, но жирный толстяк.
Способы наращивания Expertise, предлагаемые Натаном (с примерами и советами):
В целом, перечисленные способы полезны и разумны. Они охватывают как внутреннюю оптимизацию сайтов и профилей, так и внешние PR-активности для роста авторитета. Особое внимание уделяется созданию качественного контента, что имеет смысл. Обоснован также упор на сотрудничество и ассоциирование с другими экспертами.
Дополнительные соображения:
И самое важное - нельзя быть экспертом вообще. Человек может быть экспертом только в какой то одной -двух областях и полным профаном в большинстве иных. Гугл четко отсекает такое (на машинном уровне) - я рассказывал ранее про оный патент гугловцев.
Таким образом, для наращивания экспертности нужен комплекс мер по созданию качественного экспертного контента, активному взаимодействию в профессиональной среде, формированию личного экспертного бренда и работе над получением официальных сигналов экспертности.
Вот сама статья на изучение. Там много всяческих практических примеров - что то можно и перенять для себя.
p/s
Быть экспертом - это значит ежедневно и постоянно подтверждать свою экспертность. Согласно гугло-патента, с течением времени Expertise снижается, затухает и тот кто был экспертом лет 10 назад, вполне может не считаться таковым сегодня.
#DrMax #SEO #EEAT #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну, всё ожидаемо. Прямо сейчас крокодилий плач стоит в буржуинской части Интернета. Десятки (а может и более) подтвержденных случаев банов сайтов - миллионников, которые были генеренкой, ручные баны на сайты, злоупотребляющих дропами. В комментариях приведен список таких попадосов (только для участников).
В основном, пока идет расстрел ручными санкциями.
Важно: Гугл объявил, что дает 2 месяца на приведение сайтов в соответствии с спам-политикой. После этого, мол, пеняйте на себя.
Кроме того, основная задача Гугла - вычистить около 40% сайтов. Об этом вычитал в докладе от SEJ.
Так что не ленитесь, изучите спам-политику Гугла и постарайтесь в короткие сроки адаптироваться к ней. Иначе придется долго и мучительно реанимировать трафик сайтов.
P/S
Русская и английская версия спам политики различны! У первой стоит дата обновления 2024-01-29 UTC у второй 2024-03-05 UTC. Так что пользуйте английскую версию (и гугл переводчик по правой кнопке мыши в хроме).
#DrMax #CoreUpdate #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжаем разговор про концепцию E-E-A-T. Часть первая тут. Часть вторая тут. И опять рассматриваем статью широко известного в довольно узких кругах SEO эксперта Натана Готч.
Натан выделяет 4 ключевые составляющие авторитетности:
а) Авторитетность бренда - важно, чтобы ваш бренд был узнаваемым. Один из показателей - количество брендовых поисковых запросов.
б) Вовлеченность аудитории - анализ активности на ваших социальных каналах, уровень вовлеченности.
в) Репутация - наличие позитивного пользовательского контента, хороших отзывов о вашем бренде.
г) Авторитетность ссылочной массы - количество и качество обратных ссылок с других сайтов.
Это довольно стандартный и полный набор факторов, влияющих на авторитетность сайта с точки зрения поисковых систем. Автор справедливо отмечает, что основным фактором являются обратные ссылки.
10 практических способов наращивания авторитетности
Затем автор приводит 10 рекомендаций по повышению авторитетности:
Эти рекомендации в целом соответствуют принципам современной SEO-оптимизации. Однако некоторые из них (например, "техника слияния") могут быть рискованными с точки зрения соблюдения рекомендаций поисковых систем.
Дополнительно для наращивания авторитетности можно рекомендовать:
В заключение можно сказать, что авторитетность - комплексная характеристика, работать над которой нужно по многим направлениям. Наращивание ссылочной массы - это важно, но недостаточно. Также нужно укреплять экспертный статус, реноме бренда и формировать лояльную аудиторию
Сама статью вот тут.
#DrMax @EEAT #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Всплывают первые аналитические обзоры о двойном обновлении Гугла. Вот один из обзоров, где выявлено применение масштабных ручных санкций и деиндексация более 1400 сайтов из примерно 79 000 проверенных.
Методика исследования довольно сомнительная, но для первых выводов пойдет. Основные выводы исследований таковы:
Причина ручных санкций - использование ИИ-контента:
Выводы:
Первая часть обновления Google прямо нацелена на борьбу с распространением ИИ-спама в поисковых результатах. Применение масштабных ручных санкций - это попытка Google не только наказать нарушителей, но и послать четкий сигнал о недопустимости использования ИИ-сгенерированного спама.
Вот сама аналитика.
#DrMax #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
Потестил первым десятком AI-детекторов, найденных в Google контент, сгенерированный Клавдией (англ).
При условии верного выбора/настройки тематики, тональности текста, запрета на значительное кол-во passive voice и transition words + избегании гиперболизации, ни один детектор не показал наличие II контента.
Возможно, в платных версиях более продвинутые механизмы определения II- контента. Возможно они и найдут вкрапления II-контента.
Второй этап исследования
Далее, скормил контент Барду / Гемини и попросил оценить его на натуральность. Выбрал несколько ранжирующихся статей.
Сначала скормил контент, написанный журналистом. Получил вот такое в ответ:
Этот контент, скорее всего, был написан человеком по следующим причинам:
Потом скормил контент, сгенерированный Клавдией + Перплексити. Использовалось 7 различных промтов + минимальная декоративная правка текста. Вот что получил на выходе
Контент, скорее всего, был написан человеком по следующим причинам:
Ну и наконец, скормил Барду / Гемини контент, сгенерированный Клавдией 1-2 промптами, без особой правки руками. Вот что мне ответила эта особа, приближенная к Гуглу:
Этот контент, скорее всего, был написан чат-ботом, и вот почему:
Хотя человек может создать контент с такими характеристиками, это маловероятно. Человеческий писатель, скорее всего, будет более склонен к тому, чтобы:
Выводы делайте сами.
#DrMax #ChatGPT #Клавдия #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
После первой волны, когда вручную Гугл вырезал наиболее "дерзкие" проекты из выдачи, началась вторая волна (с 6 марта примерно), когда без всяких видимых причин показы/трафик скатились до нуля. Что характерно, в консоли нет никаких предупреждений, по site: сайт находится как в органике, так и в поиске по изображениям, но при этом трафик стремится к нулю.
Уточню, что данные по буржунету.
Такую фишку Гугловцы уже однажды проделывали, когда на всех сомнительных сайтах ( и сайтах покупающих или продающих ссылки с известных продажных бирж / ресселеров) был обнулен PageRank. Собственно после этого в буржунете и померли все биржи ссылок (типа Миралинкса, не говоря уже о Сапе).
Сейчас наблюдается примерно та же картина.
Частично это подтверждается недавнем заявлением гугловцев о снижении значимости ссылочного.
В выдаче сейчас наблюдаются или мощные проекты с мощным ссылочным или ссылками с заведомо доверенными сайтов (типа 100500 ссылок с Ютуба), либо вторая крайность - доры с миллионными ссылками. Причем и те и другие занимают несколько мест в выдаче по запросу.
Особенно пострадали молодые проекты, до года.
Поскольку гугловцы перегнули палку, то частично некоторые проекты "отпускают" и они восстанавливаются. См скрин - там опрос бесхитростных "новичков" с частными бложиками, которые печалятся на Реддите. Данные очень интересны, поскольку реальны и нет смысла этим товарищам что то выдумывать.
Выводы таковы:
1. Все падения сайтов во второй волне никак не зависят от контента. Видимо время еще не пришло.
2. Припали сайты без массивного ссылочного или с покупным ссылочным. Скорей всего на всех страницах обнулен PageRank
3. Наказывают не отдельные страницы - а сайт целиком.
4. Часть упавших сайтов уже восстановилась (чуть меньше половины)
Внимание:
Выводы и наблюдения исключительно мои и могут не соответствовать действительности.
Внимательно следим за развитием апдейта и ждем новых казусов от Гугла.
Всё еще только начинается
#DrMax #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
Как дела с ранжированием в Гугле? Вырос или упал трафик после начала Core + спам апдейта?
Final Results
7%
Рунет - Вырос
27%
Рунет - без изменения
12%
Рунет - Припал
5%
Бурж - Вырос
12%
Бурж - без изменения
14%
Бурж - Припал
23%
у меня нет сайта
Текущий апдейт алгоритмов ранжирования Гугла, в числе прочего, завязан на относительное понижение ссылочного, как фактора ранжирования. Собственно данная тенденция началась пару лет назад, когда в майском апдейте 2022 года уже происходило подобное действие (потом вроде как откатили). Но тем не менее, отныне ссылочное менее значимо, чем ранее.
Во многом это связано и с алгоритмом SpamBrain . который нивелирует значение недостаточно качественного ссылочного.
Первое явное заявление, от сотрудника Google, было сделано прошлой осенью на PubCon Austin, где Гэри Иллис заявил, что ссылки даже не входят в тройку лидеров по факторам ранжирования.
Ну Джон Июллер тут как тут: «Сегодня для веб-сайтов есть более важные вещи, и чрезмерное внимание к ссылкам часто приводит к тому, что вы тратите время на вещи, которые не делают ваш сайт лучше в целом».
Обновление Google совпало с четырьмя изменениями в их документации, которые преуменьшали роль ссылок, включая удаление слова «важно» из предложения о ссылках как факторе ранжирования. Все остальное в предложении осталось прежним, из документации убрали только слово «важно».
До: «Google использует ссылки как важный фактор при определении релевантности веб-страниц».
После: Google использует ссылки как фактор определения релевантности веб-страниц.
Собственно будем смотреть как изменится влияние ссылочного по завершению мартовского апа, начавшийся 5 марта и продолжающийся по сей день.
Всякое может вылезти.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
📺 Как Гугл ранжирует контент
Гэри Иллис (гугло инженер) записал новое коротенькое видео, где он рассказывает как Гугл ранжирует страницы. Он начинает рассказ с подчеркивания, что цель поиска — предоставить результаты на веб-страницах высокого качества, заслуживающих доверия и релевантных.
Очень важное уточнение, что релевантность - это не семантическая релевантность контента, а релевантность для пользователя. То есть опять всё упирается в поведенческое и степень удовлетворенности пользователя контентом. В целом, релевантность для пользователя может означать персонализацию, включающая предыдущие поисковые запросы, актуальность и геолокацию.
Потом он упоминает о расширении запроса. Именно эта подсистема помогает ранжироваться странице по какому-то запросу, даже если в контенте нет фразы, включающий этот запрос.
Говоря о ранжировании, он упоминает следующие соображения:
⏺ Релевантность для пользователя
⏺ Сотни факторов определяют актуальность
⏺ Содержание веб-страницы является наиболее важным фактором
⏺ Другие факторы включают местоположение пользователя, язык и тип устройства.
⏺ Качество веб-страницы и сайта учитывается при ранжировании.
⏺ Относительная важность страницы в Интернете
Интересно, что Гэри решил подчеркнуть уникальность контента не просто как фактор качества, а как важный фактор.
В целом, рекомендую ознакомиться с видео.
#DrMax #SEO #Google
Гэри Иллис (гугло инженер) записал новое коротенькое видео, где он рассказывает как Гугл ранжирует страницы. Он начинает рассказ с подчеркивания, что цель поиска — предоставить результаты на веб-страницах высокого качества, заслуживающих доверия и релевантных.
Очень важное уточнение, что релевантность - это не семантическая релевантность контента, а релевантность для пользователя. То есть опять всё упирается в поведенческое и степень удовлетворенности пользователя контентом. В целом, релевантность для пользователя может означать персонализацию, включающая предыдущие поисковые запросы, актуальность и геолокацию.
Потом он упоминает о расширении запроса. Именно эта подсистема помогает ранжироваться странице по какому-то запросу, даже если в контенте нет фразы, включающий этот запрос.
Говоря о ранжировании, он упоминает следующие соображения:
Интересно, что Гэри решил подчеркнуть уникальность контента не просто как фактор качества, а как важный фактор.
В целом, рекомендую ознакомиться с видео.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
How Google Search serves pages
Previously, Gary discussed how Google Search processes and analyzes a web page in order to be returned to users as a search result. In this episode, Gary covers how Google Search actually returns that result; technically. How does Search process users' queries…
Есть десятки подобных способов, начиная от подстановки параметров в URL запроса, подменой хитрых настроек в Хроме, использованием VPN и т.д. и т.п.
А есть вот такой немудренный способ с применением гугло-инструмента "Предварительный просмотр и диагностика объявлений" , который позволяет вам увидеть, как выглядят ваши платные рекламные объявления, когда люди ищут ключевые слова, связанные с вашим бизнесом в своем регионе.
Именно его и можно применять для просмотра выдачи с точным ГЕО (см скрин).
Правда нужен аккаунт Гугл Рекламы.
Инструмент вот тут.
Удобно )))
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Многие читатели канала используют Вордпресс в своей работе (кстати мне недавно показали вордпресс-сайт на несколько сотен страниц, который генерирует больше миллиона $/месяц).
Итак, вордпрессовцы прикрутили новое API и выпустили официальный плагин, который загружает и реендерит страницы, которые предполагаются будут загружены. Ну например, вы навели мышь на ссылку, не переходя по ней, а загрузка страницы уже началась. Это позволяет повысить уровень взаимодействия с пользователями из за крайне быстрой навигации по сайту.
По сути это является неким аналогом функции <link rel="prefetch">
Вордпрессовцы выдают это за некий прорыв и подумывают встроить такую функцию в ядро (пока плагин только). Но на самом деле - такая фишка была реализована достаточно давно. Я встречал её в некоторых кэш-плагинах, да и в Хроме есть такая фигулина, которая срабатывает при 80% вероятности перехода на страницу (ссылку исправил).
Эта функция предварительной загрузки страниц называется "Speculative Click Me Load More". Повторюсь, что плагин позволяет браузеру предварительно визуализировать всю веб-страницу, на которую пользователь может перейти дальше. Плагин делает это, предугадывая, на какую веб-страницу может перейти пользователь, в зависимости от того, где он находится. Именно от точности предугадывания зависит качество подобного функционала ( в противном случае будет напрасно отъедаться трафик и нагружаться процессор, да и память может закончиться).
В целом, потестить плагин крайне интересно. Вероятно, для некоторых сайтов он даст плюсы в ранжировании из за улучшения поведенческого. Ну и то, что всё это дело встроено в ядро (API), а не в виде какой то внешней нашлепки, как в иных плагинах кэширования, вероятно даст плюс к скорости / точности.
Скачать плагин можно здесь.
#DrMax #WordPress
Please open Telegram to view this post
VIEW IN TELEGRAM
Ситуация достаточно редкая, но иногда случается:
1. Предположим, какой то сайт спер у вас контент.
2. Сайт более трастовый, чем исходный
3. Гугл, наплевав на даты публикации, признал страницу вражеского сайта с вашим контентом более каноничной
4. Трафик на вашей странице падает, так как это дубль (см скрин)
5. Все входящие ссылки на эту страницу переклеиваются на вражескую страницу с вашим контентом (как внешние, так и внутренние)
Последнее вы можете посмотреть в GSC - отчет по ссылкам, выбрав исследуемую страницу и посмотрев куда ведут внешние ссылки.
То есть вы лишаетесь не только контента и трафика, но и внешних ссылок + сами начинаете ссылаться на вражеский проект.
Вот такие дела.
Потому, ежели вы выкладываете куда контент со страниц сайта - то видоизменяйте его, урезайте, чатами переписывайте и пр.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM