Telegram Web Link
⚠️ Техническое (через сутки / другие удалю) - телеконференция и заказы на май.

Первое.
Миша Шакин пригласил меня поучаствовать в телеконференции на следующей неделе. Есть какие то предпочтения о чем поведать? Или книжку с выражением часа 3 посидеть почитать? На 2 голоса с Мишей )))
Отписывайте в комментариях о тематиках. Только не о последних апах Гугла. Коре еще идет.
Выберу из того, что понравится )))


#DrMax #техническое
Please open Telegram to view this post
VIEW IN TELEGRAM
Гугл откатывает кэш ???

Интересное наблюдение вылезло прямо сейчас. Смотрите:

1. У меня на сайте подвыпала страничка (просканировано, но не проиндексировано)

2. Я её переделал и запихнул в Гугл, который радостно съел её (прокэшировал/проиндексировал) за пару минут. Было это аккурат 10 апреля

3. Проверка на индексацию этой страницы в GSC показывала 10 апреля. И такое показывалось до вчерашнего дня (может до позавчерашнего - фиг знает, особо не следил).

4. Сегодня обновилась консоль по 16 апреля и что вы думаете? Та же страничка опять выпала.

5. Смотрю - дата последнего сканирования в консоли у этой странички аж 22 марта (а не 10 апреля)

Похоже Гугл напортачил конкретно со своими обновлениями и сделал откат из некоего бэкапа.

Регион - штаты / услуги

Вы такого не наблюдали?

зы
на другом сайте выкинул страничку ( просканировано/непроиндексировано). Страничка была сделана в феврале месяце, в консоли показывает дату последней индексации аж 3 сентября. Естественно такой странички и в помине тогда не было ))))
поломали Гугл совсем )))


#DrMax #Google #CoreUpdate
🤓 Про Детекторы генеренки

Есть куча всевозможных детекторов, которые, якобы, палят генеренный контент. Впрочем, самые крупные производители уже свернули развитие детекторов из за полной их бесперспективности.

Тем не менее, товарищи по прежнему пользуются некоторыми, например вот таким.

Потестил генеренку Барда (самый простой промпт) - всё раскрасило красным - мол плохой, генереный контент.

Далее тот же сгенеренный контент загнал в DeepL Write и опять потестил в оном AI-детекторе. Теперь детектор пишет, что контент 100% человеческий.

То ли все эти детекторы на определенные паттерны настроены, которые раз за разом выдают всякие чат-боты, то ли еще чего, но при использовании новой платформы генерации контента ( у которой уже совсем иные паттерны), все эти AI-детекторы генеренки лажаются. А новые чат-боты рождаются ежедневно, каждый из которых обучен/переобучен по своему и паттерны, которые будут выдавать генеренку и них свои.

Именно поэтому, крупные игроки детекторов свернули свои наработки, именно поэтому гугл не наказывает за генеренку, а наказывает за анти-хелпфул контент (бесполезный г. контент).

Ну и чтоб параноя не развивалась (как указали в комментариях), используйте нормальные промпты, вычитывайте что у вас получилось после генерации, ну или прогоните вашу генеренку через могучий DeepL Write (аглицкий только).

#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🥒 Весенняя SEO-солянка c Dr.Max

Хотите узнать новые SEO-фишки от Dr.Max? Как сейчас безопасно и эффективно продвигать сайты в топ? Как быстро найти точки роста для увеличения посещаемости сайта?

22 апреля в 15 по Москве смотрите вебинар Dr.Max @drmaxseo.

📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=H8tvya1aSCE

🎞 Смотрите плейлист "Круглые столы по SEO" на моем YouTube канале:
https://www.youtube.com/playlist?list=PLS7oN4pFU92uFmLvxXur-UiJqjMPH7_E2

Смотрите предыдущие вебинары с Доктором Максом:
Хитрый линкбилдинг 2024. Строим ссылки с конкурентов!
https://www.youtube.com/watch?v=0oygm26K_48

Секреты линкбилдинга
https://www.youtube.com/watch?v=pcooQJ3wvYk

Рост эффективности SEO на 1000% своими руками
https://www.youtube.com/watch?v=uBH7gw_I44o

32 фишки внутренней перелинковки
https://www.youtube.com/watch?v=G4PLTuVtn8c

🎥 Трансляция в моем профиле ВК. Все записи вебинаров доступны здесь https://vk.com/video/@globator):
https://vk.com/globator

🚛 Мои каналы в ВК Видео:
https://vk.com/video/@shakinseo - видео по продвижению сайтов в рунете
https://vk.com/video/@burzhunetseo - видео по продвижению англоязычных сайтов

📼 Кроме этого, запись вебинара будет размещена в моем канале на Дзене:
https://dzen.ru/shakin

📹 И в моем Rutube канале:
https://rutube.ru/channel/24777621/

Михаил Шакин, @shakinweb #линкбилдинг #аналитика #лайфхак #seotools #точкироста #трафик #техническоеseo
😱 Как написать AI-контент, оптимизированный для EEAT

Moz выкатил статью про создание качественного контента силами ботов. Основные мысли таковы:

Мы начинаем с создания вручную 2–3 частей качественного контента. Наши опытные копирайтеры пишут их, чтобы гарантировать, что они устанавливают строгий стандарт качества и релевантности.

Затем мы используем наш инструмент искусственного интеллекта для проверки этого созданного вручную контента на предмет соответствия рекомендациям Google по оценке . Этот шаг гарантирует, что наш контент соответствует самым высоким стандартам EEAT.

Используя наш эталонный набор контента, мы просим ChatGPT генерировать контент аналогичного качества для указанной темы, используя наши ручные примеры в качестве стандарта качества.

После того, как ИИ сгенерирует контент , мы сравниваем его с рейтингом первых нескольких статей в Google. Такое сравнение помогает нам выявить пробелы или дополнительную информацию, которую нам необходимо включить.

Затем наши копирайтеры уточняют контент искусственного интеллекта, добавляя уникальные идеи, точки зрения и информацию, не вошедшую в топовые публикации в блогах.

Наконец, мы оптимизируем контент, учитывая лучшие практики SEO. Это включает в себя реализацию внутренних ссылок, разметку схемы и включение элементов EEAT.

Выводы: без вычитки и правки генеренки - никуда.

Сама статья вот тут.

#DrMax #SEO #Content #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
О разных полезностях и вопросах из комментариев.

Тут меня в комментариях спрашивали – мол, кто для меня из SEO специалистов является авторитетом. Наверняка, чтобы оных товарищей почитать, поизучать их труды.

Ну, начнем с Рунета. Тут кроме всеми нами уважаемого Миши Шакина, есть несколько человек, одни довольно известные, как Андрей Симагин (автор кучи востребованного бесплатного SEO софта), есть и очень скромные товарищи, мало известные паблику, но с которыми я общаюсь лет 15-20 уже и восхищаюсь их мега способностями в SEO.

Хочу познакомить сейчас еще и с Кириллом, который ведет свой SEO канал, в коем время от времени попадаются крайне интересные мысли и наблюдения.

Вот, например, опять всплыла дремучая тема с собиранием трафика на PDF. Эта тема зародилась чуть ли не на заре интернета, когда поисковики научились индексировать PDF. В книжице «SEO Монстр» я докладывал, как ловко собирал ссылочное с упоминаний в PDF. А теперь вот Кирилл расписал, насколько рулит такой способ в Яндексе. Собственно, как монетизировать оный трафик – дело десятое. Главное, что тема живет и процветает.

Там же, на канале он периодически докладывает о результатах работы со всякими AI-ботами. И если я пишу про всякие проверки на актуальность, всевозможные факт чекинги и прочие академические исследования при работе с ботами, то Кирилл переводит это всё в практическую плоскость, типа вот такого. Там вроде курсы у него есть на эту тему, обучение но я в это не вникаю ))).

В общем есть что почитать, подумать. Канал у него с "оригинальным" названием Лайфхаки по SEO ))) Но это абсолютно не влияет никак на качество контента. Я вот тоже думал, как обозвать этот вот канал, да плюнул (посмотрите как у меня канал называется в описании 😀 ).

А про буржуйских товарищей оптимизаторов – я завтра распишу (ежели захотите). Может быть даже расскажу про одного хитрого знакомого товарища родом из Индии.

PS
давайте канал с комментами переименуем как то. Есть мысли ?

#DrMax #SEO #Мысли
Please open Telegram to view this post
VIEW IN TELEGRAM
Гугл завершил мартовский CoreUp

Наверное, самый длинный апдейт в истории Гугла. Длился почти 2 месяца.
Теперь нужно обдумать, что они там наворотили и готовиться к майскому спам апдейту.

#DrMax #Google #CoreUP
Please open Telegram to view this post
VIEW IN TELEGRAM
🔝 Гугл вырезал пол-интернета из выдачи. Анализ мартовского CoreUP. Часть1.

Первоначально Google сообщал, что количество низкокачественного и бесполезного контента сократится на 40%. Теперь Google заявил, что в конечном итоге этот показатель оказался ближе к 45%. Фактически половина страниц Интернета выпала из выдачи, что несомненно хорошо для Гугла (снижение расходов) и плохо для владельцев сайтов.

Google обновил страницу справочного центра, на которой описывается, как владельцы сайтов могут устранить падение ранжирования. Насколь я помню - раньше там были просто кривульки, а теперь они эти кривульки расписали.

Гугл глумливо сделал страницу фидбека по результатам апа. Если вы припали - то отпишитесь туда. Толку не будет, но мало ли.

Гугл также выпустил обновление по спаму в марте 2024 года, которое началось 5 марта и завершилось 20 марта . Google также выпустил множество ручных действий, связанных с проблемами чистого спама (вырезал сайты целиком). Наконец, в этот период Google изменил свои основные веб-функции, чтобы использовать INP вместо FID. Таким образом, множество изменений перекрывают друг друга, наверняка для того, чтобы было сложно определить, какие изменения могли повлиять на падение ранжирования. Ну или на рост (кому повезло).

В Google заявили, что это обновление уточнило, как они понимают, какие веб-страницы «бесполезны, имеют плохой пользовательский опыт или кажутся созданными для поисковых систем, а не для людей». Сюда «могут относиться сайты, созданные в первую очередь для соответствия очень специфическим поисковым запросам», добавили в Google.

Теперь важно:
В этом основном обновлении, выпущенном в марте 2024 года, Google прекратит анонсировать новые обновления полезного контента , поскольку система полезного контента была включена в основную систему обновлений. Последнее обновление полезного контента было в сентябре 2023 года. Классификатор системы полезного контента был переработан и теперь включен в основное обновление от марта 2024 года.

То есть те, кто припал в сентябре от хелпфул обновления, припали еще больше. Тех, кого сентябрьское обновление вырезало почти полностью, мартовским были добиты.

Судя по спец форумам, кои были зачитаны до дыр, практически никому, кого подрезало сентябрьское обновление не удалось восстановиться. Видимо, классификатор полезности стал еще более жестким. Единственные радостные уведомления были от ребят, которые перенесли сайт на новый домен - те восстановились практически полностью (непонятно делали они редиректы или нет, что очень важно).

Google поглумился еще раз и выдал несколько новых советов для восстановления:
Конкретных действий для восстановления не требуется. Негативное влияние на рейтинг может не указывать на то, что с вашими страницами что-то не так.

Google опять предложил свой старый список вопросов, на которые следует ответить, если вы упали в результате обновления.

Google сказал, что между обновлениями ядра можно увидеть некоторое восстановление, но самое большое изменение произойдет после еще одного обновления ядра.

Короче говоря, пишите полезный контент для людей, а не для ранжирования в поисковых системах.

Так ли это на самом деле ?

#DrMax #SEO #CoreUpdate #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔝Гугл вырезал пол-интернета из выдачи. Анализ мартовского CoreUP. Часть2.

➡️ Тип контента: обзоры

Сайты, наполненные статьями с обзорами чего либо пострадали больше всех. К ним можно отнести и небольшие коммерческие проекты с блогами и какие ни будь тревел блоги с уникальными обзорами, всевозможные агрегаторы чего либо или просто обзоры какой нибудь фигни. Изначально такие сайты пострадали от сентябрьского апдейта полезного контента и были добиты мартовским.

Существует два стойких мнения, почему так произошло.

Первое – что рулит траст и если вы не являетесь:

Общепризнанным брендом или знаменитостью
Крупной корпорацией
Сертифицированным экспертом в своей области
Известным независимый брендом
то вам не только не видать топов, но и в выдаче незачем быть.

Отчасти это справедливо. Это основано на том, что в ходе судебного расследования Гугл признался, что он не умеет достоверно и полно понимать, о чем повествует контент. И поэтому он пользуется всевозможными факторами ранжирования типа ссылочного, поведенческого, графа знаний, микроразметки, хостовых факторов (сколько лет живет проект, как часто обновляется и пр). Таким образом, Гугл не в состоянии алгоритмически отличить хороший контент от выдающегося. И его советы о создании экстра качественного контента – от лукавого.

Вторая группа товарищей утверждает, что всевозможные ревьюшки давно всем надоели, не несут никакой добавочной ценности и потому были прибиты Гуглом. Они говорят что нужно писать не о том, ЧТО такое объект/явление/предмет, а КАК им пользоваться.

В качестве примера берем холодильник. Как правило он давно есть в каждой семье и обзоры на новые модели никому не нужны (да собственно ничего нового то и нет в новых холодильниках). А вот то как оперировать этим холодильником, поддерживать его работоспособность, например как менять резинки, как очистить холодильник изнутри и т.д. – это ценная информация, востребованная многими товарищами. Таким образом, смещая вектор с ненужных обзоров (которые никто не смотрит) на советы по этим предметам (много ищут), якобы можно поиметь тонны трафика.

Несколько не соглашусь с этим заявлением. В первом комментарии график очень опытного товарища, занимающегося ремонтом, который ведет частный блог, описывает КАК нужно делать, снимает уникальные видео и выкладывает их и посмотрите как он припал.

Мое мнение таково. Необходимо иметь могучий траст, прокачанный бренд и хорошее поведенческое. И тогда ревьюшки действительно займут ТОП. Ну а качество контента – это второй слой, который обеспечивает именно поведенческие факторы. Плохой и ненужный контент юзать не будут и поведенческое будет стремиться к нулю.

И как вы думаете, сможет ли замена контента на сайте восстановить ранжирование? Об этом далее…

#DrMax #SEO #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
⁉️ Как Гугл понимает что перед ним обзор чего либо.

* Дополнение к предыдущему посту.

Существует несколько паттернов, по которым можно определить, является ли контент обзором.

🟢Структура:

Обзоры обычно имеют четкую структуру, с введением, основной частью и заключением. Во введении обычно представлен продукт или услуга, которая рассматривается, а также дается краткий обзор того, что будет обсуждаться. В основной части подробно рассматриваются различные характеристики продукта или услуги. В заключении обычно подводятся итоги обзора и дается общая оценка продукту или услуге.

Ключевые слова: введение, заключение, разделы и пр.


🟢Язык:

Обзоры обычно написаны информативным языком, понятным для целевой аудитории. Они часто включают в себя оценочные суждения и мнения автора. В них могут использоваться сравнения с другими продуктами или услугами.

Ключевые слова: обзор, рецензия, оценка, анализ, сравнение, плюсы/минусы, мнение, впечатление, опыт, тест, вердикт и т.д.


🟢Тон текста (легко определяется алгоритмически):

Информативный, объективный, субъективный, оценочный, сравнительный, рекомендательный (самый паскудный).


🟢Контент:

Обычно в обзорах встречаются подобные слова:
Лучший, худший, топ, рейтинг, лидер, новинка, популярный, must-have ))), не / рекомендую, уникальный и пр.


🟢Ссылки:
Обзоры часто содержат ссылки на другие источники информации, такие как веб-сайты производителей, технические характеристики и отзывы пользователей.

Следует отметить, что наличие одного или двух паттернов не гарантирует, что контент является обзором. Однако наличие нескольких паттернов является «strong indication» того, что контент является обзором.

Вот несколько примеров, явно указывающих на обзор:
"Обзор нового смартфона Samsung Galaxy S23 Ultra"
"Рецензия на фильм "Аватар: Путь воды""
"Сравнение ноутбуков Apple MacBook Pro и Dell XPS 13"
"Плюсы и минусы использования электромобиля"
"Мое мнение о фотоаппарате Canon EOS R5"
"Опыт использования фитнес-браслета Xiaomi Mi Band 7"
"Тест умной колонки Amazon Echo Show 10"
"Вердикт: стоит ли покупать iPhone 14?"
"Лучшие книги 2024 года"
"Топ-5 самых популярных электронных устройств"
"Лидеры рынка смартфонов в 2024 году"
"Новинка от компании Sony: PlayStation VR2"
"Must-have гаджеты для путешественников"
"Я не рекомендую покупать этот телевизор"


Таким образом Гугл прекрасно алгоритмически понимает, что вот эта страничка явно обзор. При условии низкого траста домена, плохого поведенческого (отскоки в выдачу, мало время на страничке, низкая глубина просмотра, отсутствие нажатий, скроллирований, сдвиганий и пр) неплохо бы такой обзор выкинуть из выдачи.

Продолжение следует...

#DrMax #SEO #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
😱 Про то как нужно слушать и понимать заявления Гугла.

Всем известно, что говорящие головы Гугла частенько врут. То ли из за недомыслия, то ли из за недостатка информации. Взять того же Джона Мюллера. То что он вещает, зачастую, через какое то время, опровергается или практикой или им же самим, а то и всплывает совершенно обратное в ходе судебных слушаний ( например поведенческое).

Официальные заявления Гугла тоже весьма скользкие. И часто подразумевают совершенно не то, о чем говорилось.

Вот, например, обмусоленное заявление о снижении ценности ссылочного, как фактора ранжирования. Мол ссылочное не торт и не играет для Гугла большой роли.

Народ, в большинстве своем воспринял это как снижение значимости ссылочного в целом. Но это совсем не так. Поясню на самых простых примерах с небольшим экскурсом в историю интернета.

На заре интернета был придуман гугловцами алгоритм PageRank, базировавшийся на количестве (а в следующих версиях и на качестве) ссылочного. Для начала отсчета брались так называемые корневые сайты и в зависимости от их удаленности каждой странице присваивались PR.

Предположим, что 20 лет назад корневые сайты имели, ну пусть 10 тысяч ссылок на каждом. При этом PR10, который считается по экспоненте - ну пусть миллион очков.

Интернет рос. Кол-во ссылок ежегодно вырастало в десятки раз.

Сегодня корневые сайты имеют ну пусть 10 миллионов ссылок, при этом PR10 уже будет, предположим, миллиард очков.

Таким образом, чтобы достичь PR3 сегодня нужно в 100 раз больше ссылок, чем 20 лет назад.
Таким образом, ВЕС ОДНОЙ ССЫЛКИ уменьшился в десятки раз - и значимость этой ссылки тоже уменьшилась в десятки раз.

А вот расчётный PR как был в алгоритме ранжирования- так им и остался. И выдача строится, в том числе, используя PR. И YMYL страницы в своих наборах факторов EEAT активно его используют. И т.д. И т.п.

Вот о чем действительно говорят гуглоиды, когда вещают о снижении ценности ссылочного: Оно не стало хуже работать - просто теперь нужно в десятки а то сотни раз больше ссылок строить, чтобы достичь необходимого уровня PR. Который и участвует в ранжировании.

Если сейчас посмотреть выдачу, то там болтаются либо трастовые сайты, либо проекты с большим кол-вом ссылочного. Попробуйте найдите в конкурентном ТОП-е сайт без ссылочного. Вряд ли найдете.

Продолжим....

Вот прошел последний CoreUP. Как говорят гуглоиды - они вырезали 45% сайтов/страниц, якобы плохого качества. И якобы это они сделали в великой заботе о пользователях.

На самом деле это не так. Ряд прекрасных сайтов попало под раздачу. При этом в ТОПе висят сайты, которым там делать нечего.

Гугловцы заботятся только об одной группе людей - их акционерах. Вернее об их карманах и показателях прибыли. Вот вырезали они хорошие сайты из выдачи. Теперь им для ведения бизнеса придется закупаться рекламой. Спрос вырастет, вырастет ценник на рекламу. И те кто до этого закупался рекламой станут платить больше. При этом объемы закупок вырастут. Профит.

Снижение на 45% кол-ва страниц в инете означает, прежде всего, снижение необходимости в дата центрах. При этом кратно упадут расходы на электроэнергию, которые составляют подавляющую часть расходов в поддержке экосистемы Гугла. А каждый сэкономленный доллар - это заработанный доллар. Опять прямая выгода Гуглу, а вовсе не конечным пользователям Гугла.

У каждого заявления Гугла есть второе, а порой третье дно. И докопаться до него не всегда удается.

Просто надо помнить, что Гугл - это не про пользователей. Гугл - это про деньги. И именно так и надо подходить к каждому заявлению Гугла.

Собственно говоря, Гугл никому ничего не должен))) Он зарабатывает как может и нельзя его за это осуждать.

#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
[ПОИСК] Собственно нужен совет

Необходимо заложить с десяток однотипных сайтов с примерно равноценным контентом для проверки разнообразных идей. В том числе и по борьбе с HCU. Поэтому нужен какой то продвинутый генератор контента, например в виде плагина к WP или там внешнего сервиса. Требования:
1. Работа с perplexity и/или с Бардом
2. Шаблонизатор продвинутый
3. Возможность работы со списками URL
4. Возможность дописывать контент / переписывать имеющееся

Кто ни будь что то подобное использует?

Можно, конечно, на зенке реализовать оное, но я с зеннопостером только на заре его создания пообщался, потом ни к чему было. Что то не хочется опять в это лезть.

Накидайте в комментариях какие либо варианты. Посмотрел на кодеканьоне. Фиг его знает - то что нужно или нет.

В общем нужен совет от практиков )))

#DrMax #Поиск
Please open Telegram to view this post
VIEW IN TELEGRAM
⚠️ Гугловцы откатили базу по индексу на 3 дня.

Пару часов назад было, что обновляли они 1 числа. Сейчас уже 30 ))). Регион - штаты.

Откаты/ докатки еще неделю будут в Гугле после апа.

#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Финальный пост про мартовский Core Update

Хотел расписывать про особенности каждого типа контента, расписал выше только про ревьюшки, больше вычленять не буду - абсолютно нет времени.

Итак, что мы знаем:
1. Те кто припал в сентябрьский ап полезного контента - припал и в марте
2. Практически никто из припавших не восстановился с сентября по март
3. Восстановились и выросли перенесшие сайты на новый домен
4. Из перенесших, те кто сделал 301 редиректы, но не правил контент - упали в марте
5. Теперь классификатор является частью ядра алгоритмов Гугла
6. Штраф накладывается на домен целиком
7. Кроме классификатора, важную роль играет траст (ссылки, нахождение в Гугл-графе знаний)
8. Реальный, прокачанный бизнес пострадал меньше всевозможных обзорников
9. Гугл вырезал 45% всех страниц в инете

Чтобы восстановиться необходимо резко нарастить траст сайта. И тогда, возможно, через ап Гугл вернет трафик.

[ТУТ ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ - ВСЁ ПРОДЕЛЫВАЕТЕ НА СВОЙ СТРАХ И РИСК]

Что нужно проделать - либо переехать на другой домен (с редиректом) + править контент. Восстановитесь еще до коре апа.

Либо, как уже говорил, резко нарастить качество сайта:
1. Убираем признаки обзорности из контента. Вырезаем паттерны.
2. Переписанные страницы переносим на новые URL, отслеживая чтобы в них не было паттернов (с заменой ссылок по сайту и редиректом 301).
3. Ядовитые страницы с 0 трафиком удаляем/объединяем
4. Линкбилдинг
5. Техничка! Вылизываем проект. Устраняем 5xx ошибки. Приводим в порядок и всё остальное.


Далее, так как штраф накладывается на домен целиком, а поддомены, по сути - отдельные сайты, то выносим на них либо самое ядовитое (в надежде через пару апов получить восстановление на главном домене), либо то что раньше приносило трафик, вплоть до того, чтобы на домене осталась только морда, остальное было раскидано по поддоменам - блог отдельно, магазин отдельно, обзоры отдельно. Но это рекомендуется только совсем уж отчаявшимся товарищам.

Не забываем обновить/уточнить коммерческие данные. Не забываем про желтые страницы и проверку NAPW. Всё это поможет пролезть в граф знаний и, возможно, переведет сайт из статуса обзорника в иной статус (просто добавление, например, магазина на сайт - не работает, судя по докладам).

Важно:
Посмотрите внимательно на те страницы, что выпали из индекса в конце мартовского апа и за время после него - это наихудшие страницы вашего сайта. Их на переделку или на обновление или вырезать.

И опять линкбилдинг + переподача выпавших страниц в индекс через API (после переделки или удаления).

В целом, у каждого сайта - свои нюансы и чтобы найти их - нужна тщательная работа по анализу. Причем для разных типов сайтов и для разных последствий от апа - они различаются.

Но в первом приближении, вот такие задачи надо решить.


#DrMax #Google #CoreUp
Please open Telegram to view this post
VIEW IN TELEGRAM
Оценка влияния Google SGE на ваш бренд

Вышла очень интересная статья, где показан процесс внедрения SGE Гуглом. Ну и некоторые советы приводятся по оптимизации SEO процессов под SGE. Расстановка приоритетов является ключом к оценке влияния Google SGE на ваш бренд.

На графике фиолетовым цветом - полностью автоматическая генерация SGE, зеленым - по кнопке, нажатой пользователем. Как видим, панель охватывает до 90+% в некоторых отраслях.

Необходимо прикладывать усилия к оптимизации тех запросов, что находятся в фиолетовой зоне. Для этого:

Соберите данные Google SGE для запросов, которые охватывают 80-90% объема вашего поиска.

Какой процент вашего трафика и запросов приходится на запросы, возвращающие автоматически сгенерированный Google SGE, по сравнению с запросами, сгенерированными вручную?

Есть ли закономерность между этими двумя группами?

Разделение ваших запросов на автоматически сгенерированные и сгенерированные после клика позволяет вам в первую очередь сосредоточиться на автоматически сгенерированных запросах Google SGE и отслеживать это соотношение, поскольку наши исследования показывают, что Google SGE автоматически охватывает больше запросов.

Разделив запросы на два сегмента — автоматически сгенерированный и SGE, созданный вручную, — сосредоточьтесь на оптимизации запросов в автоматически сгенерированном сегменте.
Отслеживайте охват Google SGE в сегменте, созданном вручную (со временем Google будет показывать больше автоматически созданных результатов поиска SGE).

ну и т.д.

Статья интересная, читайте вот тут

Достаточно полезно для понимания, откуда теперь брать трафик.

#DrMax #SEO #Google #SGE
🧐 Подключаем Bard к Гугл Таблицам

Для автоматизации всего и вся ранее использовал Bard + Гугл Таблицы. Причин для использования море - начиная от автоматизации генерации красивых и правильных Тайтлов для страницы и заканчивая... да чем угодно. И да, у Барда есть доступ к интернету.

Итак, для начала получаем доступ к API. Идем (через VPN) в makersuite.google.com и там тыкаем Create API key in new project и собственно забираем ключик.

Есть и второй путь получения ключика API - через https://console.cloud.google.com/ - изначально я там его и делал. В инете много инфы, как получить ключ этим способом - дублировать не буду.

Далее, заходим в Гугл Таблицы.
В главном меню жмем Расширения —> APPS Script
и туда вставляем вот такой код, добавив в него свой ключ:

function BARD(prompt) {

var apiKey = "свой_ключ_API";
var apiUrl = "https://generativelanguage.googleapis.com/v1beta2/models/text-bison-001:generateText";

var url = apiUrl + "?key=" + apiKey;

var headers = {

"Content-Type": "application/json"

};

var requestBody = {

"prompt": {
"text": prompt
}

}

var options = {

"method": "POST",
"headers": headers,
"payload": JSON.stringify(requestBody)
}

var response = UrlFetchApp.fetch(url,options);
var data = JSON.parse(response.getContentText());
var output = data.candidates[0].output;

//return generatedText;
Logger.log(output);
return output;

}


Жмем Сохранить (дискета) и возвращаемся в Гугл Таблицы.

Теперь нам доступна функция =BARD(), гдк в качестве аргумента можно использовать или промпт (в прямых кавычках) или ссылку на ячейку с промптом.

Вся эта фиговина - бесплатная, ограничения на количество токенов в день - чудовищное, но не стоит сразу копировать функцию на 100500 ячеек - пойдут параллельные запросы к Барду и вы словите Ошибки.

Развлекайтесь.

#DrMax #SEO #BARD #GoogleSheets
Please open Telegram to view this post
VIEW IN TELEGRAM
🧐 Подключаем Perplexity к Гугл Таблицам

В отличии от Bard это платный вариант, но он того стоит. Как никто, Perplexity.ai умеет собирать в интернете, анализировать и обобщать информацию. Правда пишет несколько корявым языком, но это простительно (авось не эстеты и далеко не лингвисты), не за это ценим.

Платная версия стоит$20 в месяц + нужно положить денюжку на доступ к API. К примеру, заведенные $50 никак не потратим, хотя уже счет запросов уже десятками тысяч (там разные модели стоят по разному).

Итак, прикупаем доступ (получаете $5 на API), берем в админке секретный ключ (он же ключ API) и идем опять в Гугл Таблицы, где опять лезем в скрипты. Теперь вставляем туда вот такой код:


const SECRET_KEY = "pplx-ваш-ключ-API";
const MAX_TOKENS = 256; // кол-во возвращаемых токенов (больше-дороже)
const TEMPERATURE = 0.2; // температура от 0 до 1 (чем выше - тем больше выдумок)
// здесь список всех моделей которые я нашел
//pplx-7b-chat, pplx-70b-chat, pplx-7b-online, pplx-70b-online
//llama-2-70b-chat, codellama-34b-instruct, codellama-70b-instruct, mistral-7b-instruct, and mixtral-8x7b-instruct.
// llama-3-sonar-small-32k-chat
// llama-3-sonar-small-32k-online
// llama-3-sonar-large-32k-chat
// llama-3-sonar-large-32k-online
// llama-3-8b-instruct
// llama-3-70b-instruct
// mixtral-8x7b-instruct

function pplx(prompt, temperature = TEMPERATURE, model = "pplx-70b-chat") {

// Set API endpoint
const url = "https://api.perplexity.ai/chat/completions";
const payload = {
model: model,
messages: [
{ role: "system", content: "System prompt goes here." }, // Set system prompt.
{ role: "user", content: prompt },
],
temperature: temperature,
max_tokens: MAX_TOKENS,
};
const options = {
contentType: "application/json",
headers: { Authorization: "Bearer " + SECRET_KEY },
payload: JSON.stringify(payload),
};
const res = JSON.parse(UrlFetchApp.fetch(url, options).getContentText());

// Now, return the response
return res.choices[0].message.content.trim();

}


Сохраняем и идем опять в Гугл таблицы.

У нас теперь доступна функция =PPLX (Prompt, Temperatura, Model)

В качестве аргументов задаем промпт (или ссылку на ячейку с ним), температуру и названием модели.

Список всех моделей, что я нашел - см в коде скрипта.

Ограничения API от веб версии:

1. нельзя подключить Клавдию или ЧатГПТ. Переписка с поддержкой показала, что юзаем только модели встроенные в Перплексити.

2. Обратите внимание, сколько запросов ПРО версия делает для поиска информации в веб версии - десятки! Потому ответы у них так хороши. Потому или разбивайте промпты на цепочки с обработкой промежуточных результатов или переделывайте логику промпта.

Долго плевался, но после недели мучений - научился добиваться супер результатов.

3. Разные модели (не факт что нашел все) кушают разное кол-во токенов. И ответы будут стоит по разному.

4. Себе сделал 3 функции, условно говоря pplx256, pplx1024, pplx2048, где прописал руками переменную
max_tokens
прямо в функции. Не стал делать 4-ю передаваемую переменную.

В общем развлекайтесь, оно того стоит. Крайне полезный и могущественный инструмент вышел.

#DrMax #SEO #Perplexity #GoogleSheets
Please open Telegram to view this post
VIEW IN TELEGRAM
🧐 Подключаем Gemeni к Гугл Таблицам

Пожалуй самое простое подключение.

Для начала, как и для Барда добываем API ключик к генеративному API

Потом идем в Гугл таблице и в меню сверху ищем Расширение —> Дополнения —> Установить дополнения.

Теперь ищем вот такое дополнение:

AI Assist for Gemini in Sheets, Docs and Forms
Gemini AI magic in Sheets, Docs and Forms for data enrichment, categorization, translation, and seamless content creation. Elevate your workflow!
Разработчик: GW Add-onsopen_in

Это дополнение бесплатное, все остальные через сотню запросов начнут требовать бабла.

Вводим ключик в настройках.

Теперь доступно десяток новых функций (посмотрите сами), но самая важная:
=gemini(промпт ; температура; модель)

Модель можете задать в настройках. Доступны от 1 версии до 1.5.pro (каждая модель ест разное кол-во токенов).

Гугл выдает на день около миллиона токенов для простой модели и гораздо меньше для сложных. Я использую в основном gemeni-pro с ограничением 2048 токенов. Лимитов еще не исчерпал ни разу.

Опять же скажу - не копируйте формулу на 100500 ячеек сразу - слишком большое кол-во обращений к API выдаст ошибки.

Развлекайтесь )))

#DrMax #SEO #Gemini #GoogleSheets
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓 Опять про мартовский CoreUp

Собственно говоря, переезд на новый домен показал восстановление трафа на убитом в мартовский ап сайте.

Как радикальное средство сгодиться. Ждем, догонит ли классификатор (HCU) при условии исправления контента/ закупки нового ссылочного.

Доклад закончил )) Подробности в комментариях.

#DrMax #SEO #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/05 12:44:39
Back to Top
HTML Embed Code: