Telegram Web Link
🔥 Как заполучить дополнительный трафик. Часть 1.

Как известно, Гугл крайне любит экспериментировать с выдачей и постоянно подсовывает хорошую трафиковую страницу в ответ на более-менее похожие запросы, релевантные странице. А мы воспользуемся данными этих экспериментов.

1. Идем в GSC - Эффективность и выбираем нужную страницу (с трафиком)

2. Вводим регулярный запрос, чтобы отобрать НЧ - запросы. Например:

(\w+ \w+ \w+ \w+) - выбираем 4-х словники (только бурж)

(\w+(\s+\w+){4,}) - выбираем запросы от 4 и более слов (только бурж).

Если хотим изысканности - подключаем Юникод (например для русского языка) и Regexp будет такой

([\w\p{L}]+(\s+[\w\p{L}]+){4,}) - выбираем запросы от 4 и более слов на любом языке. Можно наверное и проще написать - но пофиг, т.к. работает.

3. Экспортируем в Excel, сортируем запросы по числу показов и фильтруем, например от 50 до 100 позиции (можно не делать)

Наша задача найти такие запросы, которые не соответствуют интенту страницы, но при этом Гугл решил попробовать выводить нашу страницу по этому запросу. Грубо говоря, если у нас страница про ремонт двигателя, а запрос про ремонт топливной системы - то такой запрос нам подходит.

Еще раз. Нам нужно найти запросы, которые не соответствуют по интенту нашей странице. Страница никогда не будет ранжироваться по этим запросам, хотя Гугл и подсовывал в выдачу страницу.

4. Отбираем 5-10-15 таких запросов. Это будут идеи либо для новых страниц, либо для новых блоков на текущей странице. Мы можем построить тематический кокон вокруг страницы (кластер) либо расширить текущую страницу.

5. Если мы решили строить коконы (кластера) - то либо сами пишем контент, либо воруем из ТОП 3 выдачи контент, скармливаем генератору (ЧатГПТ, хотя есть и получше) и после обучения просим написать статью, указывая тональность, структуру, размер и прочие важные данные. Я, как правило, генерирую статьи на 3-4 тыс слов, жестко прописывая структуру контента. Далее вычитываем и правим контент и строим кокон.

6. Не забываем делать перелинковку. См как делать коконы тут. Там же и видео есть.

Таким образом, Гугл нам сам подсказывает, каких страниц и какого контента не хватает на сайте. Мы хитро этим пользуемся и загребаем дополнительный траф.

На построение кокона у меня уходит примерно 2-4 часа (без особого оформления).

Используйте.

p/s Кто засылал мне запросы на всякие там аудиты и линкбилдинг стратегии - плиз перезашлите их еще раз. За 2 месяца накопилось куча всего - разобрать и узнать про актуальность - выше моих сил )))

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🟡 Как я тестировал генеративный ИИ

Этим летом, в связи с запуском нескольких могучих стартапов, решили часть контента попробовать сгенерировать. Протестировал для начала разнообразные ЧатГПТ, Бинг-чат, Гугловского Барда - результат вроде б и хороший, но такое на проекты размещать нельзя, не смотря на многочисленные попытки сделать огромный и качественный промпт.

Далее подкинули мне один интересный проект, в тестировании коего я погрузился с головой. Он был прозван за отзывчивость "Клавдией" ))) Летом был абсолютно бесплатен, так как усилено его обучали, сейчас бесплатен, но ввели ограничение на число запросов. Ждем когда зарелизят и сделают платные планы - ибо проект того стоит.

По сравнению с любыми иными генераторами, "Клавдия" выдает более точные ответы. Если сравнивать язык с каким ни будь ЧатГПТ, то "Клавдия" пишет более сочно, образно и достоверно. Такое ощущение, что тексты пишет матерый журналист.

В общем можете потестировать вот здесь. Только английский язык и нужен будет VPN ( Upd: судя по комментариям пока прикрыли доступ для новых пользователей)

Как я работал с "Клавдией":
1. По ВЧ ключу смотрю выдачу и скармливаю контент 2-3 статей (копипаст).
2. Прошу сгенерировать будущую структуру страницы
3. Проверяю/правлю структуру
4. Генерирую контент + 2-3 тайтла + 2-3 дескрипшена + иной нужный контент

Работа вся проводится в одном чате. На первых порах немного обучаем "Клавдию", указываем тональность контента, для кого он предназначен, объем контента, размеры абзацев, какой именно контент мы хотим получить, подачу материалов (очень прикольно делать обзоры от первого лица) и пр. Далее генератор обвыкается и начинает выдавать чудо контент.

Естественно его нужно вычитывать, прежде чем засовывать на сайт и тут же делать замечания "Клавдии". Чем больше вы обучаете, тем лучше получается контент.

В общем пробуйте. А я буду ждать релиза с платными планами.

Кстати, всякие технические штучки-дрючки делает с первого раза, а, например, от того же Гугловского Барда я так и не добился, например, генерации рабочего Regexp для GSC по нужным мне параметрам. Удивительно тупой оказался пресловутый Бард.

#DrMax #SEO #Клавдия
Please open Telegram to view this post
VIEW IN TELEGRAM
📍 Новости от Миши Шакина

1. Миша запустил набор на обучение бурж SEO. Записаться можно вот тут. Можете сказать что от меня пришли - будет (наверное) доп скидка.

2. Миша зазвал 14 сентября на телеконференцию )))) Пока не знаю какую тематику выбрать для неё. Если есть мысли - отписывайте в комментариях.

#DrMax
Please open Telegram to view this post
VIEW IN TELEGRAM
👋 День Варенья тов. DrMax

Собственно меня раскусили и сегодня и правда у меня День Рождения. )))

Спасибо всем за поздравления!

По советам общественности прикрутили вот такую штуку. Потрачу оные дары на кофеин )))

Надеюсь что то полезное привнес за прошедший год.

#DrMax #ДР
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Как заполучить дополнительный трафик. Часть 2.

1. Запускаем лягушку (Screaming Frog SEO Spider) и в главном меню переключаем режим Mode - List
2. Жмем кнопку "Upload" - Download XML Sitemap
3. Из robots.txt конкурента забираем URL XML-карты сайта и прописываем в лягушку
4. Жмем "Ok" и смотрим сколько лягуха насчитала URL

Именно такое число важных (с точки зрения конкурента) страниц есть на сайте конкурента.

Если кол-во не особо большое, то отключив (в настройках) все окромя Last Modifed сканируем страницы. Можно ничего и не отключать и не сканировать - а посмотреть и проанализировать поле <lastmod> карты.

Мы получаем данные:
1. Сколько важных страниц есть на сайте конкурента
2. Просматривая столбец Last Modifed (отсортировав по убыванию), видим сколько страниц ежедневно постит конкурент и какой у него план постинга, например за месяц.

Наша задача постить на 20-30% больше полезных и качественных материалов, чем конкурент. И важно продержаться этого плана до следующего большого Core Updates.

Еще раз. Нужно размещать на 20-30% больше материалов во весь межапдейтный период, а не поразмещать месяц-другой и ничего не добившись плюнуть.

Также можно (и нужно) сравнить кол-во размещенных важных материалов с примерным числом проиндексированных материалов у конкурентов.
Запросы:
site:domain.com
site:domain.com/&

Стратегия сложная из за объемов работы и длительная, но приносит хорошие результаты. Можно и нужно использовать генераторы, ту же "Клавдию".

Вообще, наиболее продуманные товарищи, участвующие в жесткой конкурентной борьбе, прячут свои XML-карты, размещая их в совершенно произвольных местах, на иных доменах и пр и скармливая URL карты сайта непосредственно в GSC без упоминания в robots. Но это совсем уж крайние и параноидальные товарищи, хотя, признаюсь, иногда и бывает полезно.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Долгий путь длиной в 25 лет.

На днях Google Search исполнилось четверть века!!! На секунду, так иногда измеряют человеческое поколение.

Гуглоиды собрали вместе самые важные и ключевые изменения, которые происходили за это время. Интересно на этом таймлайне наблюдать эволюцию и повороты интересов корпорации "добра". Эксперименты с данными на органической выдаче и обработка Big Data.

Естественно зафиксировали про языковые модели. А кто помнит, как началась экспансия Google Translate? Огромный поток нативки шёл через кинематограф, комедии, например. Когда с появлением смартфонов люди пытались завязать диалог. Причём сначала только текстом, впоследствии и голосовым переводом.
Полюбопытствуйте, наверняка есть что вспомнить. 😅

https://blog.google/products/search/25-biggest-google-search-updates/
📺 Телеконференция у Миши Шакина

Завтра, 14 сентября, в 11 по Москве состоится телеконференция на тему "Расширенные стратегии добычи Google-трафика (анализ GSC, часть 3)".

(см часть1, часть2)

Собственно доклад будет о ловкой работе с GSC, Клавдией и иными инструментами с целью наращивания трафика собственными силами без финансовых вложений.

По традиции, после доклада будет сет с вопросами/ответами.

Трансляция на Ютубе (жмите кнопку "Прислать уведомление", чтобы не пропустить): https://www.youtube.com/watch?v=1uATH7y-624

#DrMax #SEO #Телеконференция
⚠️ Semrush за $3, ChatGPT за 20 руб и иная SEO халява

На развалах цифровой барахолки Plati .ru есть множество полезностей - тот же доступ к SEMRush за 300 руб на 14 дней. Это демо доступ, продаваемый ресселерами с готовыми логинами/паролями и привязанной виртуальной картой. 2 недели хватает за глаза чтобы проанализировать сайт или даже пачку сайтов.

Есть куча демо доступов к ChatGPT c $5 на борту. Для создания сетки сателлитов в авто режиме - самое оно. Поднял WordPress, поставил любой из плагинов по работе с ChatGPT и получай тематический сателлит, набитый контентом. И это только один из сотен вариантов использования.

Там же есть доступы к Deepl -самому лучшему переводчику и рерайтеру, проф версией которого можно переводить хоть книжки целиком и получать отменное качество перевода.

Есть еще куча всего интересного. Например базы со спарсенными WordPress (27 млн. штук - привет GSA и Xrumer) и иными CMS/форумами. Есть масса разнообразных VPN и т.д и т.п

Сгреб все полезные (с моей точки зрения) ссылки в одну кучу - см вот тут.

Важно:
1. Я не имею никакого отношения к любому товару/продукту/сайту. По всем вопросам обращайтесь к продавцу.
2. Перед покупкой - обязательно читайте отзывы
3. Вдумчиво читайте описание - возможно это не то, что вы хотели)))

Вся вот эта штука со ссылками - является всего лишь сборищем ссылок с Plati на штукенции, которые могут быть полезны вебмастерам/SEO-шникам.

Пользуйтесь )))

#DrMax #SEOштукенции
Please open Telegram to view this post
VIEW IN TELEGRAM
DrMax SEO pinned a photo
🟥 Телеконференция "Расширенные стратегии добычи Google-трафика" (анализ GSC, часть 3)

14 сентября в 11 по Москве смотрите Телеконференцию у Миши Шакина на тему хитрых приемов работы с GSC для дальнейшего роста трафика

📺 Трансляция на YouTube (жмите кнопку "Прислать уведомление", чтобы не пропустить):
https://www.youtube.com/watch?v=1uATH7y-624

1️⃣ Смотрите предыдущие выпуски:
Первая часть:
(Не)-секретные способы анализа GSC для мощного роста трафика
https://www.youtube.com/watch?v=n_2zYvCbniY

2️⃣ Вторая часть:
И снова о (не)-секретах работы с GSC. Турбо трафик за неделю (часть II)
https://www.youtube.com/watch?v=-4QdLAUxH4U

🎥 Трансляция в ВК (просто добавьтесь в друзья к Мише Шакину, и получите уведомление. Все записи вебинаров доступны здесь https://vk.com/video/@globator):
https://vk.com/globator

📼 Кроме этого, запись вебинара будет размещена в канале Миши на Дзене:
https://dzen.ru/shakin

📹 И в Rutube канале:
https://rutube.ru/channel/24777621/

Всенепременно ждем на трансляции. Будет интересно.
И готовьте вопросы!!!

#DrMax #SEO #GSC #video #Телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
Обзор на сервис для анализа сайта от PR-CY

Цель сервиса — в любое время выдать seo-шнику свежую сводку по состоянию сайта.

Как это работает: добавляешь сайт в сервис, можно несколько, если позволяет тариф. Подключаешь метрики, чтобы следить за трафиком прямо здесь, указываешь конкурентов, чтобы смотреть и за их прогрессом, загружаешь ключи и указываешь регионы, чтобы сервис отслеживал позиции, на этом все.

Что показывает сервис:
— Основные данные по состоянию сайта: метрики домена, оптимизация главной, техничка, скорость, трафик и тд.
— Аудит внутренних страниц: список URL с конкретными ошибками на них.
— Позиции по запросам, целевым страницам и сводные.
— PDF-отчеты с параметрами сайта и отдельные с позициями.

Базовая проверка - бесплатная!
С подпиской больше интересного:
- Несколько сайтов на проверку;
- Аудит внутренних страниц;
- Позиции;
- Сравнение с конкурентами;

Если у вас подписка, открывается безлимитный доступ к другим инструментам: парсеру топа выдачи,составлению ТЗ для копирайтера, массовой проверке доменов и другим.
Справка по работе с сервисом — HELP

Сервис —PR-CY
Джон Мюллер отменяет Фак!

Google
изменил отображение расширенных сниппетов HowTo в органической выдаче.
Первое отключение произошло в 8 августа для мобильной версии.
Сегодня не 9/11, но 9/14 - сломали полностью, а точнее отключили в том числе для десктопа 😢.
Источник: Джон Мюллер и Google

#GoogleSeo #Google #MaxP
Google выкатил новый апдейт - September Helpful content update 2023

Сегодня Google обрадовал новым апдейтом, который доступен только пока в США.
Он будет разворачиваться в течение 2 недель в бурж сегменте, потом пойдет к нам
Отследить его статус можно здесь

Сторонний контент на вашем сайте
Добавлены новые рекомендации по размещению стороннего контента и дополнительные пояснения о том, что делать после полезного обновления системы контента (возможно, вам не нужно ничего делать или, возможно, самостоятельно оценить свой контент).
Если вы размещаете сторонний контент на своем основном сайте или в своих поддоменах, помните, что такой контент может быть включен в сигналы, которые Google генерирует для всего сайта, например о полезности контента.
По этой причине, если этот контент в значительной степени не зависит от цели основного сайта или создан без пристального контроля или участия основного сайта, мы рекомендуем заблокировать его индексацию Google

Правила обновления дат при обновлении страниц на сайте
На страницу справки добавлены новые сведения об удалении контента или изменении дат.
Если вы меняете дату страниц, чтобы они выглядели свежими, хотя содержание существенно не изменилось - у меня для вас плохие новости. Google добавил эти строки в свой список рекомендаций (только на английской версии)
Поэтому теперь неважно - добавляете ли вы много нового контента или удаляете много старого контента главным образом потому, что считаете, что это улучшит ваши позиции в поисковых системах, каким-то образом заставив ваш сайт выглядеть «свежим»?
Нет, не будет)
Поэтому теперь если вы просто обновляете какие-то мелочи, сделайте так, чтобы ДАТА обновления не менялась.

Контент не обязательно должен быть создан человеком
Внезапно Google также удалил слова «написано людьми» и просто написал в результатах поиска «полезный контент, созданный для людей». Я подозреваю, что это означает, что контент, созданный ИИ, хорош, когда он полезен.
Изменилось вот что:
«Этот контент написан экспертом?» ——-> «Этот контент написан или проверен экспертом?»
Что это значит?
Google понял, что не все, что создано при помощи ИИ, плохо, как он думал в прошлом апдейте.
Но он дал понять, что контент, который не имеет пометки проверенной человеком, все равно не заслуживает доверия
Это значит, что теперь к каждой статье на вашем сайте нужно помимо автора статьи добавлять Рецензента (или Reviewed By). И это должен быть Ваш сотрудник. Так как любой контент теперь имеет автора, даже если это сторонний контент, рецензировать его нужно и отвечать за чужой или созданный при помощи ИИ контент. Указывая своего специалиста или организацию, которая проверила этот контент.
И Искусственный контент, созданный при ChatGPT, Гугл может "пропустить", если он очень хорош и полезен и создан с умом. Но все же стоит всегда его "очеловечить"

Что делать если упали после апдейта?
Если вы пострадали от этого апдейта, могу вас расстроить. Он хостовый, влияет не на отдельные страницы, а на ВЕСЬ сайт. Поэтому если у вас есть ИИ созданный некачественный контент,
- Закрыть от индексации весь сторонний контент низкого качества
- Обновить и переписать контент, который можно освежить
- Переписывать нужно масштабно
- Добавить микроразметки и указать автора и рецензента для своих и чужих статей

#DrMax #НеМое
🕯 Качество является главным фактором при индексировании

Согласно обсуждению в недавнем подкасте, качественный контент является основным фактором, влияющим на решения Google по индексированию и сканированию.

При этом:
🔠 Качество влияет на все в поиске, особенно на индексацию.
🔠 Однако качественный контент не гарантирует высокий рейтинг.
🔠 Удаление контента низкого качества может помочь улучшить восприятие сайта Google.

В ходе разговора выяснилось, что планировщик сканирования Google использует сигналы качества для определения приоритета URL-адресов для сканирования. Если Google знает, что у него есть X URL-адресов для сканирования с сайта, он пытается создать упорядоченный список на основе его прогнозируемого качества.

Качество сайта может повлиять на процесс сканирования, даже если это новые сайты. Например, если новая страница обнаружена с помощью файлов Sitemap, Google оценит качество ранее просканированной домашней страницы, чтобы решить, сканировать ли новую страницу.

Иллиес объяснил, что качество может быть специфичным для разных частей веб-сайта.

Например, если одна часть сайта постоянно предоставляет высококачественный контент, к ней могут относиться иначе, чем к другой, известной контентом более низкого качества.
С другой стороны, если определенные части сайта постоянно содержат контент низкого качества, эти области могут сканироваться реже.
Пользовательский контент (UGC) был приведен в качестве примера, качество которого может варьироваться. Если в разделе пользовательского контента обнаружена тенденция к контенту более низкого качества, это может повлиять на поведение сканирования Google для этой конкретной части сайта.

Иллиес заверил слушателей, что они могут улучшить качество своего сайта, даже если раньше он содержал контент низкого качества. Он призывает владельцев сайтов удалять некачественный контент, чтобы улучшить остальную часть сайта.
Удаление некачественного контента может улучшить восприятие сайта Google, что может повлиять на то, как Google сканирует и индексирует оставшиеся страницы.

Хотя качество контента само по себе не гарантирует высокий рейтинг, выделение ресурсов для создания ценного, уникального контента, скорее всего, повысит позиции сайта в поиске.

#DrMax #SEO #Google #QualityContent
Please open Telegram to view this post
VIEW IN TELEGRAM
Всем привет!
SiteAnalyzer - Версия 3.0! 🎉🎉🎉

Популярный софт для seo-шника 🛠 эволюционировал на новую ступень.

Что нового:
- добавлен график по ТОП доменов;
- добавлен график распределения анкоров по числу слов;
- появилась возможность изменения псевдонима проектов;
- исправления в алгоритмах работы программы, багов и фиксы;

ВАЖНОЕ:
Новая версия 3.0 = переход на платную версию программы!💗

Ловите ИНСАЙД/ЭКСКЛЮЗИВ 📢 от компании разработки и владельца Андрея Симагина:
- В планах появление партнёрки с заработком реферальной программы!
(ЧИТАТЬ ВНИМАТЕЛЬНО - анонс рефералки будет примерно через месяц, текущие привлеченные рефералы учитываться не будут)
Чтобы переход не был таким грустным и неожиданным от нас промокод

saDrMax_092023_1w

Спешите воспользоваться – у вас неделя. 😉
Почитать о новой версии и подробнее о фишках SiteAnalyzer.
Всем удачного сканирования без 404!
Please open Telegram to view this post
VIEW IN TELEGRAM
🟡 Одна из сотен фишек для анализа причин падения трафика

Я неоднократно уже рассказывал и показывал как анализировать причины падения трафика и купировать их, а вот о такой фишке - не припоминаю чтоб докладывал. Использую при поиске причин падения трафика как в апдейты Гугла, так и в межапдейтный период (например при реструктуризации сайта).

Итак.

1. Идем в GSC, смотрим отчет эффективность и на графике отмечаем дату падения трафа/просмотров. Далее тут же выстраиваем сравнение страниц по периодам (по датам). Желательно брать месяц/два до падения и после падения и сравнивать их.

2. Выгружаем в Excel. На листе "Страницы" считаем в отдельном столбце дельту между столбцами "клики до" и "клики после". Сортируем дельту в порядке возрастания (отрицательные результаты - т.е. падения будут вверху).

3. Отбираем 100-200-300 самых припавших страниц. Нам не нужны страницы с флуктуацией в десяток упавших/выросших запросов. Нужны явно припавшие страницы.

4. Открываем лягушку. Переключаемся в "List -Mode". Импортируем или вставляем руками список припавших страниц и быстренько сканируем их

Нас особо интересуют показатели:
Ответ сервера - если не 200, а 4XX - то возможно страницу грохнули или перенесли на новый адрес, при этом забыли прописать редирект. Это очень часто случается при реорганизации сайта. Или он 5xx - значит что то сломалось на сервере/сайте и нужно срочно чинить. В общем должен настораживать любой ответ, кроме 200.

Тайтлы/дескрипшены/H1 - возможно криво прописаны или сломались или еще чего - проверяем списком - очень удобно.

Объем контента - возможно кто то грохнул контент на странице.

Дату обновления контента (не всегда срабатывает)- если дата обновления контента попадает на период падения - проверяем что там менялось.

Смотрим бегло и иные показатели, которые могут вызвать тревогу.

Собственно прием не хитрый и позволяет отбросить десяток простых гипотез, которые легко автоматизировано проверить и перейти к более сложным гипотезам падения трафика.

Хотел этот (и пяток подобных) приемов для GSC+лягушки показать в последней телеконференции по GSC, но не успел. Может быть потом расскажу.

Сравнивать в Экселе можно (и нужно) не только страницы по падению кликов, но и по показам, позициям и CTR. Так мы соберем дополнительный пул "закапризничавших" страниц и сможем их проанализировать при падении трафика.

Еще раз напомню это только один из сотен простых приемов, которые следует использовать для анализа сайтов при падении трафика.

Попробуйте )))

#DrMax #SEO #Google #PenaltyRecovery
Please open Telegram to view this post
VIEW IN TELEGRAM
🥸 Новости про Клавдию

Есть 2 новости о Клавдии:
1. Амазон вваливает 4 млрд в развитие
2. Начался обширный разговор о "Клавдии 2"

Amazon инвестирует до 4 млрд. долл. в компанию Anthropic. Это соглашение является частью более широкого сотрудничества, направленного на разработку самых надежных и высокопроизводительных моделей фундаментов в отрасли. Наши передовые исследования и продукты в области безопасности в сочетании с опытом Amazon Web Services (AWS) в создании безопасной и надежной инфраструктуры сделают безопасный и управляемый искусственный интеллект Anthropic широко доступным для клиентов AWS.

AWS станет основным облачным провайдером Anthropic для критически важных рабочих нагрузок, предоставляя нашей команде доступ к ведущей вычислительной инфраструктуре в виде чипов AWS Trainium и Inferentia, которые будут использоваться в дополнение к существующим решениям для обучения и развертывания моделей. Вместе мы объединим наши знания и опыт для совместной разработки будущих технологий Trainium и Inferentia".

Учитывая значительный спрос клиентов AWS на Claude, мы также расширяем поддержку Amazon Bedrock. Это включает безопасную настройку моделей и тонкую настройку на сервисе, что позволит предприятиям оптимизировать работу Claude с помощью своих экспертных знаний, ограничивая при этом возможность возникновения вредных последствий.

Разработчики и инженеры Amazon получат возможность создавать на основе наших современных моделей с помощью Amazon Bedrock. Это позволит им внедрять возможности генеративного ИИ в свою работу, улучшать существующие приложения и создавать новые возможности для клиентов во всех подразделениях Amazon.

Организации смогут использовать Claude 2 для решения широкого спектра задач - от сложных диалогов и создания креативного контента до сложных рассуждений и детальных инструкций. Наше лучшее в отрасли контекстное окно на 100 000 токенов поможет им безопасно обрабатывать большие объемы информации, включая технические документы, специфичные для конкретной области, для использования в финансовой, юридической, кодировочной и других сферах.

Предприятия многих отраслей уже работают с моделями Anthropic на Amazon Bedrock. LexisNexis Legal & Professional, ведущий мировой поставщик информации и аналитики, использует специальную, доработанную модель Claude 2 для обеспечения разговорного поиска, глубокого обобщения и интеллектуального составления юридических документов с помощью нового решения Lexis+ AI. Ведущая компания по управлению активами Bridgewater Associates разрабатывает помощника инвестиционного аналитика на базе Claude 2 для построения сложных графиков, вычисления финансовых показателей и создания сводок результатов. Lonely Planet, известное издательство, специализирующееся на путешествиях, после внедрения Claude 2 сократило расходы на составление маршрутов почти на 80%, синтезировав накопленный за десятилетия работы контент для предоставления целостных и высокоточных рекомендаций по путешествиям.

Короче, Клавдии кирдык скоро (наверное). Наилучшим образом (по моему мнению) она работала при обучении. Все эти вваливания денег ни до чего хорошего не доведут (стоит вспомнить сколько компаний скупил Гугл и где они теперь и эти купленные технологии).

#DrMax #Claude
На цифровом кладбище Google пополнение! Утилизированных проектов на данный момент более 240. Компания приняла решение закрыть сервис подкастов.

Google Podcasts появился летом 2018 года и теперь доживает последние месяцы. Смысла в содержании сервиса больше нет, потому что у Google появился потенциально более прибыльный продукт — YouTube Music. Тот самый, который неудобно слушать без подписки, так что оптимизация аудиосервисов будет проведена с выгодой для бизнеса.

Но дело тут не только в деньгах: Google также сильно взволнована популярностью подкаст-направления Spotify и намеревается включиться в борьбу, дабы не оказаться в будущем у разбитого корыта. Чтобы помочь пользователям с переходом на YouTube Music, компания предложит инструмент миграции и переноса RSS-каналов. Фактически, в США останется только один крупный игрок рынка, который все еще разделяет подкасты и музыку по разным приложениям. Судя по устойчивому тренду, Apple Podcasts тоже осталось недолго.
📈 Скажем грозное НЕТ всяким там Бардам

Google анонсировала новый веб-сканер Google-Extended, который позволяет контролировать, могут ли Bard и Vertex AI получать доступ к контенту на вашем сайте.

Если вы не хотите, чтобы на ваших материалах обучались эти ИИ, то достаточно в robots.txt прописать следующее:

User-agent: Google-Extended
Disallow: /

В своем блоге Google отписал так:
"Сегодня мы анонсируем Google-Extended, новый элемент управления, который веб-издатели могут использовать для управления тем, помогают ли их сайты улучшать генеративные API Bard и Vertex, включая будущие поколения моделей, на которых основаны эти продукты. Используя Google-Extended для контроля доступа к контенту на сайте, администратор веб-сайта может решить, стоит ли помогать этим моделям искусственного интеллекта со временем становиться более точными и функциональными".

Вот такие дела.

ЗЫ:
242 из 1000 самых популярных веб-сайтов уже решили заблокировать GPTBot - веб-сканер OpenAI

#DrMax #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔄 Google использует данные о кликах для ранжирования

Гугл всегда публично отрицал использование данных о кликах для сортировки результатов поиска. Но на слушаниях, которые сейчас проходят в США относительно потенциальных нарушений антимонопольного законодательства со стороны Google, теперь вырисовывается иная точка зрения (см скрин).

Эрик Леман, который 17 лет работал в Google над качеством поиска и рейтингом, показал в суде, что Google использует данные о кликах для ранжирования. Кроме того, Google дал указание не подтверждать эту информацию, чтобы оптимизаторы не могли использовать эти знания для манипулирования результатами поиска.

#DrMax #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/06 23:39:39
Back to Top
HTML Embed Code: