Telegram Web Link
Примерно так могут выглядеть поисковики будущего. Знакомая строка поиска, ответ от ИИ и ссылки на источники, с которых информация агрегирована.

Мне не удалось найти информации о том, как строится логика работа движка, но по ответам поисковой системы на различные запросы алгоритм вероятно такой:

1) Обращение через API к Bing / Google (вряд ли они обошли весь интернет, поскольку в результатах есть и небольшие локальные сайты)
2) Парсинг текстов с топ-5 результатов выдачи
3) Выбор наиболее близких к запросу заголовков и их саммари (заметно при раскрытии подробной инфорамции с источников, что всегда фигурирует H заголовок + текст под ним)

В общем, почти готовая дорвейная технология 😂

Что касается удобства, есть ощущение, что в таком виде взлететь не сможет, а то что делает Bing с одновременным быстрым ответом и ссылками на классическую выдачу - выглядит вполне жизнеспособно.
✍️ Продолжая подбирать лучшие промпты для генерации метатегов, перебрал огромное количество конструкций. Пробовал обучать ИИ написанию метатегов по шаблону, по примеру конкурентов, с использованием конкретных конструкций, списку уникальных слов из запросов, но каждый раз получалось не то.

В итоге, пришел к выводу, что именно для данной задачи, чем проще промпт тем лучше. Все что нужно получить ИИ для генерации метатегов уже есть в поисковых запросах, поэтому на вход подаем 10-15 запросов, отсортированных по частоте (можно выгрузить из Keys.so) и даём рекомендацию не использовать символы, разделяющие пассажи - ".", "!", "?". Для Description - ограничиваем размер ответа 160 символами и 3 предложениями.

Мои итоговые промпты
Title
=GPT("Составь Title до 90 символов для страницы, оптимизированной под следующие поисковые запросы: "&B10&". Не добавляй в текст названия компаний и знаки завершения предложений. Обязательно используй конструкцию в Москве")
Description =GPT("Составь Description длиной до 160 символов и не более трех предложений для страницы, отвечающей на поисковые запросы: "&C4)

P.S:
- Для массовой генерации рекомендую использовать API от Keys.so, позволяющий постранично выгрузить все запросы с сайта, оставляя только 10 самых частотных
- На скриншоте для сравнения то, что получалось с попыткой обучать ИИ метатегам конкурентов и без них.

#chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
🎮 Интересная загадка на вечер

Сайт - logoza.ru, 1 страница (у конкурентов - сотни и тысячи), нет вхождений ключа в домен и, внимание, нет вхождения ключей в Title, старый год в футере (2017-2019), отсутствующий H1, минимальная текстовка, чуть больше 100 внешних ссылок, признаков накрутки ПФ через упоминание домена - не найдено, в Google не забанен, видимость ниже, но имеется. Возраст домена - 5 лет, robots.txt не создан, сайт перестал обновляться в 2021 году.

Итог - топ-2 по жирным запросам. Магия вне Хогвартса?
Please open Telegram to view this post
VIEW IN TELEGRAM
✍️ Набор промптов для оптимизации категорий интернет-магазина

Пора сделать перерыв в рекламных постах, поэтому в продолжении пятничной темы, прикладываю два обкатанных промпта, которые отлично закрывают вопрос массовой оптимизации категорий интернет-магазина:

Текстовый блок для категории (вместо шаблонного текста с переменными): =GPT("Напиши текст объемом до 500 символов с описанием того, что представляет из себя, где и как используется товар, указанный в поисковых запросах: "&C2&" Не пиши информацию о том, где и как можно купить товар")

Список вопросов для FAQ: =GPT("Составь список из 3 вопросов по тому, что представляет из себя, где и как используется товар, указанный в поисковых запросах: "&C3&" Не пиши вопросы связанные с покупкой, доставкой, установкой, ценой")

Список ответов для FAQ: =GPT("Составь список из 3 коротких ответов на эти вопросы: "&F2&") (необходимо сослаться на ячейку со списком вопросов).

Не забудьте разметить FAQ соответствующей микроразметкой.

Про ограничения
Совсем массово генерировать данные через Google Docs / Sheets не выйдет, связанно это с тем, что OpenAI жёстко лимитирует частоту обращений в 1 запрос/30 сек. для бесплатной версии и не сильно быстрее на Plus версии (но там доступна GPT-4)

Обкатку промптов я выполняю именно в Google Таблицах, а для сбора данных использую Python-скрипт, который умеет обращаться к API с задержкой (можно заказать на kwork).

Еще один важный момент - так или иначе, но в ответах проскакивает мусор, который напрямую связан с качеством подаваемой семантики. Например, если в какой-то теме много накрутчиков, то в запросах регулярно встречаются домены, которые по итогу попадают в шаблон. Учитывайте этот момент и перед заливкой бегло отсматривайте получившиеся данные.

В следующем посте расскажу, как всё таки автоматизировать работу с ChatGPT в Google таблицах без помощи программистов.

#chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
🎧 Дослушал подкаст с Максом - @max_fuckin, с которым общались не так давно в прямом эфире. Часовой концентрат о том, как человек за счёт правильных установок в голове пришёл в одиночку к доходу с шестью нулями в месяц за 10 лет.

Если вы делаете сайты, идете к пассивному заработку и ищите связь со вселенной - обязательно послушайте, я кайфанул, подскочил и побежал писать радостные письма клиентам, что больше с ними не работаю, потому что свобода теперь для меня важнее денег (кого я обманываю).

🎤 Тезисно про самое интересное, что ждёт в подкасте:
- На старте обрубил для себя пути заработка через работу на кого-то;
- Покупает сайты, заказывает у профессионалов настройку монетизации и только продлевает домены и хостинг;
- Статейники получили вторую жизнь и дают 25-30% годовых (привет банкам с 6-10%);
- 100$ в день чисто на рефералах и многое другое.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗣 Скрипт выгрузки ссылок из Яндекс.Вебмастера

После публикации скрипта выгрузки ключей из Мониторинга запросов, прилетело несколько запросов на аналогичный функционал для раздела с внешними ссылками.

В данный момент в разделе "Внешние ссылки" доступны только ссылки с кодом ответа 404. Их изучение позволяет решить две важные задачи:
1️⃣ найти ссылки с "жирных" ресурсов на 404 страницы с целью перераспределения ссылочного веса на важные для вас страницы
2️⃣ направление возможного трафика с 404 страниц на существующие.

Подробнее про инструмент проверки неработающих ссылок можно почитать в блоге вебмастера. Выгрузку битых внутренних ссылок реализовывать смысла нет, это проще и удобнее делать через лягушку.

Описание и ряд нюансов:
- Скрипт работает из консоли Google Chrome
- Выгрузка осуществляется постранично
- Итоговый массив данных формата CSV
- Можно указать любое число страниц для выгрузки (переменная var pages в первой строке);
- После выполнения копируем данные и импортируем в Google Таблицы или Excel

👩‍💻 Код скрипта и мануал по запуску доступен по ссылке
🎞 Видео инструкция по запуску - (появится позже)
Please open Telegram to view this post
VIEW IN TELEGRAM
🆓 Как бесплатно залезть в топ по жирным запросам.

Последние лет 10 каждые 2-3 года меняются площадки, которые за счёт различных факторов легко лезут в топ. Не так давно такой площадкой был VK, и было время, когда сам создавал группы под коммерческие запросы, которые после несложных манипуляций оказывались в топ-5. Потом (по слухам) SEO-шники ВК перемудрили со страницами, которые должны попадать в индекс и сайт потух. Сейчас посты или группы крайне редко встречаются в выдаче, при всём том, что траст у площадки остался.

В 2023 году по коммерческим и информационным запросам легко лезут две площадки, Дзен и VC, и если про Дзен вы наверняка слышали, то вторая площадка может быть открытием. Казалось бы, причем тут коммерческая выдача и сайт про стартапы и бизнес? Притом, что сайт имеет заметный буст в выдаче и статьи с него по многим запросам легко выходят в топ на абсолютно любую тематику. Держите наглядный пример со вчерашней консультации - статья держит топ-1 по огромному коммерческому кластеру запросов, собрала 60 тысяч просмотров, и разумеется, содержит ссылку на сайт с услугами (я такую штуку тоже проворачивал). При этом сайт владельца, даже при хорошей проработке, имеет посещаемость всего 2 человека в сутки.

👉 Теперь к делу, как собственно в этот топ попасть:
- Ищем все статьи по вашей теме на сайте VC через конструкцию site:vc.ru {запрос}
- Если подходящего раздела нет - публикуемся во /flood/
- Готовим контент лучше, чем у остальных
- Приправляем недорогими сслыками с ггл, миры или сапы (да хоть прогон с кворка)
- Ждём топа

Для сравнения, разместить свою статью на сайте kp.ru, у которой тоже будет неплохая вероятность выйти в топ стоит от 30 тыс. рублей, выгода очевидна.
Please open Telegram to view this post
VIEW IN TELEGRAM
🟢 Ребята (а точнее девчата) из Keys.so предложили разбавить череду рекламных постов у меня на канале и провести прямой эфир с ответами на вопросы. Не долго думая ударили по рукам, поэтому в среду 17 мая в 12:00 начнём с ответов на вопросы, которые задали под комментариями к их посту и продолжим уже в прямом эфире.

🎁 Кстати, за лучший вопрос обещали подписку на месяц на базовый тариф, поэтому есть смысл спросить что-нибудь интересное, но конкуренция будет серьезная, уже сейчас есть претендент на победу с вопросом про Title.

Итак, задать вопрос можно в комментариях под постом - https://www.tg-me.com/keysso_public/511, но если промахнётесь и зададите вопрос здесь - не страшно, тоже увидим.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔗 Эффективный способ закупать ссылки в рунете

Сколько бы не подходил к теме ссылок, всегда сталкивался со сложностью в замере их эффективности.
Закупая ссылки проект может расти, может не расти, может падать и достоверно оценить вклад ссылок не выходит.

С особым интересом читаю кейсы о том, как купили ссылок и проект вырос, а потом из кулуаров узнаешь, что график роста от накрутки ПФ 🤣

В блогах людей, которые специализируются на ссылках есть много высоких материй - вроде PBN и аутрича, сложных ссылочных аудитов, но по итогу всегда всё сводится к закупке вечных ссылок на всем известных площадках - GGL, Мира и Сапа без какой-то внятной стратегии.

🔗 Свою работу всегда строил так, чтобы сайт рос без ссылок, но есть две аксиомы:
- Внешние ссылки прямо коррелируют с объемом краулингового бюджета на проект
- Гугл позитивно реагирует на прирост ссылочной массы

🔩 Поэтому, чтобы полностью не отказываться от ссылочного, вывел для себя простую схему работы:

- Выгружаю семантику по проекту (GSC / Yandex Webmaster / Keys so)
- Снимаю выдачу в Google по запросам с помощью Key Assort или TopSite (обе платные)
- Выгружаю все встретившиеся домены в выдаче из "Топ по видимости" в Key Assort или "Конкуренты" в TopSite
- Проверяю наличие списка доменов в биржах:
наличие доменов в MiraLinks
наличие доменов в GoGetLinks
наличие доменов в Sape, Rookee, Seopult
- Равномерно закупаю до 30 ссылок в месяц по найденным площадкам

☑️Способ позволяет находить самые близкие по релевантности площадки и даёт некоторую гарантию лояльного отношения со стороны ПС (раз есть запросы по которым сайты нашлись в топ-10), опционально найденные площадки проверяем на ИКС, траст и спам через CheckTrust.
Please open Telegram to view this post
VIEW IN TELEGRAM
👉 Связин.Ру - сайт целиком построенный на парсинге быстрых ответов Google, по данным кейсо - 20 тыс. суммарного трафика с поисковиков в сутки, SimilarWeb говорит о 80 тыс., ahrefs о 100 тыс., истина где-то посередине. Что удивительно - нет пессимизации ни в Я, ни в G

💸 При средней доходности в рунете в 150 ₽/1000 уников зарабатывает не менее 100 000 ₽ в месяц, но скорее всего ближе к 200-300

📄 Все 73 тыс. страниц на втором уровне вложенности (плоская структура), мощная перелинковка и доп. ценность за счёт парсинга комментариев, вводного текстового блока и видео с ютуба.

🔗 Сайт имеет всего 250 ссылающихся доменов, бОльшую часть из которых набрал за последние пару месяцев, как раз то, о чём говорил в предыдущем посте.

☑️В общем, пациент интересный, можно копнуть самостоятельно или дождаться видео разбора у меня на канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗂 Готовая структура сайта услуг за час.

Профи.ру в представлении не нуждается - пожалуй лидирующая площадка по поиску специалистов под большой спектр услуг. Яндекс.Услуги даже близко не стоят, и фактически конкурируют за счёт манипулирования выдачей, но речь о другом.

У них классный SEO отдел, который дотошно выжигает много кластеров по услугам, в том числе не чурается серых методов продвижения, об одном из них писал здесь.

➡️ Так вот мы будем использовать их наработки в своих корыстных целях, дальше план действий:

- Регистрируемся в Профи как специалист;
- В своей анкете ищем раздел "Услуги и условия работы" и нажимаем "+"
- Через поиск ищем базовую услугу, которую вы предоставляете - пусть будет "Ремонт ноутбуков"
- Получаем в порядке иерархии все направления, которые могут быть нужны пользователям (разделы и подразделы)
- Отмечаем галочками те пункты, которые вам интересны и с тем уровнем проработки, который нужен, сохраняем
- Теперь в профиле у вас есть список всех услуг, под которые вы планируете создавать страницы на своем сайте
- Копируем их, чистим регулярками от цены и прочего мусора, отправляем в Key Collector на съем релевантной позиции (так находим посадочные страницы услуг на сайте Профи)
- В Кейс.со через API или в ручную получаем ключи для каждой страницы

✔️ В итоге у нас на руках готовая структура сайта с семантикой под каждую страницу с нужной глубиной проработки буквально за час времени. Даже если сайт у вас уже есть, не лишним будет зайти и проверить, возможно вы не создали страницу, под какой-то узкий кластер
Please open Telegram to view this post
VIEW IN TELEGRAM
Интересный кейс подъехал, у ВсеИнструменты через 301 редирект переехали сотни миллионов урлов, в итоге на 3 месяца потеряли 25% трафика, а это недозаработанные десятки миллионов рублей. Кейс от авторов не увидим, там скорее всего всё под NDA, поэтому копаем сами:

1️⃣Все категории перенесли на третий уровень вложенности с прокладкой /category/

Было: http://vseinstrumenti.ru/avtogarazhnoe-oborudovanie/avtomobilnye-aksessuary/v-salon-avtomobilya/avtomobilnye-detskie-kresla (4 уровень)
Стало: https://www.vseinstrumenti.ru/category/avtomobilnye-detskie-kresla-avtokresla-162676/ (2 уровень)

2️⃣ Карточки товаров переехали на третий уровень с прокладкой /product/:

Было: http://vseinstrumenti.ru/krepezh/anker/bolt/tech-krep/10h100-1-sht-paket-108046 (5 уровень)
Стало: https://www.vseinstrumenti.ru/product/ankernyj-bolt-tech-krep-10h100-1-sht-paket-108046-855771/ (2 уровень)

Так уж вышло, что ВСИ является конкурентом моего клиента и отслеживаю данные с интервалом в 2 дня начиная с той осени, так вот переезд был прямо перед январскими праздниками.

Рисковали они не слабо, потому что массовый переезд для любого проекта это:
— Обнуление возрастных характеристик страниц (старая страница всегда растёт и ранжируется лучше новой)
— Обнуление данных по ПФ для страницы (привязка идет по урлу, ровно поэтому при пессимизации за накрутку выполняют 301 переезд, чтобы очистить данные)
— Появление 301 прокладок для внешних ссылок на старые страницы
— Необходимость в переиндексации новых страниц

В чаше плюсов не густо - чуть лучшее ранжирование за счёт коротких урлов, на которых уже давно едет весь остальной екоммерс.

В любом случае, получился наглядный пример того, как реагируют ПС на массовый переезд и сколько 💲 можно потерять из-за неправильно разработанной структуры на старте проекта.
Please open Telegram to view this post
VIEW IN TELEGRAM
▶️ Навигация по YT-каналу ▶️

🔗 Внутренняя и внешняя оптимизация

🧡Структура сайта
- Проектирование структуры сайта

🧡Семантическое ядро
- Сбор семантического ядра на основе структуры сайта
- Быстрый сбор семантического ядра (групповой отчёт)
- Сбор семантики для отдельных страниц
- Чистка семантического ядра на основе структуры урлов

🧡Текстовая оптимизация
- Текстовый анализатор для взятия топа (word-keeper)
- Ручное составление идеальных Title / Description
- Идеальная структура текста на основе топа
- Контент план для информационных и коммерческих сайтов
- Анализ качества текста

🧡Прочее
- Как дожать страницу из топ-10 в топ-3
- Про малоценные страницы
- Находим утечку краулингового бюджета

🧡Ссылки
- Анализ перелинковки сайта (LinkScore)
- Как эффективно покупать внешние ссылки в рунете
- Ищем качественные площадки на биржах ссылок

🔍 Исследования
- Поиск трафиковых страниц конкурентов, которых у вас нет
- Находим самые популярные страницы у конкурентов
- Как продвигать крупные сайты
- Все виды регионального продвижения сайта
- Находим точки роста через Keys.so + PowerBI
- Как определить, что в вашей нише крутят ПФ

🐸 Screaming Frog
- Тюнинг Screaming Frog для парсинга миллионов страниц
- Мгновенный анализ структуры конкурентов (SF + Keys.so)
- Достаём структуру конкурента из хлебных крошек
- Анализируем логи сервера
- Обход защиты от сканирования
- Сканирование SPA сайтов
- Анализ внешних ссылок с помощью SF

🔍 Разбор сайтов
- Kinorium - 300к в сутки на парсинге в кинотематике
- Trend1c - идеальная накрутка ПФ
- Ножиков - идеальный интернет-магазин
- Кулинария - аномалия в нише рецептов
- КП.ру - эталонный статейник

📊 Скрипты, сервисы, программы
- Мой набор расширений в Chrome
- Детальная настройка проекта в ТопВизор
- Разбор сервисов по определению посещаемости сайта
- Разбор бесплатных текстовых анализаторов

💠 ChatGPT для SEO
- Готовим структуру текста с помощью ИИ
- Шаблон промпта для подготовки текста
- Массовая оптимизация категорий ИМ

⚙️ Прочее
- Почему нет результатов в SEO (разбор неэффективных работ)
- Когда привлекать SEO-специалиста при разработке сайта
- Как вырасти от джуна до сеньёра
- Как составить хорошее резюме
- Защищаем сайт от ботов

🔄 Пост будет обновляться
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 Сбор семантики для отдельных страниц

У меня регулярно возникает задача собрать полную семантику для отдельных страниц на сайте, например, нужно доработать категорию интернет-магазина или собрать семантику для конкретной страницы услуг/статьи.

Есть несколько способов, но почти везде вагон недостатков - либо собирать всю семантику по нише, кластеризовать её и работать с наиболее близким кластером (долго, трудозатратно, много лишнего), либо отправить свою страницу/страницу конкурента в Keys.so (много лишних запросов в отчете).

📊 Я решаю задачу следующим образом:
- Вбиваю в Wordstat основной ключ по нужной теме;
- Копирую первую страницу запросов с хвостом и отправляю в сервис Анализа топа выдачи;
- Получаю список страниц с наибольшей видимостью по маркерной семантике из вордстата;
- Отправляю эти страницы в сервис Список запросов страниц;
- Фильтрую по частоте (Wordstat > 10) и по весу (Вес > 5). Вес означает минимальное число страниц, в которых встречается каждый поисковый запрос.

☑️ На все уходит не более 5 минут и фактически, нахожу всю семантику, по которой имеет видимость топ-20 страниц в нужной нише. За счёт фильтрации по весу отсекаю запросы, по которым страницы начали ранжироваться случайно (мусор), и главный плюс - получаю запросы, которые мог бы упустить, собирая семантику в ручную.
Please open Telegram to view this post
VIEW IN TELEGRAM
Вчера за просмотром заката на набережной Нижнего Новгорода с @max_fuckin и @pilot_bbk очередной раз услышал в свою сторону упрёк, что скучно читать про то, как заполнять тайтлы. А тут, как нельзя кстати, подоспел подкаст 🎵 Артура Саиткулова, так вот там не про тайтлы 😉

00:53 Вступление
01:37 Кем является Иван Зимин
04:39 Опыт продвижения сайтов в качестве школьника
05:49 Что изменилось в SEO с тех пор
07:55 Что побудило выйти в публичное поле
10:05 Ощущения во время запуска Youtube канала
14:00 Как изменилось работа после прихода более качественных клиентов
16:04 Зачем был куплен канал «Хей, манимейкер»
17:52 Как можно сократить путь Ивана
19:36 Про небольших клиентов в прошлом и их отличие от крупных заказчиков
21:21 Отношение Вани к нейросетям
25:40 Сколько зарабатывает Иван
30:06 Вопрос делегирования
32:54 Какую роль в жизни Ивана сыграл спорт
35:55 Советы самому себе от Ивана
39:18 Хотел бы Иван пойти в инфобиз
42:02 Что происходит, когда в жизни происходят неудачи
44:12 Как выбрать подрядчика для SEO или специалиста
47:13 В чем главный секрет успеха Ивана
48:45 Как выглядит стандартный день
50:49 Какой контент потребляет Иван
51:58 Что вдохновляет и к чему стремится Ваня
55:03 Какие планы на будущее
56:09 В чем заключается счастье
58:59 Блиц
59:21 Напутствие слушателям
Please open Telegram to view this post
VIEW IN TELEGRAM
😀 Яндекс.Вебмастер довольно оперативно добавил функционал экспорта поисковых запросов из мониторинга и это хорошая новость, скрипт выгрузки больше не актуален.

📊 Отказаться от сервисов проверки позиций пока все еще не выйдет, но раз в неделю выгружая данные в PowerBI можно собрать неплохой бесплатный наглядный отчёт с динамикой позиций, спроса и кликов.

☑️Для себя вижу пользу сервиса в быстром поиске разгоняющихся тем, под которые оперативно можно создать страницы (сортировка по колонке спрос) и работу с запросами для генерации метаданных через ChatGPT, правда предварительно придётся собрать релевантные страницы, удобнее всего это делать через Key Collector
Please open Telegram to view this post
VIEW IN TELEGRAM
Давно не читал действительно интересных методик в SEO и респект MOAB'у что делятся, потому что фактически отдают технологию, которая давала им конкурентное преимущество на пресейле.

🔗 Статья про быстрый сбор семантики для крупных порталов на основе масок урлов из топа. Кому нужны детали, лучше почитать в оригинале, а здесь краткая транскрибация от меня, потому что может восприниматься сложно, особенно для людей, которые с подобными задачами не сталкивались.

Для чего - к вам пришёл клиент, этому клиенту надо показать наиболее чистое и полное семантическое ядро не из маркерных запросов с текущими позициями и видимостью для демонстрации потенциала роста.

➡️ Общий смысл следующий:
* Парсинг 😀 Яндекс.Wordstat с глубиной 2 по общим маркерным запросам (например, "диваны", здесь собираются целевые коммерческие запросы, нецелевые и информационные запросы)
* Изучается выдача на предмет того, какие сайты чаще всего встречаются в топе по коммерческим запросам и анализируют их URL
* Фиксируют в Excel-таблице маски урлов с привязкой к нужной категории для самых сильных конкурентов (пример: *citilink.ru*smartfon* - если работа идёт с разделом "Смартфоны")
* Каждому запросу проставляют 1 или 0 рядом с маской - есть ли страница конкурента в топе с подходящим адресом
* Поскольку 🛒 Яндекс.Маркет есть по всем коммерческим запросам - его делают ключевым при определении "коммерческости" запроса.
* По итогу каждый запрос проходит проверку на коммерциализацию (1 или 0 по маркету) и дальше набирает баллы. Если набрал больше X баллов (определяется индивидуально), то отправляется в целевые

😄 Для меня было крутым инсайтом определение типа запроса - категорийный или продуктовый, стыдно что не догадался сам, хотя ломал голову над такой задачей.
Снова обращаемся к маскам урлов с выдачей и проверяем, например, Ozon ранжируется с URL /product/ или /category/, в зависимости от этого присваиваем тип.

☑️Однозначно беру на вооружение, правда возится с вордстатом лень, для меня этот пункт пропускается и на анализ сразу буду отдавать всё ту же групповую семантику из Кейсо, которая собирается на основе конкурентов за 10 минут.
Please open Telegram to view this post
VIEW IN TELEGRAM
😀 Яндекс анонсировал публичный профиль и теперь без лишних движений можно попасть в спец. блок на выдаче по прямому запросу с именем и фамилией.

Глобальных плюсов, кроме того что можно козырнуть перед коллегами не вижу, но почему бы и нет. А если Вас зовут, например, Виктор Петров, то бонусом получаете неплохие охваты своего профиля, правда не с самым целевым трафиком.
Please open Telegram to view this post
VIEW IN TELEGRAM
Если используете OpenVPN, уверен заметили, что он начал барахлить, связано это с блокировкой его протокола.

☑️Простой способ решить проблему - перейти на WireGuard:
- Устанавливаем WireGuard
- Покупаем самую дешевую VDS
- При активации выбираем любую OS Debian/Ubuntu + WireGuard
- На почту падает доступ к серверу (IP, логин, пароль, порт)
- Через FileZilla подключаемся к серверу (в поле хост указывайте sftp://ip) и в папке /root/ лежит файл client.conf
- Скачиваем и импортируем в программу WireGuard
- Если нужно больше конфигураций - выполняем из консоли команду bash /root/wireguard.sh (чтобы выдать доступ всей родне)
- Пользуемся 🚀

Тестирую последние пару дней, скорость и стабильность подключения сильно выше, чем у OpenVPN
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/13 11:59:58
Back to Top
HTML Embed Code: