Telegram Web Link
Все совпадения случайны

Просто напомнить про полезный вопрос для сбора требований к дашборду:

Что ты будешь делать, если метрика завтра упадёт в 2 раза?

Во-первых, он настроит на принятие решений с помощью данных и подтолкнёт к реальным действиям, а во-вторых, поможет выстроить структуру самого дашборда.

Есть ещё такие формулировки, но они менее чёткие:
- Какое решение вы надеетесь принять с помощью этого?
- Какое действие это поможет вам предпринять?


#fun #дашборд
😁3
Forwarded from Дашбордец
Котятки🐱,
Этим утром я почитываю книжечку
A reader on data Visualization. По факту, методичку по курсу Dataviz:
https://mschermann.github.io/data_viz_reader/
Что примечательно, в ней есть глава 6, где прямо очень хорошо расписан жизненный цикл любого проекта по анализу.
Ну и моя вчерашняя маленькая находка: статья-размышление на тему, какие новые риски появились в сфере анализа и визуализации, а что по-прежнему важно для построения качественного дашборда. «Уместность» - мой фаворит.
https://rebeccabranton.blog/2025/07/13/the-evolution-of-data-visualization-what-makes-a-good-chart-in-the-age-of-technology/
Forwarded from Data Nature 🕊 (Alexandr Barakov)
<Осторожно - в этом посте нет ни одного упоминания AI>


Делали с командой внутренний курс для BI в Авито - откапал свою типологию ролей в BI проектах 5-ти летней давности.
Отряхнул и переписал из текущей точки, добавил логики. Короче - дополняйте какие роли или нюансы упущены.

Ссылка на картинку

Забавное открытие - вроде все уже сказано и открыто в профессии, но приходят в компанию новые поколения и говорить об каких-то вещах - есть смысл снова.
👍1
🎧 Netflix: как не превратить данные в свалку

Недавно читал статью Netflix про то, как они применяют продуктовый подход к данным. Получился реальный разбор того, как у них это работает на практике, а не как должно быть

Главная мысль простая: если к данным не применять продуктовый подход, они превращаются в помойку. Таблички плодятся как кролики, никто не знает, что где лежит, а аналитики тратят 80% времени на поиск нужных данных вместо анализа


Что Netflix делает по-другому:

👀 Назначают владельцев данных – не абстрактную команду, а конкретного человека, который отвечает за качество, документацию и развитие датасета

👀 Собирают фидбек от пользователей – как в обычном продукте. Спрашивают DS'ов и аналитиков, что не так с данными и что можно улучшить

👀 Итерируются и развивают – данные не статичны, они эволюционируют вместе с бизнесом. Владелец следит за этим и приоритизирует доработки

👀 Измеряют метрики использования – сколько людей пользуется датасетом, как часто, какие есть проблемы. Все как в классическом продукте

Во всех компаниях, где я работал, эти подходы в той или иной степени реализовывались. В Яндексе прод витрины жили в команде DWH – был SLA и прочие гарантии. При этом некоторые важные источники оставались на поддержке аналитиков, поэтому иногда они забывались, не имели нормальной доки и устаревали

Когда собесил аналитиков в Яндекс, многие задавали вопросы про инфру и данные – чувствовалось, как у людей болит, что вместо аналитики они перекидывают данные с одного ноутбука на второй и решают другие проблемы с данными вместо анализа

Основное, что смущает в статье – масштаб Netflix. У них есть ресурсы на выделенных владельцев данных, техрайтеров и прочую инфраструктуру. Но базовые принципы можно применить и в меньших масштабах

Кстати, это перекликается с тем, что я писал про invisible work – когда аналитики тратят кучу времени на поиск и подготовку данных, но это никто не видит и не ценит. Продуктовый подход к данным как раз частично решает эту проблему

Что думаете? Применяете ли продуктовый подход к данным в своих компаниях?

@tagir_analyzes
Please open Telegram to view this post
VIEW IN TELEGRAM
GPT-5 проваливает 47% реальных задач.

Флагманская модель GPT-5-medium справляется с задачами только в 52,56% случаев. После 4 попыток — всего 33,86%.

Новое исследование MCPMark протестировало топовые AI-модели на 127 реальных задачах (GitHub, Notion, PostgreSQL, Playwright).

Ключевые находки:
→ Задачи требуют в среднем 16 шагов и 17 вызовов инструментов
→ Claude-Sonnet-4 и o3: менее 30% успеха с первой попытки
→ Удалённые API (GitHub, Notion) в 2 раза сложнее локальных
→ 50-80% провалов — implicit: модель завершает работу, но результат не соответствует требованиям

Главный инсайт:
Проблема не в технике, а в понимании контекста и планировании. Красиво говорить ≠ безошибочно выполнять сложные задачи.

Подробнее можно почитать у меня в блоге
Forwarded from Data Memes
😁5
Forwarded from Data Nature 🕊 (Alexandr Barakov)
"Агенты еще минимум десятилетие не смогут никого заменить полноценно.
Индустрия в погоне за инвестициями выдает "кашу" за работающие решения и завышает ожидания рынка, когда технологии еще не готовы для реальных задач.
А главный риск - из-за ИИ автоматизации снизить нашу способность понимать мир"

После этого интервью Андрея Карпатого (сооснователя OpenAI) - агрессивная подача tableau на Dreamforce 2025 звучит особенно забавно.
15 лет назад всем продавали чудо селфсервиса, сейчас в таком же стиле - «явление Agentforce народу».
Давит погоня конкурентов и инвесторы - в итоге сырой эксперимент с недоказанной ценностью выдают за новое поколение BI, в своем стиле заметая под ковер все подводные камни.

И многие из нас тоже в этой гонке веры. Смесь интереса и страха отстать - пилим своих агентов или планируем.

Понятно стало, что не нужно ждать отдачи в ближайшие годы. Это будет стоить компаниям кучу денег и никто не знает, где эта экономика сойдется.
Это выбило большинство в роль наблюдателей - заниматься в своих компаниях спокойной (и тоже недешевой) подготовкой условий для AI агентов - внедрять семантические слои, слои метрик, голден/кор витрин и прочую годноту. Тестить более локальные юзкейсы ИИ чем дата-ассистент.

Я попробовал обобщить, что такое Пререквизиты AI Аналитика - предшествующие компоненты, без которых можно даже "не лезть".
Получился такой документ с тремя скоупами:
① Подготовка
② MVP дата-агента
③ Продуктивная агентская среда

Выглядит монструозно. По моей оценке:
Подготовка - будет скромно стоить от 100 млн в год.
С MVP уже уверенно от 150 млн руб в год.
Но кажется ничего не притянуто. Дополните?
Перплексити выкатили неплохой гайд по прикладному использованию ИИ (реальные кейсы - моя главная любовь). NotebookLM написал список основных:

I. Продвинутый исследовательский анализ (Scaling Yourself)

Эти кейсы трансформируют способ сбора, анализа и синтеза информации. По сути, они дают одному человеку исследовательскую глубину целой команды.

Комплексная оценка рынка - полноценный workflow для анализа всего рынка, идентификации ключевых игроков и определения стратегии
Адаптация решений из других индустрий - решение проблем через поиск проверенных методологий из совершенно несвязанных областей
Сложная финансовая оценка - используется перед крупными инвестиционными решениями или поглощениями
Анализ данных и рекомендации - анализ внутренних данных и синтез стратегических рекомендаций для будущего планирования
Исследование перехода на freemium-модель - практический пример использования исследований для управления крупными стратегическими бизнес-изменениями

II. Генерация важных документов (Scaling Yourself & Getting Results)

Здесь Perplexity Labs идет дальше черновиков - генерирует полноценные, профессионально отформатированные документы, которые обычно требуют специализированной экспертизы или значительного времени на производство.

Презентация для совета директоров - генерация формальной презентации из неформальных заметок
Профессиональная стратегическая документация - трансформация аналитических заметок в комплексный, профессионально структурированный документ
Интерактивный дашборд win-loss анализа - создание детального дашборда для идентификации изменений и ключевых драйверов, влияющих на результаты продаж

III. Автоматизация и личный менеджмент (Blocking Distractions)

Эти кейсы показывают, как AI-агенты управляют сложными многошаговыми задачами, снижая переключение контекста и освобождая время для фокусной работы.

Интегрированный исследовательский workflow (Comet Agent) - объединение исследования, организации и синтеза в одну команду
Проактивное управление email (Comet Agent) - классический пример делегирования повторяющейся административной нагрузки
Автоматическая подготовка к встречам (Comet Shortcut) - подготовка к предстоящей встрече через интеграцию данных из календарей, коммуникаций и публичных новостей
Отчеты о личной эффективности - использование AI для анализа личных рабочих паттернов через различные инструменты (project management, календарь, email) для выявления эффективности и пробелов в навыках
Запланированный конкурентный анализ (Perplexity Task) - настройка повторяющейся задачи для мониторинга изменений на рынке без ручного вмешательства

IV. Развитие бизнеса и продажи

Эти кейсы фокусируются на использовании Perplexity для роста выручки через быструю генерацию кастомизированной аналитики и персонализированных материалов для outreach.

Дашборд полного цикла генерации лидов - высокоуровневый промпт, использующий Labs для таргетированной идентификации лидов, создания дашборда и автоматической генерации шаблонов для outreach
Гиперперсонализированный outreach - генерация коммуникации, отражающей глубокое понимание недавней активности потенциального клиента и вызовов его индустрии
Комплексное исследование потенциальных клиентов - сбор детальной фоновой информации перед первым контактом

Гайд в комменты выложу.

Сергей Булаев AI 🤖 - об AI и не только
Уря! Очень хорошая фича
Forwarded from Yandex DataLens
🟥 Общие настройки полей датасетов

В датасетах появляется новая колонка для настройки полей:
- настройка форматирования (для чисел)
- выбор цветов (для измерений)

Настройка доступна в зависимости от типа поля (строка/число и тп) и наличия агрегации (показатель/измерение).

Настройки применяются при использовании этих полей в чартах, построенных по этому датасету.

Новая функциональность сократит время создания качественной аналитики, убрав необходимость настройки на уровне чартов.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Avito Data Tech
Автоматизируем рутину и облегчаем жизнь себе и коллегам при помощи локальной LLM 🚀

BI-аналитики Алексей Дубинец, Павел Беспалов и Глеб Гладков собрали статью, где поделились:
☑️ способами внедрения;
☑️ советами по выбору модели;
☑️ пошаговым руководством по настройке инхаус модели в LM-Studio;
☑️ практическими кейсами своего отдела.

Будет полезно тем, кто на ежедневной основе сталкивается с задачами по сбору, классификации и систематизации больших объёмов информации и не может при этом использовать публичные LLM-модели.

Подробнее по ссылке.

#ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ваня Замесин (Ivan Zamesin)
Я поверил в Advanced Jobs To Be Done

Прикиньте, у меня был настолько лютый самозванец, что я до этого октября не мог полностью поверить в свою методологию. И болие тово, я понял это только после того, как поверил в AJTBD 🙂

Короткая история: семь лет назад я понял, что нет нормальных фреймворков, стал изобретать свой. Встретил JTBD, понял, что это гениальная методология, но абсолютно не прикладная, и стал её переизобретать с нуля. Литералли всё выкинул и стал строить фундамент методологии по крупицам, подбирая научные теории, которые лучше всего описывают то, как человек принимает решения в процессе выбора, покупки и использования продуктов. В марте 2021 года прямо во время одного из воркшопов [на Бали, в тропический ливень, на вилле без электричества] меня осенило и я увидел первую версию AJTBD, а точнее, увидел граф работ и первые 10 стратегий.

Все эти годы я развивал AJTBD. Иногда случались квантовые скачки как два года назад когда я понял что граф работ это важная единица анализа или в апреле этого когда я понял как правильно сегментировать клиентов.

Но ВСЕ ЭТИ ГОДЫ я не мог себе признаться что я придумал крутую штуку. Ну да, прикольное, ну да, работает, но внутри уверенности не было.

Всё поменялось после поездки в Амстердам, в которой мне ВСЕ говорили "это разъёб, как тебе помочь?". Ещё сильно повлиял кейс JetBrains, что Kotlin Multiplatform успешно растёт благодаря AJTBD.

Каждый день я узнаю про новый кейс как AJTBD что-то помог вырастить. Компании перестраивают по AJTBD, новые бизнесы запускают.. Появляются продукты, которые основаны на AJTBD [чуваки даже текст ленда у меня копируют]. Только что мне студенты рассказали что есть ребята, которые делают контент-планы по AJTBD. Мы собрали 14 кейсов, но кейсов точно сильно больше, у нас не хватает ресурсов их собирать. Даже есть кейс в КЕНИИ! Прикиньте

Сейчас в меня вся эта информация вошла и это так приятно.

Все годы сомнений, страданий, экспериментов и ошибок, изнурительной работы превратились в красивое произведение, которое играет уже в сотнях компаний и живёт в десятках тысяч голов.

Я закончил пересобирать курс и методологию. Там стало ещё разъёбистее. Наконец-то полностью описан алгоритм как переводить человека на новый [особенно, не привычный] продукт. Появился точный алгоритм сегментации. Если вы что-то читаете в итернете про сегментацию для стратегии и тактики продукта — это с очень высокой вероятностью не верно. Я ещё ни разу не встречал правильного алгоритма как делать сегментацию 🙂 Если раньше на воркшопах было больше лекционного материала, теперь больше практики.

Короче, прям кайф.

В этом году остался один поток, он стартует 11 ноября. Следующий поток будет после нового года.

И вообще, я пошёл двигать AJTBD в штаты. Мне уже много людей сказали "бля чувак, срочно рассказывай в штаты, там такого нет", так что я перестаю ссать, и двигаю на запад.

🔗 Сайт русскоязычного курса
👍1
📎 JTBD и дэшборды

Вместо того чтобы спрашивать “какие метрики добавить?”, попробуйте задать другой вопрос — “какую работу должен делать мой дашборд?”.

🔵Jobs-to-be-Done (JTBD) — это подход из продуктового дизайна, который фокусируется на потребностях пользователей. Люди не просто “пользуются” дэшами — они “нанимают” их, чтобы сделать свою работу проще, быстрее и точнее.

1. Job (задача)
— что человек пытается сделать? (понять, кто из команды недовыполняет план)
2. Situation (контекст) — когда и где эта задача возникает? (еженедельная встреча с командой)
3. Outcome (результат) — как выглядит успех? (сокращение времени на поготовку ко встрече)
4. Obstacles (барьеры) — что мешает сейчас? (долго ищет данные, не доверяет цифрам, нет контекста)

В итоге вместо “сделаем дашборд продаж” → спрашиваем: “что хочет сделать менеджер перед еженедельной встречей с командой?”. Пытаемся не просто сделать дашборд, а тот, которые закроет определенную потребность и поможет с конкретной задачей. И после разработки обязательно попробовать самостоятельно это задачу через дэш решить.

Попозже напишу еще про другие продуктовые подходы и дэшики❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from TechSparks
Свой большой отчет по эффективности внедрения ИИ инструментов в бизнесе выпустила авторитетная The Wharton School of the University of Pennsylvania. Это уже третья ежегодная волна исследований. Данные показывают очень быструю динамику: нынче за год даже в неповоротливом слое гигантов бизнеса за год многое меняется, а уж среди легкого на подъем малого и среднего бизнеса изменения можно назвать радикальными. В целом выводы вполне оптимистичны: от стадий изучения (2023) и экспериментов (2024) бизнес переходит к стадии измеримого ускорения за счет внедрения ИИ. Three years in, the story is clear: from exploration to experimentation to everyday use. ROI is now measured, and people, not tools, set the pace. This is the year enterprises re-assert accountability. Most firms now measureROI, and roughly three in four already see positive returns.
Полезно изучить все 80+ слайдов отчета по ссылке, прежде чем ссылаться на старые данные MIT про лишь 5% удачных внедрений, которые так любят ИИ-скептики, а то может неловко выйти: компании уже массово научились работать с ИИ-инструментарием и руководствоваться измеримой выгодой, а не абстрактным уровнем использования или знания. Но конечно, при этом стали видны и важные подробности, различия в зависимости от ролей и масштабов бизнеса.
Очень достойно изучения.
https://ai.wharton.upenn.edu/wp-content/uploads/2025/10/2025-Wharton-GBK-AI-Adoption-Report_Full-Report.pdf
Forwarded from Че хочу
Побег за плоскость. Обзор книги Тафти «Envisioning Information»

Книга о техниках эффективного перенесения сложного и объемного мира на плоский и простой экран. На самом деле у Тафти все такие, но эту он решил выделить.

📺 Смотреть на Ютубе

📝 Смотреть на Дзене

📺 Смотреть в ВК

📺 Смотреть на Рутубе
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 5 minutes of data
Scaling Data Team

Dagster выложили в открытый доступ небольшую брошюру с примерами кода, как построить комплексную платформа для data engineering, демонстрирующая лучшие практики и паттерны для команд разного размера.

Этот проект показывает, как практики data engineering эволюционируют от индивидуальных специалистов до крупных инженерных организаций.

p.s брошюра в комментариях

@five_minutes_of_data
2025/11/16 03:59:39
Back to Top
HTML Embed Code: