Telegram Web Link
Forwarded from Дашбордец
Котятки🐱,
Этим утром я почитываю книжечку
A reader on data Visualization. По факту, методичку по курсу Dataviz:
https://mschermann.github.io/data_viz_reader/
Что примечательно, в ней есть глава 6, где прямо очень хорошо расписан жизненный цикл любого проекта по анализу.
Ну и моя вчерашняя маленькая находка: статья-размышление на тему, какие новые риски появились в сфере анализа и визуализации, а что по-прежнему важно для построения качественного дашборда. «Уместность» - мой фаворит.
https://rebeccabranton.blog/2025/07/13/the-evolution-of-data-visualization-what-makes-a-good-chart-in-the-age-of-technology/
Forwarded from Data Nature 🕊 (Alexandr Barakov)
<Осторожно - в этом посте нет ни одного упоминания AI>


Делали с командой внутренний курс для BI в Авито - откапал свою типологию ролей в BI проектах 5-ти летней давности.
Отряхнул и переписал из текущей точки, добавил логики. Короче - дополняйте какие роли или нюансы упущены.

Ссылка на картинку

Забавное открытие - вроде все уже сказано и открыто в профессии, но приходят в компанию новые поколения и говорить об каких-то вещах - есть смысл снова.
🎧 Netflix: как не превратить данные в свалку

Недавно читал статью Netflix про то, как они применяют продуктовый подход к данным. Получился реальный разбор того, как у них это работает на практике, а не как должно быть

Главная мысль простая: если к данным не применять продуктовый подход, они превращаются в помойку. Таблички плодятся как кролики, никто не знает, что где лежит, а аналитики тратят 80% времени на поиск нужных данных вместо анализа


Что Netflix делает по-другому:

👀 Назначают владельцев данных – не абстрактную команду, а конкретного человека, который отвечает за качество, документацию и развитие датасета

👀 Собирают фидбек от пользователей – как в обычном продукте. Спрашивают DS'ов и аналитиков, что не так с данными и что можно улучшить

👀 Итерируются и развивают – данные не статичны, они эволюционируют вместе с бизнесом. Владелец следит за этим и приоритизирует доработки

👀 Измеряют метрики использования – сколько людей пользуется датасетом, как часто, какие есть проблемы. Все как в классическом продукте

Во всех компаниях, где я работал, эти подходы в той или иной степени реализовывались. В Яндексе прод витрины жили в команде DWH – был SLA и прочие гарантии. При этом некоторые важные источники оставались на поддержке аналитиков, поэтому иногда они забывались, не имели нормальной доки и устаревали

Когда собесил аналитиков в Яндекс, многие задавали вопросы про инфру и данные – чувствовалось, как у людей болит, что вместо аналитики они перекидывают данные с одного ноутбука на второй и решают другие проблемы с данными вместо анализа

Основное, что смущает в статье – масштаб Netflix. У них есть ресурсы на выделенных владельцев данных, техрайтеров и прочую инфраструктуру. Но базовые принципы можно применить и в меньших масштабах

Кстати, это перекликается с тем, что я писал про invisible work – когда аналитики тратят кучу времени на поиск и подготовку данных, но это никто не видит и не ценит. Продуктовый подход к данным как раз частично решает эту проблему

Что думаете? Применяете ли продуктовый подход к данным в своих компаниях?

@tagir_analyzes
Please open Telegram to view this post
VIEW IN TELEGRAM
GPT-5 проваливает 47% реальных задач.

Флагманская модель GPT-5-medium справляется с задачами только в 52,56% случаев. После 4 попыток — всего 33,86%.

Новое исследование MCPMark протестировало топовые AI-модели на 127 реальных задачах (GitHub, Notion, PostgreSQL, Playwright).

Ключевые находки:
→ Задачи требуют в среднем 16 шагов и 17 вызовов инструментов
→ Claude-Sonnet-4 и o3: менее 30% успеха с первой попытки
→ Удалённые API (GitHub, Notion) в 2 раза сложнее локальных
→ 50-80% провалов — implicit: модель завершает работу, но результат не соответствует требованиям

Главный инсайт:
Проблема не в технике, а в понимании контекста и планировании. Красиво говорить ≠ безошибочно выполнять сложные задачи.

Подробнее можно почитать у меня в блоге
2025/10/21 21:49:26
Back to Top
HTML Embed Code: