Forwarded from Дашбордец
Котятки🐱,
Этим утром я почитываю книжечку
A reader on data Visualization. По факту, методичку по курсу Dataviz:
https://mschermann.github.io/data_viz_reader/
Что примечательно, в ней есть глава 6, где прямо очень хорошо расписан жизненный цикл любого проекта по анализу.
Ну и моя вчерашняя маленькая находка: статья-размышление на тему, какие новые риски появились в сфере анализа и визуализации, а что по-прежнему важно для построения качественного дашборда. «Уместность» - мой фаворит.
https://rebeccabranton.blog/2025/07/13/the-evolution-of-data-visualization-what-makes-a-good-chart-in-the-age-of-technology/
Этим утром я почитываю книжечку
A reader on data Visualization. По факту, методичку по курсу Dataviz:
https://mschermann.github.io/data_viz_reader/
Что примечательно, в ней есть глава 6, где прямо очень хорошо расписан жизненный цикл любого проекта по анализу.
Ну и моя вчерашняя маленькая находка: статья-размышление на тему, какие новые риски появились в сфере анализа и визуализации, а что по-прежнему важно для построения качественного дашборда. «Уместность» - мой фаворит.
https://rebeccabranton.blog/2025/07/13/the-evolution-of-data-visualization-what-makes-a-good-chart-in-the-age-of-technology/
mschermann.github.io
A Reader on Data Visualization
This is the class reader for MSIS 2629.
Forwarded from Data Nature 🕊 (Alexandr Barakov)
<Осторожно - в этом посте нет ни одного упоминания AI>
Делали с командой внутренний курс для BI в Авито - откапал свою типологию ролей в BI проектах 5-ти летней давности.
Отряхнул и переписал из текущей точки, добавил логики. Короче - дополняйте какие роли или нюансы упущены.
Ссылка на картинку
Забавное открытие - вроде все уже сказано и открыто в профессии, но приходят в компанию новые поколения и говорить об каких-то вещах - есть смысл снова.
Forwarded from Тагир Анализирует
Недавно читал статью Netflix про то, как они применяют продуктовый подход к данным. Получился реальный разбор того, как у них это работает на практике, а не как должно быть
Главная мысль простая: если к данным не применять продуктовый подход, они превращаются в помойку. Таблички плодятся как кролики, никто не знает, что где лежит, а аналитики тратят 80% времени на поиск нужных данных вместо анализа
Что Netflix делает по-другому:
Во всех компаниях, где я работал, эти подходы в той или иной степени реализовывались. В Яндексе прод витрины жили в команде DWH – был SLA и прочие гарантии. При этом некоторые важные источники оставались на поддержке аналитиков, поэтому иногда они забывались, не имели нормальной доки и устаревали
Когда собесил аналитиков в Яндекс, многие задавали вопросы про инфру и данные – чувствовалось, как у людей болит, что вместо аналитики они перекидывают данные с одного ноутбука на второй и решают другие проблемы с данными вместо анализа
Основное, что смущает в статье – масштаб Netflix. У них есть ресурсы на выделенных владельцев данных, техрайтеров и прочую инфраструктуру. Но базовые принципы можно применить и в меньших масштабах
Кстати, это перекликается с тем, что я писал про invisible work – когда аналитики тратят кучу времени на поиск и подготовку данных, но это никто не видит и не ценит. Продуктовый подход к данным как раз частично решает эту проблему
Что думаете? Применяете ли продуктовый подход к данным в своих компаниях?
@tagir_analyzes
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Пристанище Дата Сайентиста (TelepostBot)
GPT-5 проваливает 47% реальных задач.
Флагманская модель GPT-5-medium справляется с задачами только в 52,56% случаев. После 4 попыток — всего 33,86%.
Новое исследование MCPMark протестировало топовые AI-модели на 127 реальных задачах (GitHub, Notion, PostgreSQL, Playwright).
Ключевые находки:
→ Задачи требуют в среднем 16 шагов и 17 вызовов инструментов
→ Claude-Sonnet-4 и o3: менее 30% успеха с первой попытки
→ Удалённые API (GitHub, Notion) в 2 раза сложнее локальных
→ 50-80% провалов — implicit: модель завершает работу, но результат не соответствует требованиям
Главный инсайт:
Проблема не в технике, а в понимании контекста и планировании. Красиво говорить ≠ безошибочно выполнять сложные задачи.
Подробнее можно почитать у меня в блоге
Флагманская модель GPT-5-medium справляется с задачами только в 52,56% случаев. После 4 попыток — всего 33,86%.
Новое исследование MCPMark протестировало топовые AI-модели на 127 реальных задачах (GitHub, Notion, PostgreSQL, Playwright).
Ключевые находки:
→ Задачи требуют в среднем 16 шагов и 17 вызовов инструментов
→ Claude-Sonnet-4 и o3: менее 30% успеха с первой попытки
→ Удалённые API (GitHub, Notion) в 2 раза сложнее локальных
→ 50-80% провалов — implicit: модель завершает работу, но результат не соответствует требованиям
Главный инсайт:
Проблема не в технике, а в понимании контекста и планировании. Красиво говорить ≠ безошибочно выполнять сложные задачи.
Подробнее можно почитать у меня в блоге