Telegram Web Link
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Мы как-то пропустили, но оказывается Hugging Face недавно тихо выпустили так называемые AI sheets

Это ни много ни мало мечта ML-инженера: инструмент позволяет интерактивно и очень быстро создавать и размечать датасеты почти под любую задачу.

Для этого надо просто выбрать доступную открытую модель (а вообще проект опенсорс, так что можно и закрытую, и свою собственную прикрутить при желании), задать текстовый промпт и получить готовый датасет. Затем его можно еще и отредактировать.

Ну и, конечно, можно загружать уже готовые датасеты, расширять их или менять. С мультимодальностью все тоже работает.

Легко запускается локально, инструкция лежит у них на гите.

github.com/huggingface/aisheets
👍1
Где искать кейсы по GenAI

Кейс-библиотеки у OpenAI и других вендоров абсолютно ужасны. Типичный кейс – это расплывчатая задача, ноль техдеталей и восхваление соответствующего вендора. Можете сами посмотреть: OpenAI, AWS, Google.

Классные кейс-библиотеки
Evidently AI - удобная табличка-агрегатор с 652 кейсами с ссылками
GenAI & LLM System Design - мощная библиотека кейсов с тех деталями на базе Evidently AI, расширенная и выложенная на гитхаб
ZenML LLMOps Database - 800+ кейсов от разных компаний, собранных ZenML
LangChain Case Studies - вендорская небольшая библиотека кейсов про LangChain: хорошие, с подробностями

Не кейсошные, но тоже классно
Awesome LLM Apps - куча простых LLM-приложений с кодом
Deloitte AI Dossier / PDF - хороший список GenAI идей. Если хотите открыть новый бизнес в GenAI – есть где вдохновиться

Российские
Yandex Cloud: неплохая библиотека кейсов от Яндекса, есть детали. Нет фильтра по YandexGPT – фильтруем глазами
Generation AI: хорошая небольшая кейсошная от JustAI
Gigachat Cases: довольно слабая кейсошная от Сбера

Кидайте в комментах что ещё знаете!
This media is not supported in your browser
VIEW IN TELEGRAM
А вообще, если заказчик хочет выгрузить дашборд в эксель - это может быть признаком того, что с дашбордом неудобно работать, или нет доверия к данным.
Но иногда это просто признак того, что заказчик любит эксель😀

#bi_memes
Please open Telegram to view this post
VIEW IN TELEGRAM
😁3
А вы знаете, что пост про демку бизнес-ассистента с SGR под капотом - это самый тщательно скрываемый секрет нашего коммьюнити?

Если верить статистике Telegram, этот пост люди пересылали в личке разы чаще, чем все остальные посты, но никто не шарил этот пост публично.

Правда секретом это будет оставаться не так долго. Следующий ERC (это наш формат соревнований) точно будет про Enterprise Reasoning Challenge, где командам нужно будет построить агента или мультиагентную систему, которые смогут использовать предоставленные им API, чтобы распутывать корпоративные задачки. Все как в SGR демке, только чуть масштабнее.

Событие планируется осенью/зимой. Точные сроки зависят от того, как быстро раскачаются отделы маркетинга в TimeToAct и IBM. Тестовый прогон будет точно этой осенью.

Формат проведения будет примерно аналогичен прошлому Enterprise RAG Challenge: команды со всего мира, небольшой призовой фонд, максимально открытые исходники и публичный сравнительный анализ результативности различных архитектур.

Возможно, все вместе сможем обнаружить новые паттерны в построении агентских систем для бизнеса.

Ваш, @llm_under_hood 🤗
👍1😁1
Forwarded from Data Bar | О data-проектах (Alexander Varlamov)
Generative Business Intelligence - тихая революция в BI

В классическом BI мы вручную пишем SQL, строим отчёты и визуализации. Но сегодня нейросети делают всё больше работы: сами пишут запросы, формируют дашборды и даже выдают инсайты. В прошлом посте рассказывал как мы сделали это на локальном компе. У этого направления уже есть название - Generative BI (GenBI).

В комментариях к моему посту в Linkedin Elena Goryainova (Sr Solution Architect, Snowflake) поделилась, что Snowflake предлагает Enterprise AI - безопасный доступ к топовым LLM внутри корпоративного контура.

Кроме них, в гонке уже:
- Salesforce
- Microsoft
- Tibco Spotfire
- Pyramid Analytics
и другие.

Компания WrenAI делает GenBI сервис и рассказывает в блоге о будущем BI.

Архитектура GenBI делится на 4 уровня (из статьи выше):
1. Уровень данных
2. Семантический уровень
3. Агентский уровень
4. Уровень представления

Главное отличие от классического BI - агентский уровень. Он отвечает за "человеческий" разговор с данными. На этом уровне нейросети преобразуют запросы пользователя в машинные запросы и алгоритмы. На семантическом уровне строятся связи с данными: что и откуда брать для запроса. Про семантический уровень буквально вчера был пост в канале "Работая в айтишечке". На уровне представления: дашборды, инсайты, эдхоки и интерфейс диалога с машиной (тоже новая штука).

Интересно, что в корпоративных решениях решаются 2 ключевые проблемы нейронок для BI:
1. Галлюцинации. Если LLM натравить только на подготовленные и структурированные данные с их описанием, то LLM практически не даёт неверных ответов. Это подтвердилось и в наших локальных экспериментах с нейронками.
2. Безопасность данных. Большие вендоры предоставляют доступ до передовых LLM только внутри компании, наружу данные не уходят.

Итого: GenBI - устойчивое понятие, подразумевающее генерацию инсайтов и инструментов для принятия решений на основе данных. Лидеры рынка идут в этом направлении. BI-системы эволюционируют, и если их не перестраивать сегодня - завтра можно остаться в хвосте рынка.
Forwarded from Data-comics
Подборка материалов по применению АИ в датавизе! 🍒

Добыла у Enrico Bertini, перевела описания для вас! Ух!
Что ж, тут разделение материалов по темам, когда Аи может реально быть полезен в сфере датавиза. Так что рекомендую практиков и теоретиков направления изучить материалы хотя бы бегло!)

Системы «от Промта к Графику»
LLM могут использоваться для того, чтобы попросить систему ИИ сгенерировать графики, решающие конкретную задачу. Это позволяет задавать визуализацию данных с помощью естественного языка, а не кода, специальных языков или интерфейсов.
LIDA: A Tool for Automatic Generation of Visualizations
ChartGPT: Leveraging LLMs to Generate Charts
Visualization Generation with Large Language Models
DynaVis: Dynamically Synthesized UI Widgets

Генерация изображений для визуализаций
Большинство решений для визуализации данных на основе LLM преобразуют запросы в код, который строит графики. Но генеративный ИИ может создавать изображения напрямую, без программирования. Некоторые исследования делают именно это.
Embedding Semantic Context into Chart
Prompt-driven stylized visualization generation
Challenges and opportunities for visualization in the age of GM

Нарративные последовательности
Создание серии графиков и текста — основа дата-сторителлинга. LLM могут помогать придумывать такие последовательности и реализовывать их: текст вводит и описывает каждый график.
Narrative Player: Reviving Data Narratives with Visuals
DataTales
DATAWEAVER: Authoring Data-Driven Narratives

Подписи и доступность
Описание графиков с точки зрения их структуры и содержания важно для понимания и доступности. Могут ли LLM поддержать эту задачу? И смогут ли пользователи с нарушениями зрения использовать генеративный ИИ, чтобы легче получать доступ к визуальной информации?
Authoring Semantically Aligned Text and Charts for Communication
VizAbility: Enhancing Chart Accessibility
MAIDR Meets AI: Exploring Multimodal Data Visualization Interpretation by and with Blind and Low-Vision Users

LLM как «читатели графиков»
Могут ли LLM выполнять часть работы, которую обычно делают люди при интерпретации графиков? Эти исследования оценивают способности моделей к пониманию и рассуждению на основе визуализаций.
Probing the visualization literacy of vision Language Models
How good (or bad) are LLMs at detecting misleading visualizations?
How aligned are human chart takeaways and LLM predictions?

Проверка результата пользователем
LLM часто ошибаются при работе с данными — в преобразованиях или в отображении. Поэтому нужны удобные интерфейсы, чтобы пользователь мог проверять и исправлять результат. Эти работы предлагают такие решения.
Urania: Visualizing Data Analysis pipelines for data exploration.
WaitGPT: Monitoring and steering conversational LLM agent

Оценка и эталонные тесты
Чтобы развивать новые системы визуализации на основе ИИ, нужно измерять их качество. Эти исследования предлагают способы тестирования и специальные наборы данных, которые позволяют объективно оценить работу моделей.
Automated Data Visualization from Natural Language
VisEval: A Benchmark for Data Visualization
Natural Language Dataset Generation Framework for Visualizations

Понимание реального использования
Чтобы понять ценность LLM для визуализации, важно смотреть на практику. Эти исследования показывают, как люди реально применяют модели в задачах с данными: с какими проблемами сталкиваются, какие возможности открываются и какие стратегии помогают.
An Interview Study on Human-AI Collaboration in Data Storytelling
Data has Entered the Chat

📊❤️🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Data Bar | О data-проектах (Alexander Varlamov)
Метрики 100 телеграм-каналов про аналитику

Телеграм-канал - это продукт, который живёт и меняется каждый день. Чтобы понимать, где можно улучшить, метрики нужно регулярно мониторить. На этой неделе я шаг за шагом покажу, как собирать и визуализировать метрики TG-каналов. Допустим, надо оценить эффективность своего канала - для этого нужны метрики моего и смежных по теме.

Основной источник данных TGStat, там уже придумана система метрик и есть сводная аналитика за последние 30 дней. Раньше рассказывал, как собрал список каналов, выложил датасет на Kaggle и визуализировал его. Обещал отдельно разобрать метрики, время пришло.

Итерация 1. Взгляд сверху (Helicopter View)

Пока непонятно, где мой канал находится в инфополе аналитики. Поэтому сначала собрал крупные и известные каналы по теме. "NewHR" проводили опрос аналитиков, какие каналы они читают - там весь топ (ссылка на таблицу). Большую часть взял оттуда, добавил новые.

Критерии отбора:
1000 более подписчиков
канал есть в TGStat

В итоге сейчас 100 каналов про анализ данных. Из TGStat выгрузил дневные метрики за 30 дней и усреднённые значения по всем 100 каналам. Где-то данных не хватает, значит, канал ещё не добавлен в трекинг. Заодно скриптом собрал логотипы и вырезал круглые аватарки. Парсер и скрипты — вайбкодинг.

Дашборд

Чтобы понять, что в данных, собрал дашборд (кликабельно, с фильтрами по каналам):

. Диаграмма Beeswarm - все каналы на одной временной оси по дате создания.
Круги раздвинуты, чтобы не перекрывались. Размер круга - число подписчиков на последний день. Видно и распределение по возрасту, и масштаб каналов, и каждый канал отдельно. Делал в инструменте LaDataViz, откуда забрал готовые координаты.
. Тренды ключевых метрик за последние 30 дней для быстрого чтения динамики.
. Scatter Plot (диаграмма разброса). На осях X/Y можно выбирать любые метрики и смотреть позиции каналов. Можно визуально найти заметить закономерности и кластеры. Scatter Plot хорошо показывает выбросы. Можно быстро найти аномалии, понять, что с ними происходит, и увидеть, где на этом фоне ваш канал.
. Рейтинги каналов. Рейтинги по выбранной метрике.

Набор метрик:
Подписчики
Посты
Индекс цитирования
Охват 1 поста
Рекламный охват 1 поста
Вовлечённость подписчиков (ER)
Прирост подписчиков за 30 дней
Прирост подписчиков, % за 30 дней
Доля Premium-подписчиков, %
Комментарии (среднее)
Возраст канала, дней
Репосты
ERR - доля подписчиков, читающих посты, %
ERR 24 - то же за первые сутки, %

Каналов много, и они очень разные по поведению аудитории и метрикам. С дашбордом можно одним взглядом увидеть "карту местности" или сфокусироваться на отдельных каналах.

💚 Канал @data_bar - первый по доле Premium-пользователей (43,8%). Сам не ожидал, но приятно.

Дальше - Итерация 2. Углубимся в интерпретацию метрик и сравнение каналов.

Спасибо, что читаете!

@data_bar 🍀
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Data Nature 🕊 (Alexandr Barakov)
Сходил на эфир к Владу Каменскому, CEO Юниверс дата.

Влад участвовал в создании издания DAMA DM BoK на русском языке и делает с командой ламповый дата каталог из Петербурга ☔️
См их пост как LLM делает глоссарий.

📽️ Видео

Почти половину эфира НЕ говорили про ИИ.
Ну а потом таки говорили.
Про ИИ в дата менеджменте.
Делал основанные на ощущении прогнозы. Например что ценность ИИ в DG наступит быстрее чем в BI.

Еще про доменные роли,
Про бигтех и качество данных.
В ролике есть таймкоды 🙂

Кто любит такое - ставьте на x2 и велком в комменты.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Data-comics
Паттерны дашбордов! 🐰

О что нашла - у прекрасного Ryan Gensel, который собрал сотни дашбордов. В итоге он все время приходил к одному из 4 паттернов, и он их описал) Я переведу для вас:

1. Длинно + Скролльно!
Дашборд выстраивается вертикально по блокам метрик. Пользователь скроллит вниз, переходя от общего к деталям.
Подходит для мобильных экранов и e-mail, с простыми графиками без инструкций.
Применение: запуск новых продуктов или функций, когда нужно дать разный уровень информации — от руководителей до операционщиков.

2. BANs + Детали
Крупные ключевые цифры (Big Ass Numbers) вверху, а ниже — разрезы по сегментам.
Подходит, если метрики уже определены, но важно видеть детализацию. Можно менять разрез (по регионам, каналам и т.п.), сохраняя формат.
Применение: операционный мониторинг команд, которые отвечают за результат метрик.

3. Санкей + Широкая таблица
Диаграмма потока для карты системы + широкие таблицы с деталями.
Подходит для анализа воронок, конверсий и удержания: помогает понять, где именно теряются пользователи или ресурсы, и как оптимизировать.
Применение: продуктовые и growth-команды, работающие со сложным поведением пользователей.

4. Потенциальный разрыв
Сравнивает фактический результат с потенциальным. Показывает разрыв между текущей эффективностью и доступной ёмкостью.
Подходит, если у команды есть понятное действие, но ограничены ресурсы или время.
Применение: операционные команды, которые должны видеть приоритетные возможности для роста.

Общее у всех паттернов:
🔵Дают «большую картину», но ведут к конкретным действиям
🔵Усиливаются, когда есть владельцы KPI
🔵Помогают расставлять приоритеты

Мне чаще встречались паттерны банс+детали и потенциальный разрыв. 🤔

Сталкивались с такими?
Сводятся ли все дашборды к этим 4 типам?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Прямо сейчас на моей работе =))
🐳5😁1
Workshop
На следующей неделе на Scale буду проводить Воркшоп, как сделать себе шаблончик визуализации с помощью AI. То есть не просто один график под конкретный датасет, а как шаблонизировать свою работу и в итоге сделать график, который сможете использовать в своих дэшах на разных датасетах 1-2-10 раз.

Регайтесь на Scale, приходите, будем творить.
Ну не прям, чтобы творить, скорее указывать, что мы хотим =)

UPD Ах, да, именно поэтому пока мало контента, в октябре исправлюсь =D
14 техник для создания лучших промптов
1. Назначайте роль ИИ: например, "опытный аналитик"
2. Давайте контекст задачи -- зачем это, для кого, как оценивать результат
3. Определяйте формат и ограничения ответа
4. Давайте примеры, как хорошие и плохие
5. Избегайте наводящих вопросов -- не подсказывайте правильный ответ
6. Подчеркните важность задачи: например, "от этого зависит решение совета директоров"
7. Просите ИИ планировать и проверять себя -- итерации до достижения результата
8. Поощряйте использование конкретных инструментов.
9. Просите пошаговое рассуждение -- разбивка задачи на шаги
10. Стройте цепочку запросов: несколько простых промптов вместо одного сложного
11. Просите задавать уточняющие вопросы при недостатке данных.
12. Создавайте вспомогательные артефакты: например, описание пользователя/персоны
13. Управляйте длинным контекстом: повторяйте ключевые инструкции в начале и конце
14. Структурируйте входные данные: Markdown, JSON и тд
Forwarded from Data Bar | О data-проектах (Alexander Varlamov)
Проникновение AI в BI и аналитику в отчёте Anthropic

Компания Anthropic, создатель Claude выпустила пару дней назад объёмный отчёт о внедрении ИИ. Посмотрим на его часть "Explore by job" - проникновение ИИ в отдельные специальности. Athropic провёл анализ запросов к Calude, разбил их на специальности и типы задач внутри каждой специальности.

Отдельного интереса заслуживают аналитики. Специальностей со словом "аналитик"(Analyst) всего 16.

Все задачи делятся на 3 типа:
Mostly automated tasks - задачи, которые выполняются в основном автоматически(почти полностью делегированы AI).
Mostly augmented tasks - задачи, где человек остаётся главным исполнителем, а ИИ дополняет и ускоряет работу.
Tasks that don't appear in our data - задачи, которые не были зафиксированы в запросах к ИИ.

Если коротко: Automation - Claude делает за тебя, Augmentation - Claude работает вместе с тобой.

Business Intelligence Analyst есть на диаграмме. 0,26% всех запросов связаны с задачами BI.
Рассмотрим какие задачи BI передаются AI, а какие - нет.

Почти полностью делегируются AI (Mostly automated):
Ведение типовых документов
Создание BI инструментов и систем
Генерация стандартных и кастомных отчётов
Сбор бизнес данных с публичных отчётов

AI помогает делать задачи (Mostly augmented):
Анализ рыночных стратегий
Анализ технологических трендов
Подготовка данных для рекомендаций
Анализ индустриальных или географических трендов
Распространение информации об инструментах или метаданных

AI не используется:
Коммуникация со стейкхолдерами
Технические требования
Управление потоком задачи
Оперативное предоставлением BI-информации пользователям
Проведение тестов на соответствие требованиям
Мониторинг бизнес-пользователей, использующих BI
Создание и ревью технической проектной документации
Поддержка и обновление BI

В каждом типе задач есть паттерны взаимодействия пользователя с AI.

Паттерны Mostly automated, нацеленные на завершение задач:
Directive (директивный). Пользователь даёт Claude задачу, и он выполняет её с минимальным количеством уточнений.
Feedback Loops (обратная связб). Пользователь автоматизирует задачи и даёт Claude обратную связь.

Помощь (Mostly augmented) фокусируется на паттернах взаимодействия:
Learning (обучение. Пользователь спрашивает Claude информацию или объяснения по разным темам.
Task Iteration (итерация задач). Пользователь совместно с Claude поэтапно дорабатывает задачи.
Validation (валидация). Пользователь просит Claude дать обратную связь на его работу.

Паттерны можно увидеть во всплывающих окнах.

Любому аналитику полезно знать, какие задачи уже почти полностью передаются AI, а какие-нет. Знание этого даёт стратегическое преимущество и понимание, куда направлять усилия и как выстраивать свою роль в новой экосистеме работы с AI.

@data_bar 🍀
Please open Telegram to view this post
VIEW IN TELEGRAM
Access Agents + метаданные: как разрулить доступ в огромном Lakehouse

TL;DR

В статье и докладе Meta описывает мультиагентную систему:

- Data User Agents 🧑 - ускоряют получение доступа пользователями (вплоть до «частичного» предпросмотра для чувствительных данных).
- Data Owner Agents 🤖 - автоматизируют управление доступом от лица владельцев сущностей и соблюдают политики доступа.
- Orchestrator Agent 🌺 - управление переговорами между агентами и обработка принятого решения

В видео говорится, что система настроена консервативно: при сомнительных кейсах доступ не выдаётся автоматически. При этом более 70% запросов обрабатывается без вовлечения владельцев данных.

Где посмотреть? 🎦

Видео - https://www.youtube.com/watch?v=qT1Il-pzQGQ

Статья - https://engineering.fb.com/2025/08/13/data-infrastructure/agentic-solution-for-warehouse-data-access/

Зачем? 👍

Цель - демократизировать доступ к данным. Если в стартапах/scale-up ручные аппрувы и простые эвристики (а-ля «дай данные по каталогу сотрудников») ещё работают, то на масштабе бигтеха нужно риск-ориентированное принятие решений.

Идея такая: с обеих сторон работают агенты, и они принимают решение на основе набора сигналов и их весов.

Со стороны датасета: тип и назначение данных, политика изменений, критичность и конфиденциальность, частота обновлений, примеры запросов.

Со стороны пользователя/ИИ-агента: детали юзкейса, информация о сотруднике/роли, требуемая скорость и критичность доступа, плюс анализ шаблонов запросов.Дополнительно ведётся постоянный мониторинг актуальности метаданных и самих решений.

Как проверять 🙆(near real-www.tg-me.com/microbatch), оценивать качество и держать деградации под контролем?
- Risk-score модель для принятия решения.
- Валидация решения: прогон на эталонном наборе. Одного раза недостаточно - нужна защита от деградаций агента во времени.
- Контроль качества: ведутся trace-логи; по ним можно выборочно перепроверять решения, разбирать corner cases и повышать долю автоматизации.
- Human-in-the-loop: быстрые апелляции и фидбек владельцев данных возвращаются в evals и обучающую петлю (data flywheel).

Выводы 🔼
Как по мне (да, я слегка biased 😅), это неплохой пример успешного применения агентов для внутренних процессов. Система существенно ускоряет доступ в большинстве кейсов и при этом не превращает on-call в хаос.

А как выдают доступ в ваших компаниях?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Клуб CDO
Дайджест статей

4 Advanced Data Modelling Techniques Every Data Engineer Must Learn
https://medium.com/projectpro/4-advanced-data-modelling-techniques-every-data-engineer-must-learn-1113bcf7f5e9

Как запустить свою LLM для инференса. Руководство по запуску: Ollama, vLLM, Triton, LM Studio, llama.cpp, SGLang
https://habr.com/ru/articles/948934/

Agentic AI Engineering: The Blueprint for Production-Grade AI Agents
https://medium.com/generative-ai-revolution-ai-native-transformation/agentic-ai-engineering-the-blueprint-for-production-grade-ai-agents-20358468b0b1

Рекомендации историй ВКонтакте: от простой эвристики до ML-системы
https://habr.com/ru/companies/vk/articles/947456/

Tableau-дашборды для аналитика данных: бесплатные курсы, видео и порция вдохновения
https://habr.com/ru/companies/yandex_praktikum/articles/946994/

Как онтология помогает представить структуру данных и семантику приложения
https://habr.com/ru/companies/vktech/articles/948492/

Нормализация vs Денормализация: Mongo, Postgres и реальная жизнь
https://habr.com/ru/articles/948612/

Внутреннее устройство чат-бота
https://habr.com/ru/companies/alfa/articles/945258/

Как данные влияют на качество ML-фичи. Виртуальный фон для Контур.Толк
https://habr.com/ru/companies/skbkontur/articles/948096/

Портим данные с удовольствием
https://habr.com/ru/companies/postgrespro/articles/948226/

Самая быстрая БД на Диком Западе
https://habr.com/ru/articles/948386/

Data Governencе – это про ответственность за данные и их качество
https://habr.com/ru/companies/otus/articles/947712/

Как избавиться от проприетарных ETL: кейс миграции на dbt
https://habr.com/ru/companies/gazprombank/articles/947124/
👍1
2025/10/20 07:10:37
Back to Top
HTML Embed Code: