Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Игнорирование стратегии приводит к проблемам на проекте
Очень часто я сталкиваюсь с ситуацией, когда бизнес игнорирует стратегию и глубокий системный анализ при разработке нового продукта. Как правило, первого своего ИТ проекта. Причин здесь очень много, и...
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Почему мы построили монолит на чистой архитектуре. И почему это взбесило системных аналитиков
Привет! Меня зовут Павел Лукьянов, я заместитель CTO в AGIMA . На одной из прошлых работ мы с ребятами попробовали внедрить так называемую чистую архитектуру на монолитном проекте. И это был...
Салют! На днях выкладывала пост про Модель OSI и TCP/IP и у нас возник там спор или недопонимание/недовольствие, что я обозвала TCP/IP - тоже моделью, и хотела бы разобраться в этом вопросе, но либо я, либо дети, либо еще какая магия, удалили комментарии к постам за весь этот год 😢 или отключили группу((( а ведь там были хорошие комментарии насчет этого
Для этого пишу этот пост, чтобы разобраться в этом вопросе «Можно ли называть TCP/IP - сетевой моделью?» Если у вас есть мысли на этот счет поделитесь с нами в комментариях👇
Даже подготовилась и прошерстила инет по данной теме и накидала вам несколько источников:
- Сложно о простом. Модель OSI и TCP/IP
- TCP IP — уровни, стек протоколов модели и краткая история
- Протокол TCP/IP
- Модели OSI и TCP/IP
- TCP/IP vs OSI модель: в чём разница?
- Сетевые модели OSI И TCP/IP
Вот есть разные источники и разных годов, и везде по-разному трактуют, где-то пишут, что это Модель, где-то просто Протокол, где-то Стандарт.
Я на собесе отвечала, что это сетевая модель и говорила разницу между OSI и меня не поправляли)) Где же правда и суть?
Для этого пишу этот пост, чтобы разобраться в этом вопросе «Можно ли называть TCP/IP - сетевой моделью?» Если у вас есть мысли на этот счет поделитесь с нами в комментариях
Даже подготовилась и прошерстила инет по данной теме и накидала вам несколько источников:
- Сложно о простом. Модель OSI и TCP/IP
- TCP IP — уровни, стек протоколов модели и краткая история
- Протокол TCP/IP
- Модели OSI и TCP/IP
- TCP/IP vs OSI модель: в чём разница?
- Сетевые модели OSI И TCP/IP
Вот есть разные источники и разных годов, и везде по-разному трактуют, где-то пишут, что это Модель, где-то просто Протокол, где-то Стандарт.
Я на собесе отвечала, что это сетевая модель и говорила разницу между OSI и меня не поправляли)) Где же правда и суть?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Analyst IT
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Глава 1. Введение в API-интерфейсы для самых маленьких
Введение в API-интерфейсы Об этой книге Автор курса Брайн Кукси, совместно с редакторами Брайаном Ландерсом и Дэнни Шрайбером, при участии Брайса Эмли. В своем произведении знакомит читателей с темой...
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Оценка срока и трудозатрат на реализацию задач с помощью Монте-Карло
Существует много методов оценки задач с точки зрения трудозатрат: Scrum Poker T-Shirt Sizing Метод аналогий «Три амиго» и т.д. Сегодня я подробно расскажу, почему в нашей команде ни один из них не...
Салют! Сегодня повторяем основы API или изучаем его с нуля, и в этом поможет Мини-курс API-интерфейсы для самых маленьких:
- Глава 1. Введение в API-интерфейсы для самых маленьких
- Глава 2: API-протоколы. Мини-курс API-интерфейсы для самых маленьких
- Глава 3: Типы и форматы API
- Глава 4: API-аутентификация, часть 1 (базовая и ключевая)
- Глава 5: API-аутентификация, часть 2 (OAuth)
- Глава 6: Проектирование API
- Глава 7: Взаимодействие с API в режиме реального времени. API-интерфейсы для самых маленьких
- Глава 8: Реализация API. API-интерфейсы для самых маленьких
- Глава 1. Введение в API-интерфейсы для самых маленьких
- Глава 2: API-протоколы. Мини-курс API-интерфейсы для самых маленьких
- Глава 3: Типы и форматы API
- Глава 4: API-аутентификация, часть 1 (базовая и ключевая)
- Глава 5: API-аутентификация, часть 2 (OAuth)
- Глава 6: Проектирование API
- Глава 7: Взаимодействие с API в режиме реального времени. API-интерфейсы для самых маленьких
- Глава 8: Реализация API. API-интерфейсы для самых маленьких
Хабр
Глава 1. Введение в API-интерфейсы для самых маленьких
Введение в API-интерфейсы Об этой книге Автор курса Брайн Кукси, совместно с редакторами Брайаном Ландерсом и Дэнни Шрайбером, при участии Брайса Эмли. В своем произведении знакомит читателей с темой...
С чего начать изучение API для аналитика: руководство для системных аналитиков
#API | @ba_and_sa
API-аналитика — это ключевой навык для тех, кто хочет глубже погрузиться в интеграцию систем, оптимизацию процессов и анализ данных.
Предлагаю небольшой гайд по изучению API, если ты не знаешь с чего начать:
1️⃣ Освежите или изучите базовые концепции
Даже опытным аналитикам стоит начать с повторения основ:
- Типы API: REST, SOAP, GraphQL, gRPC.
- Форматы данных: JSON, XML.
- Методы HTTP: GET, POST, PUT, DELETE.
- Аутентификация: OAuth 2.0, API-ключи, JWT.
📎 Матриалы:
- REST API для начинающих на Хабре — отличный старт
- REST API vs GraphQL: в чём между ними разница - сравнение технологий
- Как работает GraphQL и чем он лучше RESTful API
- Что такое API словами аналитика? Как работает и как они устроены?
2️⃣ Изучите инструменты для работы с API
- Postman или Insomnia — для тестирования и документирования запросов.
- Swagger/OpenAPI — для чтения и создания спецификаций.
- Prometheus + Grafana — для мониторинга метрик API.
Практический совет:
Начните с анализа публичных API (например: VK API или Yandex.Cloud). Изучите их документацию, составьте несколько запросов и проанализируйте ответы.
3️⃣ Углубитесь в метрики и аналитику
API-аналитика включает:
- Производительность: время ответа, ошибки (4xx, 5xx), нагрузка.
- Бизнес-метрики: количество вызовов, популярные эндпоинты.
- Безопасность: отслеживание подозрительных запросов.
📎 Материалы:
- Правильный мониторинг API: метрики и лучшие практики
- Справочник по REST API Log Analytics
4️⃣ Советы от опытного аналитика (если вы плотно работаете с API)
- Документируйте всё:
Используйте Swagger для создания спецификаций. Даже если API кажется простым, описание методов сэкономит время команде.
- Автоматизируйте тесты: Настройте CI/CD-пайплайны с проверкой API (например, через **Postman + Newman**).
- Изучайте чужой код: Анализируйте, как реализованы API в open-source проектах на GitHub.
- Задавайте вопросы «почему»: За каждым API стоит бизнес-логика. Поймите, зачем клиент вызывает определённый метод и как это влияет на продукт.
- Коммуникация с разработчиками: Участвуйте в код-ревью API. Это поможет понять тонкости реализации.
5️⃣ Практикуйтесь на реальных проектах
- Пет-проекты: Создайте свой мини-API (например, для учета задач) и настройте для него аналитику.
- Пройдите онлайн-курсы/вебинары
———————————————
API-аналитика — это микс технических навыков и бизнес-мышления. Начните с малого: проанализируйте один эндпоинт, подключите метрики, обсудите результаты с командой. Постепенно вы научитесь видеть за запросами реальные бизнес-процессы и находить точки роста.
Главное правило: Не бойтесь экспериментировать. Даже ошибки в тестовой среде дают бесценный опыт. Удачи в изучении!🚀
Источник: @ba_and_sa
#API | @ba_and_sa
API-аналитика — это ключевой навык для тех, кто хочет глубже погрузиться в интеграцию систем, оптимизацию процессов и анализ данных.
Предлагаю небольшой гайд по изучению API, если ты не знаешь с чего начать:
Даже опытным аналитикам стоит начать с повторения основ:
- Типы API: REST, SOAP, GraphQL, gRPC.
- Форматы данных: JSON, XML.
- Методы HTTP: GET, POST, PUT, DELETE.
- Аутентификация: OAuth 2.0, API-ключи, JWT.
- REST API для начинающих на Хабре — отличный старт
- REST API vs GraphQL: в чём между ними разница - сравнение технологий
- Как работает GraphQL и чем он лучше RESTful API
- Что такое API словами аналитика? Как работает и как они устроены?
- Postman или Insomnia — для тестирования и документирования запросов.
- Swagger/OpenAPI — для чтения и создания спецификаций.
- Prometheus + Grafana — для мониторинга метрик API.
Практический совет:
Начните с анализа публичных API (например: VK API или Yandex.Cloud). Изучите их документацию, составьте несколько запросов и проанализируйте ответы.
API-аналитика включает:
- Производительность: время ответа, ошибки (4xx, 5xx), нагрузка.
- Бизнес-метрики: количество вызовов, популярные эндпоинты.
- Безопасность: отслеживание подозрительных запросов.
- Правильный мониторинг API: метрики и лучшие практики
- Справочник по REST API Log Analytics
- Документируйте всё:
Используйте Swagger для создания спецификаций. Даже если API кажется простым, описание методов сэкономит время команде.
- Автоматизируйте тесты: Настройте CI/CD-пайплайны с проверкой API (например, через **Postman + Newman**).
- Изучайте чужой код: Анализируйте, как реализованы API в open-source проектах на GitHub.
- Задавайте вопросы «почему»: За каждым API стоит бизнес-логика. Поймите, зачем клиент вызывает определённый метод и как это влияет на продукт.
- Коммуникация с разработчиками: Участвуйте в код-ревью API. Это поможет понять тонкости реализации.
- Пет-проекты: Создайте свой мини-API (например, для учета задач) и настройте для него аналитику.
- Пройдите онлайн-курсы/вебинары
———————————————
API-аналитика — это микс технических навыков и бизнес-мышления. Начните с малого: проанализируйте один эндпоинт, подключите метрики, обсудите результаты с командой. Постепенно вы научитесь видеть за запросами реальные бизнес-процессы и находить точки роста.
Главное правило: Не бойтесь экспериментировать. Даже ошибки в тестовой среде дают бесценный опыт. Удачи в изучении!
Источник: @ba_and_sa
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Давайте (не) разрушим монолит. Часть 1
Снова и снова клиенты просят меня и моих коллег разделить свой монолит на микросервисы и спрашивают, как это лучше всего сделать. Они уверены, что разделение монолита на микросервисы решит серьезные...
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
База про жизненный цикл разработки ПО (SDLC): этапы, виды моделей и их различия
Software Development Life Cycle (SDLC) — это фундамент, на котором строится разработка. Он помогает выстроить процессы так, чтобы команда четко понимала, что и когда ей нужно делать, а заказчик знал,...
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
работа с Kafka в Go: практическое применение
Автор статьи Якушков Федор. Apache Kafka — это мощная распределённая платформа для обработки потоков данных, которая завоевала популярность благодаря своей способности эффективно управлять большими...
Зачем аналитику знать Kafka?
🎯 Главная цель: зачем системному аналитику знать Kafka?
Kafka — это не просто технология для разработчиков. Аналитик, понимающий её принципы, может проектировать более эффективные системы, улучшать процессы сбора данных и точнее ставить задачи команде.
❓ Зачем аналитику разбираться в Kafka?
1. Проектирование потоков данных
- Аналитик часто участвует в проектировании интеграций между системами.
- Kafka помогает организовать гибкую передачу событий (например, заказы → аналитика → CRM → склад).
- Без Kafka такие потоки часто делают через прямые вызовы API или базы данных, что сложнее масштабировать.
2. Работа с реальными данными (event-driven аналитика)
- Современные системы генерируют потоки событий (клики, платежи, логины).
- Kafka позволяет собирать их в реальном времени и передавать в аналитические хранилища (ClickHouse, BigQuery и др.).
- Без Kafka данные могут теряться или приходить с задержкой.
3. Упрощение ETL-процессов
- Раньше данные выгружали пакетами (раз в час/день), теперь можно стримить их непрерывно.
- Например:
- Данные из мобильного приложения → Kafka → обработка → витрины данных.
- Логи веб-сервера → Kafka → анализ аномалий.
4. Общение с разработчиками на одном языке
- Если аналитик говорит: *«Нам нужно подписаться на топик
- Понимание Kafka помогает уменьшить разрыв между аналитикой и разработкой.
5. Оптимизация нагрузки на БД
- Если система пишет данные напрямую в PostgreSQL / MySQL, при высокой нагрузке могут быть тормоза.
- Kafka буферизирует данные и отдаёт их потребителям в удобном темпе.
⛔️ Когда Kafka НЕ нужна?
- Если данные обновляются редко (раз в день).
- Если система маленькая и нет проблем с производительностью.
- Если команда не готова поддерживать Kafka (это всё же дополнительная инфраструктура).
📌 Вместо вывода
Аналитику Kafka нужна, чтобы:
✅ Лучше проектировать интеграции.
✅ Работать с данными в реальном времени.
✅ Упрощать ETL и снижать нагрузку на БД.
✅ Говорить с разработчиками на одном языке.
📖 Полезные материалы для аналитика:
1. Официальная документация Kafka – база для понимания.
2. Введение в Apache Kafka для системных аналитиков и проектировщиков интеграций - основы в одном месте
3. Kafka для самых маленьких разработчиков, аналитиков и тестировщиков. - немного теории для самых маленьких
Если в вашем проекте есть много событий, микросервисы или большая нагрузка — Kafka стоит изучить🚀
Источник: @ba_and_sa
Kafka — это не просто технология для разработчиков. Аналитик, понимающий её принципы, может проектировать более эффективные системы, улучшать процессы сбора данных и точнее ставить задачи команде.
1. Проектирование потоков данных
- Аналитик часто участвует в проектировании интеграций между системами.
- Kafka помогает организовать гибкую передачу событий (например, заказы → аналитика → CRM → склад).
- Без Kafka такие потоки часто делают через прямые вызовы API или базы данных, что сложнее масштабировать.
2. Работа с реальными данными (event-driven аналитика)
- Современные системы генерируют потоки событий (клики, платежи, логины).
- Kafka позволяет собирать их в реальном времени и передавать в аналитические хранилища (ClickHouse, BigQuery и др.).
- Без Kafka данные могут теряться или приходить с задержкой.
3. Упрощение ETL-процессов
- Раньше данные выгружали пакетами (раз в час/день), теперь можно стримить их непрерывно.
- Например:
- Данные из мобильного приложения → Kafka → обработка → витрины данных.
- Логи веб-сервера → Kafka → анализ аномалий.
4. Общение с разработчиками на одном языке
- Если аналитик говорит: *«Нам нужно подписаться на топик
user_actions
и агрегировать данные»* — это понятнее, чем *«Сделайте выгрузку из БД каждые 5 минут»*. - Понимание Kafka помогает уменьшить разрыв между аналитикой и разработкой.
5. Оптимизация нагрузки на БД
- Если система пишет данные напрямую в PostgreSQL / MySQL, при высокой нагрузке могут быть тормоза.
- Kafka буферизирует данные и отдаёт их потребителям в удобном темпе.
- Если данные обновляются редко (раз в день).
- Если система маленькая и нет проблем с производительностью.
- Если команда не готова поддерживать Kafka (это всё же дополнительная инфраструктура).
📌 Вместо вывода
Аналитику Kafka нужна, чтобы:
✅ Лучше проектировать интеграции.
✅ Работать с данными в реальном времени.
✅ Упрощать ETL и снижать нагрузку на БД.
✅ Говорить с разработчиками на одном языке.
1. Официальная документация Kafka – база для понимания.
2. Введение в Apache Kafka для системных аналитиков и проектировщиков интеграций - основы в одном месте
3. Kafka для самых маленьких разработчиков, аналитиков и тестировщиков. - немного теории для самых маленьких
Если в вашем проекте есть много событий, микросервисы или большая нагрузка — Kafka стоит изучить
Источник: @ba_and_sa
Please open Telegram to view this post
VIEW IN TELEGRAM
Apache Kafka
Apache Kafka: A Distributed Streaming Platform.