Telegram Web Link
🚀 Вакансия: Аналитик данных (Middle)
🏢 Компания: 'Правильный софт, вендор Альфа-банка'
🌎 Локация: 🇷🇺 Россия
🕕 Часовой пояс: Москва
💼 Формат работы: гибрид

💰 Зарплата: '300-350 net'
📊 Отрасли: финтех, CRM

🎯 Требования:
-Имеете высшее техническое образование;
-Большой опыт использования ML библиотек на Python;
-Имеете уверенные знания теории вероятностей, математической статистики и классического машинного обучения
-Присутствует опыт работы с Hadoop стеком - Spark, Hive;
-Присутствует опыт работы с mlflow, git, airflow;
Имеете хорошие навыки SQL - и обработки данных в pandas;
-У вас есть опыт в проведении А/Б тестирования;
-Опыт работы с бизнес заказчиком для выявления и понимания его проблем и бизнес целей

Пожелания:
Желательно иметь опыт DS

Рабочие задачи:
-Строить новые модели склонности к страховым продуктам в различных каналах и выводить их в прод.
-Генерировать новые фичи и проверять их в моделях.
-Общаться с бизнесом и помогать решать его проблемы с помощью моделей.

📌 Условия:
Трудоустройство по ТД
-Доход 300 - 350 nett
-Дмс
-Ученическая премия
-Удалёнка/гибрид

📩 Контакты:
@anna_abrakhimova

ℹ️ Дополнительно:
-

#SQL #Python #Git #CRM #НСИ #Middle #Гибрид #ФинТех #ДМС
Всем привет!
 
Мы усиливаем команду дата аналитиков ПСБ. Ищем специалистов в области бизнес-анализа данных всех уровней (Junior, Senior, Middle)
Город: Москва
Формат работы: гибридный (удаленный режим работ + посещение офиса 1-2р./нед., либо работа в офисе)
Компенсация: обсуждается индивидуально с успешным кандидатом в зависимости от его уровня квалификации на рыночных условиях. Премии: Квартальная премия 20% от квартального оклада, годовая премия 10% от годового оклада
 
Функционал:
- Сбор и анализ данных из различных источников
- Проведение аналитических исследований (ad-hoc запросов) по анализу данных клиентов банка юридических лиц (факторный анализ, what-if анализ, продуктовая аналитика, воронки продаж, клиентские профили, пр.):
- Daily Banking (ежедневные операции, платежи, транзакции)
- Клиентский PnL и его покомпонентный анализ
- Доходность клиентов
- Портфельная аналитика
- Активная клиентская база
- Канальная отчетность, эффективность каналов продаж
- Продуктовый профиль и проникновение
- Графы связей и холдинговые структуры
- Тарификация и оптимальные тарифные планы
- Формирование отчетов для руководства (BI, Excel, Р7), формирование выводов и интерпретация результатов для транформации бизнес-модели
- Разработка и сопровождение бизнес-аналитической отчетности
- Защита результатов перед руководством и изменение бизнес-модели на основе Data Driven подходов.
 
Требования:
- Высшее образование по направлению экономика/финансы/математика/ИТ/технические дисциплины
- Знание и понимание ключевых банковских процессов (продажи, риск-менеджмент, антифрод, работа с клиентской базой, пр.)
- Уверенное владение SQL (MS SQL, PostGRESQL)
- Знание инструментов Python будет являться преимуществом
- Опыт работы в должности аналитика (junior – от 6 мес., middle – от 2 лет, senior – от 3 лет)
Опыт построения отчетов, визуализации данных, разработки дэшбордов и аналитических витрин данных
- Знание основ финансового и управленческого учета будет являться преимуществом
- Знание банковской модели дистрибуции и продаж будет являться преимуществом
- Опыт работы в государственной организации/государственном банке будет являться преимуществом
- Организованность, системное мышление, клиентоориентированность, нацеленность на результат
- Навыки презентации результатов контрагентам и заказчикам
 
Что ты будешь делать:
- Тестировать бизнес-гипотезы совместно с бизнес-подразделениями
- Строить MVP бизнес-витрин, отчетов BI
- Проводить анализ и делать бизнес-выводы, направленные на развитие/трансформацию бизнес-модели (Сеть Продаж, Продукты, Ценообразование и т.д.)
- Оценивать эффективность продуктов, каналов, отдельных акций, тарифных планов и пр.
- Помогать бизнес-подразделениями становиться более эффективными и data-driven
 
Заинтересовались? Контакт для связи и отправки резюме: [email protected]
🚀 Полезная новость для всех, кто работает с аналитикой — Yandex Cloud запустил сертификацию DataLens Analyst.

📌 Сертификация подтверждает вашу квалификацию и усиливает позиции на рынке — особенно если вы строите карьеру в аналитике и BI. Подготовка к экзамену поможет систематизировать знания и закрыть пробелы.

Что вас ждет?

🟡 Темы экзамена: чарты, дашборды, вычисляемые поля, параметры, источники данных, доступы и навигация — все, что нужно для уверенного использования платформы.

🟡 Бесплатный курс и примеры заданий уже собраны в одном месте — можно готовиться по шагам.

🟡 До конца августа пройти сертификацию можно за 2 500 ₽ вместо 5 000 ₽ — минус 50% на апгрейд своего профиля.

📌 Сертификация подходит всем, кто уже работает с DataLens или использует BI-инструменты каждый день.

Протестируйте себя и добавьте весомую строчку в резюме. Регистрация и материалы — на сайте Яндекса.
🧱 Senior Data Engineer
Проект: англоязычный, работа с данными, масштабирование, визуализация
Формат: удалёнка, фулл-тайм
Грейд: Senior
Старт: ASAP
Ставка: 180.000-250.000 руб (обсуждается от стека)
Таймзона: МСК ±2–3 часа
Локация: РФ, РБ, Казахстан (но могут рассмотреть и другие)
Гражданство: любое
Язык: английский разговорный обязателен

📌 Технологии и задачи:
— Построение и поддержка ETL/ELT-пайплайнов
— Работа с SQL и NoSQL БД, проектирование моделей данных
— Сбор требований, описание решений, архитектура
Разработка облачной инфраструктуры на AWS через CDK (Python)
Реализация проверок качества данных
— Поддержка и развитие визуализаций
— Работа с Docker / Kubernetes, безопасностью и DevOps-практиками
Поддержка аналитических запросов, внедрение best practices
— Документирование всех компонентов

Требования:
— 5+ лет в роли Data Engineer
— Уверенные навыки в ETL/SQL/NoSQL
— Опыт работы в облаке (желательно AWS и CDK)
— Знание английского языка на уровне разговорного общения
— Опыт в интернациональных проектах будет плюсом

📩 Подавай резюме @skeldafn
🚀 Вакансия: Продуктовый аналитик (Middle)
🏢 Компания: Правильный софт, ит-вендор Альфа-банк
🌎 Локация: 🇷🇺 Россия
🕕 Часовой пояс: Москва
💼 Формат работы: дистанционная

💰 Зарплата: 260-300 net
📊 Отрасли: финтех

🎯 Требования:
Уверенное владение SQL и опыт работы с базами данных (Oracle/Postgres/MySQL, Google BigQuery, Hadoop, Vertica, SQL Server).
Опыт работы с системами визуализации (Power BI, Tableau, Datalens, Superset, Google Data Studio, QlikView/QlikSense)
Опыт построения автоматизированной отчетности: от сбора, хранения, подготовки данных до построения отчетов/дашбордов и проведения анализа данных.
Опыт работы с одной или несколькими системами аналитики: Appsflyer, Amplitude, Firebase, Mixpanel, Google Analytics, Яндекс.Метрика, AppMetrica или аналогами.
Знание инструментов для автоматизации сбора, статистической обработки сырых данных (Python/R)

Пожелания:
Желателен опыт в Бигтех

Рабочие задачи:
Организовать и автоматизировать сбор данных для отчетности, объединить данные систем-источников и строить регулярную отчетность/дашборды по клиентской активности.
Принимать участие в исследованиях эффективности коммуникаций и точек входа, путей пользователей при совершении операций, помогать командам в генерации гипотез и проведении экспериментов.
Погрузиться в процессы и текущие потребности продуктовых команд, наборы необходимых метрик и методик их расчета для оценки путей клиентов.
Обеспечить регулярный аудит качества и полноты данных о поведении клиентов, а также матчинга онлайн и офлайн данных.
Активно участвовать в разметке действий пользователей для системы продуктовой аналитики, в т.ч. взаимодействовать с продуктовыми командами в рамках этого процесса (от формирования набора метрик, до написания ТЗ и тестирования разметки)

📌 Условия:
Трудоустройство по ТД
Удалёнка /гибрид (Москва)
ДМС
Ученическая премия

📩 Контакты:
@anna_abrakhimova

#SQL #Python #Git #CRM #НСИ #Middle #Гибрид #ФинТех #ДМС
#вакансия
Группа компаний Excdev
Data engineer (DWH)
Удаленный формат работы
График с 10.00 до 19.00 по московскому времени.
Возможность работать из любой точки мира.
Вилка:от 200 до 330 тысяч рублей.


Чем предстоит заниматься:
• Разработка и поддержка решений для управления основными данными (MDM).
• Интеграция данных из различных источников и обеспечение их консистентности и целостности.
• Разработка ETL процессов для обработки и нормализации данных.
• Создание и поддержка системы качества данных, управление их дублированием.
• Интеграция с Kafka для обеспечения надежной передачи и синхронизации данных.
• Разработка и поддержка процессов парсинга данных из интернета и их интеграции в MDM.
• Работа с метаданными, управление ими и их обновление.
• Тесное взаимодействие с командами DWH и BI для обеспечения корректного использования данных.

Наши ожидания от кандидата:
• Высшее математическое или техническое образование;
• Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных
• в сфере веб и/или мобильных продуктов;
• Опыт работы с MDM решениями и понимание принципов управления основными данными.
• Опыт разработки ETL процессов и работы с инструментами ETL.
• Глубокие знания SQL и опыт работы с реляционными базами данных.
• Опыт работы с Apache Kafka для интеграции и синхронизации данных.
• Навыки парсинга данных из интернета и их нормализации.
• Опыт работы с инструментами управления качеством данных и их дублированием.
• Опыт работы с метаданными и их управлением.

Резюме:@VLT_recruiter
Для финтех продукта требуется ML-специалист.
Задача:
Разработать сервис для распознавания чеков по заданным шаблонам с использованием машинного зрения и нейросетей. Задача включает обработку изображений, извлечение текста (OCR) и привязку данных к структурам.
Возможен парт-тайм. Работа полностью удаленная

Требования:
- Уверенное знание Python или Go в задачах машинного обучения
- Опыт с OpenCV, OCR
- Практика с нейросетями: TensorFlow, PyTorch и пр.
- Знание архитектур типа ResNet
- Умение работать с шаблонами, структурировать извлечённые данные

Будет плюсом:
- Опыт в распознавании документов или чеков
- Оптимизация моделей для продакшн

Условия:
- Удалённая работа
- Заработная плата от 2000 USDT (обсуждается по опыту)

Контакт для отклика: @mikhpletnev
Quantitative Researcher

📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$

📌О проекте:

Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках

Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем

❓️Кого мы ищем?

Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.

✅️Обязанности:

▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников

▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез

▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов

▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча

✅️Требования:

🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно

🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями

🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше

❌️Что мы НЕ рассматриваем:

– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности

➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)

✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде


❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
Дата-инженер
#удаленка #junior
Компания: Т-Банк
🔹Обязанности
-Участвовать в формировании модели данных
-Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
-Участвовать в проектах по развитию Data Platform
-Писать скрипты SQL и Python
-Прорабатывать интеграции с внешними системами для Data Platform

🔹Требования
-У вас есть опыт работы с DWH в роли аналитика или разработчика от года
-Уверенно владеете SQL
-Знаете Python или другой язык программирования на базовом уровне
-Понимаете теорию СУБД- и ETL-процессов
-Хотите развиваться в роли дата-инженера
Контакты: https://www.tbank.ru/career/it/dwh/data_engineer_junior/
Позиция: Senior scoring developer / старший разработчик моделей кредитного скоринга.

Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).

Занятость: полная.

ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).

Компания или отрасль: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰

Почему ищем: в связи с ростом компании 📈


Ключевые навыки:

🔹 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
🔹 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
🔹 Глубокие знания математической статистики и теории вероятностей;
🔹 Опыт оптимизации методологии построения скоринговых моделей;
🔹 Опыт работы с A/B-тестированием и анализом экспериментальных данных.


Над какими задачами предстоит работать:

🔹 Анализ источников данных и расширение модели данных по клиенту;
🔹 Разработка и оптимизация моделей кредитного скоринга;
🔹 Разработка и оптимизация методологии построения скоринговых моделей;
🔹 Развитие мониторинга действующих ML-моделей;
🔹 Подготовка документации по разработанным моделям;
🔹 Анализ моделей с точки зрения их экономической эффективности;
🔹 Участие в развитии компетенций и методологий команды моделирования;
🔹 Взаимодействие с IT-командами для реализации моделей в продуктиве.


Предлагаем:

🔹 Только официальное трудоустройство - по ТК РФ, белая зп;
🔹 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🔹 Трудоустройство в аккредитованную IT-компанию;
🔹 Ежегодную индексацию заработной платы;
🔹 Приобретение курсов для сотрудников;
🔹 Обеспечение рабочей техникой;
🔹 Оплачиваемые поездки на профильные конференции;
🔹 ДМС со стоматологией (по РФ).

Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻


Пишите в ТГ:
ТГ: @victory_russia

Желательно сразу прикрепить резюме 😉
Всем привет, мы в m2.ru расширяемся и ищем Data/DevOps инженера!
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.

Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).

Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).

По всем вопросам можно писать @vika_nkl
#вакансия #удаленка #фуллтайм
Data Engineer

Требуемый опыт работы: 3–6 лет

Полная занятость, полный день

Привет! Меня зовут Анастасия и я HR компании "MIA Dev".

Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".

Чем предстоит заниматься:

Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных

Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ

Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
#вакансия #vacancy #job #middle #senior #backend #developer #python #fulltime #удаленка #Match_Systems

Вакансия: Middle/Senior Backend Developer (Python)
Форма занятости: удаленная/в офисе
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций)
Зарплата: от 2500$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)

Обязанности:
- Проектирование и развитие высоконагруженных backend-сервисов на Python
- Оптимизация производительности и масштабируемости системы для работы в условиях highload
- Разработка и внедрение тестов (юнит-тесты, интеграционные тесты)
- Участие в код-ревью и обеспечении высокого качества кода
- Анализ и устранение узких мест в производительности системы
- Взаимодействие с другими командами для реализации и поддержки масштабируемых решений

Требования:
- Опыт работы: от 5 лет в разработке на Python
- Глубокие знания и опыт работы с FastAPI
- Опыт работы с PostgreSQL и другими реляционными СУБД, умение эффективно использовать ORM
- Опыт разработки и оптимизации RESTful API, опыт работы с gRPC, RPC
- Знания и опыт работы с очередями сообщений, такими как RabbitMQ
- Уверенные навыки работы с Kafka
- Глубокое понимание и практический опыт работы с асинхронностью (asyncio, aiohttp и др), многопоточностью (threading) и мультипроцессностью (multiprocessing) в Python, включая выбор оптимального метода параллельного исполнения (I/O-bound vs. CPU-bound), учет влияния GIL (Global Interpreter Lock), а также построение высоконагруженных асинхронных сервисов
- Знания принципов работы fifo / lifo очередей, отличие очереди от pub / sub
- Опыт работы с криптовалютами и блокчейн-технологиями
- Знания и опыт разработки торговых ботов или алгоритмических систем
- Опыт в оптимизации производительности программного обеспечения, в том числе в условиях highload
- Знание паттернов проектирования и принципов SOLID
- Знание принципов работы блокчейн-протоколов будет значительным преимуществом

Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей

Итоговый размер и формат компенсационного пакета обсуждается индивидуально.

Ссылку на GitHub/Портфолио присылать обязательно.

Для связи : @daryana_bye
Senior Software Engineer

Локация: Удалённо
Компания: HighSky
ЗП: от $5 000 до $9 000
Занятость: Полная

HighSky — быстрорастущий стартап на стыке разработки и ML. Работаем над генерацией текста, аудио, видео, обогащением данных (из соцсетей, видеохостингов и т.д.), а также задачами, связанными с блокчейном.

Что предстоит делать:
— Разрабатывать инфраструктурные решения для AI-команд: библиотеки, шаблоны и внутренние сервисы
— Проектировать и оптимизировать высоконагруженные сервисы для продакшен-развертывания ML-моделей
— Поддерживать ML-инженеров с backend-задачами и интеграцией внешних решений
— Работать с реляционными и NoSQL-БД, выбирать подходящие под задачу
— Адаптировать и внедрять open-source решения

Требования:
— Отличное знание Python, опыт работы с микросервисами
— 5+ лет на Python
— Опыт работы с высоконагруженными системами
— Понимание System Design, опыт с брокерами сообщений и балансировкой нагрузки
— Уверенное знание SQL, опыт с реляционными и NoSQL-СУБД
— Опыт работы с ML
Профильное высшее образование ❗️
— Английский на уровне B2+

Будет плюсом:
— Опыт работы с блокчейн-данными
— Знание C++ / Go / Java

Что предлагаем:
— Участие в разработке реальных продуктов с живым трафиком
— Зарплата $5000–9000 в зависимости от результатов собеседования
— Честную, открытую культуру без бюрократии
— Полностью удалённую работу и гибкий график
— Аналог ДМС
— Компенсация за улучшение техники / спортзал / хобби
— Приятные подарки на праздники

📩 Резюме и вопросы: @easezzzz
Product analyst в высокотехнологичный сервис по покупке, продаже и аренде недвижимости.

Компания рассматривает кандидатов только из России.
З/п: обсуждается на интервью.
Формат работы: Офис, Удаленка, Гибрид(Москва, Санкт-Петербург, Новосибирск);
Уровень позиции: Middle

Стек: SQL, Python, Hadoop, FineBI, своя ячейка в JupiterHub/

🔷Задачи:
Проведение исследований зависимости ключевых метрик компании (выручка, EBITDA) от настроек поискового и рекомендательного движка;
Анализ и запуск A/B тестов;
Создание системы метрик и контроль качества данных для их расчета;
Проектирование и разработка отчетов и дашбордов;
Проведение исследований данных и определение ключевых драйверов роста метрик.

🔷Обязательные требования:
Product analyst от 2-х лет (b- и c-пользователей);
SQL - продвинутый уровень (подзапросы/оконные функции/сложные джоины);
Python (pandas/numpy/scipy/statsmodels/matplotlib/seaborn/plotly);
Применение статистических методов для дизайна и оценки A/B тестов (стат.критерии / увеличение чувствительности метрик);
Оценка результата запуска без A/B (методы синтетического контроля);
Высшее образование: естественно - научное, техническое или экономическое.

Отклики ждем @fr_rec
⚡️Качество данных: почему это также важно для аналитика как Python и SQL

Аналитик данных — это специалист, который добывает ценную информацию из достоверных данных, чтобы бизнес мог принимать обоснованные решения.
Для этого используются те же инструменты, что и для самого анализа — Python, SQL, математическая статистика и автоматизация процессов.

Присоединяйтесь к нашему вебинару, где разберём:
🟠Как качество данных влияет на принятие решений и карьеру аналитика;
🟠Метрики качества данных: актуальность, допустимость, полнота и другие;
🟠Частые причины проблем с качеством данных;
🟠Методы повышения качества данных: определение требований к КД, мониторинг КД, решение инцидентов.

Спикер: Павел Беляев, руководитель группы дата-аналитиков в компании Яндекс eLama.

📅 Встречаемся 24 июня в 18:30 по МСК

😶Зарегистрироваться на бесплатный вебинар
Please open Telegram to view this post
VIEW IN TELEGRAM
#data #dataengineer #engineer #вакансия

Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.

Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.

Чем будем заниматься:
*  загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:

* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.

Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.

Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.

А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)

резюме/cv можно приносить сюда: @da_mrv
Вакансия: Data Engineer Senior
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ


На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.

Обязанности:

- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)

Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:

- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).

- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).

Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum

📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
This media is not supported in your browser
VIEW IN TELEGRAM
Уже пользовались GigaChat? Предлагаем принять участие в его разработке! 💻

Сбер приглашает на One Day Offer талантливых DL-инженеров в команду production-внедрения GigaChat.

С вас — понимание, как работают модели на уровне математики и аппаратуры, и желание оптимизировать работу LLM моделей, создавать инфраструктуру для нагрузок на кластеры и выводить новые архитектуры в промышленную среду.

С нас — интересные задачи, современное железо, график на выбор и классное IT-комьюнити.

Встречаемся 28 июня в 10:30, а потом, вполне возможно, и за соседним рабочим столом в офисе! Зарегистрироваться! 👌
Руководитель направления маркетинговой аналитики в аккредитованную ИТ-компанию.

Компания рассматривает кандидатов только из Москвы (МО) и готовых к переезду.
З/п: обсуждается на интервью.
Формат работы: Гибрид, Офис(Москва).
Уровень позиции: Team Lead

🔷Задачи:
Масштаборование аудитории. Построение системы анализа каналов привлечения, которая покажет, куда инвестировать, чтобы слушателей становилось больше, а CAC — ниже;
Увелечение Retention. Поиск паттернов поведения самых лояльных пользователей и обучение маркетинга «копировать» их;
Внедрение data-driven культуры. Созданные дашборды и алерты станут для маркетинга таким же привычным инструментом, как креативы или таргетинг;
Развитие команды. Выведение на новый уровень аналитиков, которые смогут не только считать, но и влиять на стратегию.

🔷Обязательные требования:
Аналитика данных от 5 лет;
Управление командой от 2 лет;
Экспертность в маркетинге;
Использование Python для автоматизации процессов;
SQL;
Опыт в применении ML-моделей (прогнозирование LTV, кластеризация);
Работа в digital-продуктах или подписках.

Отклики ждем @fr_rec
2025/06/25 02:30:44
Back to Top
HTML Embed Code: