Forwarded from AZ asisstants
Quantitative Researcher
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
Forwarded from KrivdaTheTriewe
Всем привет, мы в m2.ru расширяемся и ищем Data/DevOps инженера!
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.
Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).
Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).
По всем вопросам можно писать @vika_nkl
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.
Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).
Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).
По всем вопросам можно писать @vika_nkl
Forwarded from Аделина Шумилова
Data Analyst (Trainee/ Junior )
Город: Москва (гибрид)
Обязанности:
— Выявлять потребности бизнеса и формализовать требования к витринам данных
— Исследовать источники данных, проектировать витрины и разрабатывать их прототипы
— Поддерживать внутреннюю базу знаний и проектировать структуру хранилища данных
— Настраивать процессы ETL и оптимизировать производительность хранилища
— Участвовать в кросс-командных проектах и развивать свои навыки в аналитике и инженерии данных
Требования:
— Учишься на последних курсах или окончил бакалавриат/магистратуру
— Знаешь SQL и умеешь работать с РСУБД
— Понимаешь теории построения хранилищ данных
— Владеешь одним из языков программирования (Python, Java), знаешь основы ООП, алгоритмов и структур данны
Мы предлагаем:
— Зарплату 80 000 рублей и ДМС с первого дня
— Возможность получить проекты в портфолио и оффер после стажировки
— Классный офис в центре Москвы
— Корпоративное обучение для развития hard и soft skills
Для отклика @alinklim
Город: Москва (гибрид)
Обязанности:
— Выявлять потребности бизнеса и формализовать требования к витринам данных
— Исследовать источники данных, проектировать витрины и разрабатывать их прототипы
— Поддерживать внутреннюю базу знаний и проектировать структуру хранилища данных
— Настраивать процессы ETL и оптимизировать производительность хранилища
— Участвовать в кросс-командных проектах и развивать свои навыки в аналитике и инженерии данных
Требования:
— Учишься на последних курсах или окончил бакалавриат/магистратуру
— Знаешь SQL и умеешь работать с РСУБД
— Понимаешь теории построения хранилищ данных
— Владеешь одним из языков программирования (Python, Java), знаешь основы ООП, алгоритмов и структур данны
Мы предлагаем:
— Зарплату 80 000 рублей и ДМС с первого дня
— Возможность получить проекты в портфолио и оффер после стажировки
— Классный офис в центре Москвы
— Корпоративное обучение для развития hard и soft skills
Для отклика @alinklim
Forwarded from Виктория
Позиция: Senior scoring developer / Старший разработчик моделей кредитного скоринга.
Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).
Занятость: полная.
ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).
Компания: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰
Почему ищем: в связи с ростом компании 📈
Ключевые навыки:
📌 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
📌 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
📌 Глубокие знания математической статистики и теории вероятностей;
📌 Опыт оптимизации методологии построения скоринговых моделей;
📌 Опыт работы с A/B-тестированием и анализом экспериментальных данных.
Над какими задачами предстоит работать:
🔺 Анализ источников данных и расширение модели данных по клиенту;
🔺 Разработка и оптимизация моделей кредитного скоринга;
🔺 Разработка и оптимизация методологии построения скоринговых моделей;
🔺 Развитие мониторинга действующих ML-моделей;
🔺 Подготовка документации по разработанным моделям;
🔺 Анализ моделей с точки зрения их экономической эффективности;
🔺 Участие в развитии компетенций и методологий команды моделирования;
🔺 Взаимодействие с IT-командами для реализации моделей в продуктиве.
Предлагаем:
🟢 Только официальное трудоустройство - по ТК РФ, белая зп;
🟢 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🟢 Трудоустройство в аккредитованную IT-компанию;
🟢 Ежегодную индексацию заработной платы;
🟢 Приобретение курсов для сотрудников;
🟢 Обеспечение рабочей техникой;
🟢 Оплачиваемые поездки на профильные конференции;
🟢 ДМС со стоматологией (по РФ).
Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻
Пишите в ТГ:
ТГ: @victory_russia
Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).
Занятость: полная.
ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).
Компания: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰
Почему ищем: в связи с ростом компании 📈
Ключевые навыки:
📌 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
📌 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
📌 Глубокие знания математической статистики и теории вероятностей;
📌 Опыт оптимизации методологии построения скоринговых моделей;
📌 Опыт работы с A/B-тестированием и анализом экспериментальных данных.
Над какими задачами предстоит работать:
🔺 Анализ источников данных и расширение модели данных по клиенту;
🔺 Разработка и оптимизация моделей кредитного скоринга;
🔺 Разработка и оптимизация методологии построения скоринговых моделей;
🔺 Развитие мониторинга действующих ML-моделей;
🔺 Подготовка документации по разработанным моделям;
🔺 Анализ моделей с точки зрения их экономической эффективности;
🔺 Участие в развитии компетенций и методологий команды моделирования;
🔺 Взаимодействие с IT-командами для реализации моделей в продуктиве.
Предлагаем:
🟢 Только официальное трудоустройство - по ТК РФ, белая зп;
🟢 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🟢 Трудоустройство в аккредитованную IT-компанию;
🟢 Ежегодную индексацию заработной платы;
🟢 Приобретение курсов для сотрудников;
🟢 Обеспечение рабочей техникой;
🟢 Оплачиваемые поездки на профильные конференции;
🟢 ДМС со стоматологией (по РФ).
Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻
Пишите в ТГ:
ТГ: @victory_russia
Forwarded from Анастасия Патрикеева
#вакансия #удаленка #фуллтайм
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
Forwarded from Bogdan Glebov
Привет, чат! Нахожусь в поиске DE к себе в команду.
Вакансия: Data Engineer (#de #middle #senior)
🏙️ https://ibcrealestate.ru
Формат работы: гибрид (Москва, м. Добрынинская/Павелецкая)
Подробнее про вакансию, задачи, пожелания к кандидатам и плюшки
Со всеми вопросами можно в личку (@BogdanGlebov)
О нашей компании
Мы - IBC Real Estate, лидирующая компания на рынке профессиональных консалтинговых услуг в сфере коммерческой недвижимости.
О нашем департаменте
Цель департамента - развитие цифровых сервисов, как для внутренних процессов, так и для предоставления клиентам Компании. Основа нашего подхода - Data driven, использование данных для принятия взвешенных и оперативных управленческих решений.
О команде анализа данных
Сегодня мы агрегируем данные из внешних и корпоративных систем в Хранилище, создаём регулярную отчётность и исследовательские продукты на его базе, оптимизируем бизнес-процессы, в т.ч. за счёт tg ботов.
У нас небольшая, но квалифицированная команда, функции регламентированы и распределены (SA/DE/BI).
Следующий шаг - создание ML-инструментов для предиктивной аналитики и автоматизации бизнес-процессов, на первых этапах на базе StreamLit, далее как часть основых ахритектурных решений.
Наш стек
🛢️ DWH - PostgreSQL, ClickHouse
📊 BI/Reporting/Monitoring - Power BI, Streamlit, DataLens
🎻 Оркестрация/ETL/ML - Airflow, Python, SQL
♾️ Deploy/Docs - GitLab, Docker, Openmetadata, Wiki.js
📎 Также пригодится опыт работы с linux, kafka, drawio, tg ботами, s3
Вакансия: Data Engineer (#de #middle #senior)
🏙️ https://ibcrealestate.ru
Формат работы: гибрид (Москва, м. Добрынинская/Павелецкая)
Подробнее про вакансию, задачи, пожелания к кандидатам и плюшки
Со всеми вопросами можно в личку (@BogdanGlebov)
О нашей компании
Мы - IBC Real Estate, лидирующая компания на рынке профессиональных консалтинговых услуг в сфере коммерческой недвижимости.
О нашем департаменте
Цель департамента - развитие цифровых сервисов, как для внутренних процессов, так и для предоставления клиентам Компании. Основа нашего подхода - Data driven, использование данных для принятия взвешенных и оперативных управленческих решений.
О команде анализа данных
Сегодня мы агрегируем данные из внешних и корпоративных систем в Хранилище, создаём регулярную отчётность и исследовательские продукты на его базе, оптимизируем бизнес-процессы, в т.ч. за счёт tg ботов.
У нас небольшая, но квалифицированная команда, функции регламентированы и распределены (SA/DE/BI).
Следующий шаг - создание ML-инструментов для предиктивной аналитики и автоматизации бизнес-процессов, на первых этапах на базе StreamLit, далее как часть основых ахритектурных решений.
Наш стек
🛢️ DWH - PostgreSQL, ClickHouse
📊 BI/Reporting/Monitoring - Power BI, Streamlit, DataLens
🎻 Оркестрация/ETL/ML - Airflow, Python, SQL
♾️ Deploy/Docs - GitLab, Docker, Openmetadata, Wiki.js
📎 Также пригодится опыт работы с linux, kafka, drawio, tg ботами, s3
ibcrealestate.ru
Консалтинговая компания IBC Real Estate
Консалтинговая компания IBC Real Estate, мы представляем широкий спектр услуг на рынке недвижимости. Обладаем международным опытом, высокой компетенцией. Звонит...
Forwarded from Anna Kolpak
Data Engineer
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
Forwarded from Sergey Ivanychev
#вакансия #job #vacancy #remote #fulltime #Spark #Python #ClickHouse
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Workable
Senior Data Engineer: Data Infrastructure - Constructor
About usConstructor is the next-generation platform for search and discovery in e-commerce, built to explicitly optimize for metrics like revenue, conversion rate, and profit. Our search engine is entirely invented in-house utilizing transformers and g...
Forwarded from Anton Solomonov
📊 Вакансия: Ищем аналитика в отдел по работе с ключевыми клиентами (e-commerce)
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
Forwarded from Daryana Gudzenko
#вакансия #vacancy #job #senior #data #DB #DBA #database #engineer #architect #administrator #blockchain #crypto #fulltime #удаленка #Match_Systems
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия #Москва
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Forwarded from Bul IT
Ищу Database Administrator
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
Forwarded from Trino и CedrusData
Всем привет! В следующий четверг 26 июня мы проведем очередной онлайн-митап по lakehouse технологиям. В программе два доклада:
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
cedrusdata.timepad.ru
Lakehouse Meetup #4: аналитическая экосистема на основе Trino в Avito, архитектура и возможности CedrusData Catalog / События на…
Обсудим, как за последние два года Avito выстроил аналитическую экосистему вокруг Trino, и рассмотрим внутреннее устройство и возможности CedrusData Catalog — современного бесплатного каталога для lakehouse-платформ.
Митап организован компанией Querify Labs…
Митап организован компанией Querify Labs…
Forwarded from Oleg Ryabov
#вакансия #vacancy #ищу #job # DevOps#middle# senior #remote #удаленно#Hadoop#Hive#Spark
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
Ищу к себе в команду стажера
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
hh.ru
Вакансия Инженер по данным - стажер в Москве, работа в компании РТЛабс
Зарплата: не указана. Москва. Требуемый опыт: 1–3 года. Полная. Дата публикации: 19.06.2025.
Forwarded from Kristina OZHEGOVA
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Даша
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Forwarded from Никита
Вакансия: Data Engineer Senior
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Forwarded from Лиза Рузанова
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko