Forwarded from Bul IT
🔹 BD-1002 — Senior Data Engineer / ClickHouse
💼 Грейд: Senior
📍 Локация: РФ / РБ
🕒 Формат: фулл-тайм, удалёнка
🕘 Тайм-зона: МСК
📅 Старт: 30 июня
📆 Срок: от 3 месяцев с продлением
💰 Ставка: 280.000–350.000 ₽
📌 Проект
Крупный ритейл-проект — российская сеть розничных магазинов. Команда ищет сильного Data Engineer для оптимизации и работы с ClickHouse. Старт ASAP, задачи технически насыщенные и с хорошим бюджетом.
💻 Задачи
— Работа с ClickHouse: движки, сортировки, фильтры
— Оптимизация по скорости и памяти
— Агрегации, группировки, партиционирование
— Работа со словарями и большими объёмами данных
🔧 Технологии и требования
— ClickHouse (движки, партиции, словари, оптимизация)
— SQL, Python будет плюсом
— Опыт от 2 лет на позиции Data Engineer
— Уверенное владение инструментами анализа и трансформации данных
📎 Отличный шанс для инженеров, кто хочет копать глубоко в ClickHouse и заниматься реальной оптимизацией на бою.
💬 Пиши в лс @skeldafn с пометкой и кодом вакансии
📌 Код вакансии: BD-1002
#вакансии #dataengineer #clickhouse #bigdata #удалённо #fulltime #senior
💼 Грейд: Senior
📍 Локация: РФ / РБ
🕒 Формат: фулл-тайм, удалёнка
🕘 Тайм-зона: МСК
📅 Старт: 30 июня
📆 Срок: от 3 месяцев с продлением
💰 Ставка: 280.000–350.000 ₽
📌 Проект
Крупный ритейл-проект — российская сеть розничных магазинов. Команда ищет сильного Data Engineer для оптимизации и работы с ClickHouse. Старт ASAP, задачи технически насыщенные и с хорошим бюджетом.
💻 Задачи
— Работа с ClickHouse: движки, сортировки, фильтры
— Оптимизация по скорости и памяти
— Агрегации, группировки, партиционирование
— Работа со словарями и большими объёмами данных
🔧 Технологии и требования
— ClickHouse (движки, партиции, словари, оптимизация)
— SQL, Python будет плюсом
— Опыт от 2 лет на позиции Data Engineer
— Уверенное владение инструментами анализа и трансформации данных
📎 Отличный шанс для инженеров, кто хочет копать глубоко в ClickHouse и заниматься реальной оптимизацией на бою.
💬 Пиши в лс @skeldafn с пометкой и кодом вакансии
📌 Код вакансии: BD-1002
#вакансии #dataengineer #clickhouse #bigdata #удалённо #fulltime #senior
❤3😍1
Forwarded from Darya PepsiCo
Добрый день!
Подскажите можно ли опубликовать данную позицию?
Senior Data Engineer в E-commerce data tech команду PepsiCo
Data tech - молодая и быстро растущая команда, главный ИТ партнёр функции электронной коммерции во внедрении качественных data решений и развитии культуры управления данными для эффективного роста в онлайн-канале.
Функционал:
• Проектирование и разработка архитектуры и стандартов управления данными
• Разработка и внедрение процессов для поддержания качества данных (проверки, очистка и стандартизация)
• Оптимизация процессов загрузки, обработки и анализа для повышения скорости и эффективности бизнеса
• Взаимодействие с командами аналитиков, data science и коллегами из глобальной команды
Мы ждем:
• Опыт работы в области обработки данных и разработки ETL-пайплайнов.
• Глубокий опыт работы с Spark.
• Опыт работы c облачными платформами будет преимуществом: Microsoft Azure, Amazon Web Services (AWS), Google Cloud (GCP).
• Умение эффективно работать в кросс-функциональной команде.
• Желание развиваться и отслеживать тренды в области обработки данных.
График гибридный
Подробнее: ссылка на https://hh.ru/vacancy/120419563
Контакт для связи @Darya_PEP
Подскажите можно ли опубликовать данную позицию?
Senior Data Engineer в E-commerce data tech команду PepsiCo
Data tech - молодая и быстро растущая команда, главный ИТ партнёр функции электронной коммерции во внедрении качественных data решений и развитии культуры управления данными для эффективного роста в онлайн-канале.
Функционал:
• Проектирование и разработка архитектуры и стандартов управления данными
• Разработка и внедрение процессов для поддержания качества данных (проверки, очистка и стандартизация)
• Оптимизация процессов загрузки, обработки и анализа для повышения скорости и эффективности бизнеса
• Взаимодействие с командами аналитиков, data science и коллегами из глобальной команды
Мы ждем:
• Опыт работы в области обработки данных и разработки ETL-пайплайнов.
• Глубокий опыт работы с Spark.
• Опыт работы c облачными платформами будет преимуществом: Microsoft Azure, Amazon Web Services (AWS), Google Cloud (GCP).
• Умение эффективно работать в кросс-функциональной команде.
• Желание развиваться и отслеживать тренды в области обработки данных.
График гибридный
Подробнее: ссылка на https://hh.ru/vacancy/120419563
Контакт для связи @Darya_PEP
❤1
Forwarded from V.
• Мы активно развивающийся HFT-фонд с месячным объемом торгов свыше $1 млрд
• Мы работаем над открытием юридического лица с возможностью получения ВНЖ/резидентских виз в другой стране
• Планируем развитие других направлений: от mid freq до арбитража и портфельного управления как на крипте, так и на классических рынках. Поэтому, если вам интересны смежные направления - смело пишите, будем рады пообщаться
• Работать в команде под руководством ML-лида c огромным доказанным опытом в трейдинге
• Разрабатывать ML-модели для предсказания динамики изменения цен на ключевых биржах
• Поиск закономерностей в больших массивах данных, выявление неэффективностей на биржах для оптимизации стратегий
• Тестирование и валидация гипотез, выдвигаемых ML-лидом (уникальная возможность очень быстро перенять индустриальные фишки от эксперта)
• Студент старших курсов или недавний выпускник топовых вузов (Сколтех, МФТИ, МГУ, ВШЭ и пр.)
•Опыт работы в ML от 1 года Junior / 3-х лет (Middle) / 5-и лет (Senior).
• Сильная математическая подготовка с опытом программирования (в идеале промышленной разработки) на C++, Python
• Опыт работы с библиотеками ML: scikit-learn, TensorFlow, PyTorch, XGBoost.
• Будет плюсом на собеседовании:
- Опыт разработки сложных DL-моделей
- Наличие дополнительных курсов по Data Science (в идеале, ШАД)
- Успешное выступление на соревнованиях по ML/DS
- Успешное выступление на олимпиадах (математика, физика, программирование)
• Испытательный срок 3 месяца
• Доход от 3000 до 6000 $ (исходя из опыта и по результатам прохождения этапов интервью) + бонус по результатам работы компании (до 12 месячных окладов)
• Гибкий график с возможностью удаленного режима работы
• Работа в команде профессионалов с опытом в крупнейших российских и международных компаниях
• Готовы предложить % от выручки самым сильным и замотивированным кандидатам
• Оплата в крипте/USD/рублях/пр. в зависимости от предпочтений и итоговой локации
писать и присылать свои CV на @osivii
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Forwarded from AZ asisstants
Quantitative Researcher
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
❤1
Forwarded from KrivdaTheTriewe
Всем привет, мы в m2.ru расширяемся и ищем Data/DevOps инженера!
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.
Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).
Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).
По всем вопросам можно писать @vika_nkl
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.
Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).
Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).
По всем вопросам можно писать @vika_nkl
🔥4
Forwarded from Аделина Шумилова
Data Analyst (Trainee/ Junior )
Город: Москва (гибрид)
Обязанности:
— Выявлять потребности бизнеса и формализовать требования к витринам данных
— Исследовать источники данных, проектировать витрины и разрабатывать их прототипы
— Поддерживать внутреннюю базу знаний и проектировать структуру хранилища данных
— Настраивать процессы ETL и оптимизировать производительность хранилища
— Участвовать в кросс-командных проектах и развивать свои навыки в аналитике и инженерии данных
Требования:
— Учишься на последних курсах или окончил бакалавриат/магистратуру
— Знаешь SQL и умеешь работать с РСУБД
— Понимаешь теории построения хранилищ данных
— Владеешь одним из языков программирования (Python, Java), знаешь основы ООП, алгоритмов и структур данны
Мы предлагаем:
— Зарплату 80 000 рублей и ДМС с первого дня
— Возможность получить проекты в портфолио и оффер после стажировки
— Классный офис в центре Москвы
— Корпоративное обучение для развития hard и soft skills
Для отклика @alinklim
Город: Москва (гибрид)
Обязанности:
— Выявлять потребности бизнеса и формализовать требования к витринам данных
— Исследовать источники данных, проектировать витрины и разрабатывать их прототипы
— Поддерживать внутреннюю базу знаний и проектировать структуру хранилища данных
— Настраивать процессы ETL и оптимизировать производительность хранилища
— Участвовать в кросс-командных проектах и развивать свои навыки в аналитике и инженерии данных
Требования:
— Учишься на последних курсах или окончил бакалавриат/магистратуру
— Знаешь SQL и умеешь работать с РСУБД
— Понимаешь теории построения хранилищ данных
— Владеешь одним из языков программирования (Python, Java), знаешь основы ООП, алгоритмов и структур данны
Мы предлагаем:
— Зарплату 80 000 рублей и ДМС с первого дня
— Возможность получить проекты в портфолио и оффер после стажировки
— Классный офис в центре Москвы
— Корпоративное обучение для развития hard и soft skills
Для отклика @alinklim
❤2
Forwarded from Виктория
Позиция: Senior scoring developer / Старший разработчик моделей кредитного скоринга.
Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).
Занятость: полная.
ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).
Компания: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰
Почему ищем: в связи с ростом компании 📈
Ключевые навыки:
📌 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
📌 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
📌 Глубокие знания математической статистики и теории вероятностей;
📌 Опыт оптимизации методологии построения скоринговых моделей;
📌 Опыт работы с A/B-тестированием и анализом экспериментальных данных.
Над какими задачами предстоит работать:
🔺 Анализ источников данных и расширение модели данных по клиенту;
🔺 Разработка и оптимизация моделей кредитного скоринга;
🔺 Разработка и оптимизация методологии построения скоринговых моделей;
🔺 Развитие мониторинга действующих ML-моделей;
🔺 Подготовка документации по разработанным моделям;
🔺 Анализ моделей с точки зрения их экономической эффективности;
🔺 Участие в развитии компетенций и методологий команды моделирования;
🔺 Взаимодействие с IT-командами для реализации моделей в продуктиве.
Предлагаем:
🟢 Только официальное трудоустройство - по ТК РФ, белая зп;
🟢 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🟢 Трудоустройство в аккредитованную IT-компанию;
🟢 Ежегодную индексацию заработной платы;
🟢 Приобретение курсов для сотрудников;
🟢 Обеспечение рабочей техникой;
🟢 Оплачиваемые поездки на профильные конференции;
🟢 ДМС со стоматологией (по РФ).
Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻
Пишите в ТГ:
ТГ: @victory_russia
Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).
Занятость: полная.
ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).
Компания: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰
Почему ищем: в связи с ростом компании 📈
Ключевые навыки:
📌 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
📌 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
📌 Глубокие знания математической статистики и теории вероятностей;
📌 Опыт оптимизации методологии построения скоринговых моделей;
📌 Опыт работы с A/B-тестированием и анализом экспериментальных данных.
Над какими задачами предстоит работать:
🔺 Анализ источников данных и расширение модели данных по клиенту;
🔺 Разработка и оптимизация моделей кредитного скоринга;
🔺 Разработка и оптимизация методологии построения скоринговых моделей;
🔺 Развитие мониторинга действующих ML-моделей;
🔺 Подготовка документации по разработанным моделям;
🔺 Анализ моделей с точки зрения их экономической эффективности;
🔺 Участие в развитии компетенций и методологий команды моделирования;
🔺 Взаимодействие с IT-командами для реализации моделей в продуктиве.
Предлагаем:
🟢 Только официальное трудоустройство - по ТК РФ, белая зп;
🟢 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🟢 Трудоустройство в аккредитованную IT-компанию;
🟢 Ежегодную индексацию заработной платы;
🟢 Приобретение курсов для сотрудников;
🟢 Обеспечение рабочей техникой;
🟢 Оплачиваемые поездки на профильные конференции;
🟢 ДМС со стоматологией (по РФ).
Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻
Пишите в ТГ:
ТГ: @victory_russia
Forwarded from Анастасия Патрикеева
#вакансия #удаленка #фуллтайм
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
❤2
Forwarded from Bogdan Glebov
Привет, чат! Нахожусь в поиске DE к себе в команду.
Вакансия: Data Engineer (#de #middle #senior)
🏙️ https://ibcrealestate.ru
Формат работы: гибрид (Москва, м. Добрынинская/Павелецкая)
Подробнее про вакансию, задачи, пожелания к кандидатам и плюшки
Со всеми вопросами можно в личку (@BogdanGlebov)
О нашей компании
Мы - IBC Real Estate, лидирующая компания на рынке профессиональных консалтинговых услуг в сфере коммерческой недвижимости.
О нашем департаменте
Цель департамента - развитие цифровых сервисов, как для внутренних процессов, так и для предоставления клиентам Компании. Основа нашего подхода - Data driven, использование данных для принятия взвешенных и оперативных управленческих решений.
О команде анализа данных
Сегодня мы агрегируем данные из внешних и корпоративных систем в Хранилище, создаём регулярную отчётность и исследовательские продукты на его базе, оптимизируем бизнес-процессы, в т.ч. за счёт tg ботов.
У нас небольшая, но квалифицированная команда, функции регламентированы и распределены (SA/DE/BI).
Следующий шаг - создание ML-инструментов для предиктивной аналитики и автоматизации бизнес-процессов, на первых этапах на базе StreamLit, далее как часть основых ахритектурных решений.
Наш стек
🛢️ DWH - PostgreSQL, ClickHouse
📊 BI/Reporting/Monitoring - Power BI, Streamlit, DataLens
🎻 Оркестрация/ETL/ML - Airflow, Python, SQL
♾️ Deploy/Docs - GitLab, Docker, Openmetadata, Wiki.js
📎 Также пригодится опыт работы с linux, kafka, drawio, tg ботами, s3
Вакансия: Data Engineer (#de #middle #senior)
🏙️ https://ibcrealestate.ru
Формат работы: гибрид (Москва, м. Добрынинская/Павелецкая)
Подробнее про вакансию, задачи, пожелания к кандидатам и плюшки
Со всеми вопросами можно в личку (@BogdanGlebov)
О нашей компании
Мы - IBC Real Estate, лидирующая компания на рынке профессиональных консалтинговых услуг в сфере коммерческой недвижимости.
О нашем департаменте
Цель департамента - развитие цифровых сервисов, как для внутренних процессов, так и для предоставления клиентам Компании. Основа нашего подхода - Data driven, использование данных для принятия взвешенных и оперативных управленческих решений.
О команде анализа данных
Сегодня мы агрегируем данные из внешних и корпоративных систем в Хранилище, создаём регулярную отчётность и исследовательские продукты на его базе, оптимизируем бизнес-процессы, в т.ч. за счёт tg ботов.
У нас небольшая, но квалифицированная команда, функции регламентированы и распределены (SA/DE/BI).
Следующий шаг - создание ML-инструментов для предиктивной аналитики и автоматизации бизнес-процессов, на первых этапах на базе StreamLit, далее как часть основых ахритектурных решений.
Наш стек
🛢️ DWH - PostgreSQL, ClickHouse
📊 BI/Reporting/Monitoring - Power BI, Streamlit, DataLens
🎻 Оркестрация/ETL/ML - Airflow, Python, SQL
♾️ Deploy/Docs - GitLab, Docker, Openmetadata, Wiki.js
📎 Также пригодится опыт работы с linux, kafka, drawio, tg ботами, s3
ibcrealestate.ru
Консалтинговая компания IBC Real Estate
Консалтинговая компания IBC Real Estate, мы представляем широкий спектр услуг на рынке недвижимости. Обладаем международным опытом, высокой компетенцией. Звонит...
❤1
Forwarded from Anna Kolpak
Data Engineer
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
❤3
Forwarded from Sergey Ivanychev
#вакансия #job #vacancy #remote #fulltime #Spark #Python #ClickHouse
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Workable
Senior Data Engineer: Data Infrastructure - Constructor
About usConstructor is the next-generation platform for search and discovery in e-commerce, built to explicitly optimize for metrics like revenue, conversion rate, and profit. Our search engine is entirely invented in-house utilizing transformers and g...
❤10
Forwarded from Anton Solomonov
📊 Вакансия: Ищем аналитика в отдел по работе с ключевыми клиентами (e-commerce)
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
⚡1🔥1
Forwarded from Daryana Gudzenko
#вакансия #vacancy #job #senior #data #DB #DBA #database #engineer #architect #administrator #blockchain #crypto #fulltime #удаленка #Match_Systems
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
❤2⚡1
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия #Москва
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Forwarded from Bul IT
Ищу Database Administrator
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
❤1⚡1🔥1🤩1
Forwarded from Trino и CedrusData
Всем привет! В следующий четверг 26 июня мы проведем очередной онлайн-митап по lakehouse технологиям. В программе два доклада:
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
cedrusdata.timepad.ru
Lakehouse Meetup #4: аналитическая экосистема на основе Trino в Avito, архитектура и возможности CedrusData Catalog / События на…
Обсудим, как за последние два года Avito выстроил аналитическую экосистему вокруг Trino, и рассмотрим внутреннее устройство и возможности CedrusData Catalog — современного бесплатного каталога для lakehouse-платформ.
Митап организован компанией Querify Labs…
Митап организован компанией Querify Labs…
Forwarded from Oleg Ryabov
#вакансия #vacancy #ищу #job # DevOps#middle# senior #remote #удаленно#Hadoop#Hive#Spark
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
❤1
Ищу к себе в команду стажера
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
hh.ru
Вакансия Data Engineer - стажер в Москве, работа в компании РТЛабс
Зарплата: не указана. Москва. Требуемый опыт: 1–3 года. Полная. Дата публикации: 19.06.2025.
🤩5❤3⚡2
Forwarded from Даша
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
⚡6❤3