Telegram Web Link
Forwarded from AZ asisstants
Quantitative Researcher

📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$

📌О проекте:

Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках

Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем

❓️Кого мы ищем?

Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.

✅️Обязанности:

▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников

▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез

▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов

▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча

✅️Требования:

🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно

🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями

🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше

❌️Что мы НЕ рассматриваем:

– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности

➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)

✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде


❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
Forwarded from KrivdaTheTriewe
Всем привет, мы в m2.ru расширяемся и ищем Data/DevOps инженера!
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.

Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).

Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).

По всем вопросам можно писать @vika_nkl
Forwarded from Аделина Шумилова
Data Analyst (Trainee/ Junior )
Город: Москва (гибрид)

Обязанности:
— Выявлять потребности бизнеса и формализовать требования к витринам данных
— Исследовать источники данных, проектировать витрины и разрабатывать их прототипы
— Поддерживать внутреннюю базу знаний и проектировать структуру хранилища данных
— Настраивать процессы ETL и оптимизировать производительность хранилища
— Участвовать в кросс-командных проектах и развивать свои навыки в аналитике и инженерии данных

Требования:
— Учишься на последних курсах или окончил бакалавриат/магистратуру
— Знаешь SQL и умеешь работать с РСУБД
— Понимаешь теории построения хранилищ данных
— Владеешь одним из языков программирования (Python, Java), знаешь основы ООП, алгоритмов и структур данны

Мы предлагаем:

— Зарплату 80 000 рублей и ДМС с первого дня
— Возможность получить проекты в портфолио и оффер после стажировки
— Классный офис в центре Москвы
— Корпоративное обучение для развития hard и soft skills

Для отклика @alinklim
Forwarded from Виктория
Позиция: Senior scoring developer / Старший разработчик моделей кредитного скоринга.
Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).
Занятость: полная.
ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).

Компания: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰

Почему ищем: в связи с ростом компании 📈


Ключевые навыки:

📌 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
📌 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
📌 Глубокие знания математической статистики и теории вероятностей;
📌 Опыт оптимизации методологии построения скоринговых моделей;
📌 Опыт работы с A/B-тестированием и анализом экспериментальных данных.


Над какими задачами предстоит работать:

🔺 Анализ источников данных и расширение модели данных по клиенту;
🔺 Разработка и оптимизация моделей кредитного скоринга;
🔺 Разработка и оптимизация методологии построения скоринговых моделей;
🔺 Развитие мониторинга действующих ML-моделей;
🔺 Подготовка документации по разработанным моделям;
🔺 Анализ моделей с точки зрения их экономической эффективности;
🔺 Участие в развитии компетенций и методологий команды моделирования;
🔺 Взаимодействие с IT-командами для реализации моделей в продуктиве.


Предлагаем:

🟢 Только официальное трудоустройство - по ТК РФ, белая зп;
🟢 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🟢 Трудоустройство в аккредитованную IT-компанию;
🟢 Ежегодную индексацию заработной платы;
🟢 Приобретение курсов для сотрудников;
🟢 Обеспечение рабочей техникой;
🟢 Оплачиваемые поездки на профильные конференции;
🟢 ДМС со стоматологией (по РФ).

Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻


Пишите в ТГ:
ТГ: @victory_russia
Forwarded from Анастасия Патрикеева
#вакансия #удаленка #фуллтайм
Data Engineer

Требуемый опыт работы: 3–6 лет

Полная занятость, полный день

Привет! Меня зовут Анастасия и я HR компании "MIA Dev".

Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".

Чем предстоит заниматься:

Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных

Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ

Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
Forwarded from Bogdan Glebov
Привет, чат! Нахожусь в поиске DE к себе в команду.

Вакансия: Data Engineer (#de #middle #senior)
🏙️ https://ibcrealestate.ru
Формат работы: гибрид (Москва, м. Добрынинская/Павелецкая)

Подробнее про вакансию, задачи, пожелания к кандидатам и плюшки
Со всеми вопросами можно в личку (@BogdanGlebov)

О нашей компании
Мы - IBC Real Estate, лидирующая компания на рынке профессиональных консалтинговых услуг в сфере коммерческой недвижимости.

О нашем департаменте
Цель департамента - развитие цифровых сервисов, как для внутренних процессов, так и для предоставления клиентам Компании. Основа нашего подхода - Data driven, использование данных для принятия взвешенных и оперативных управленческих решений.

О команде анализа данных
Сегодня мы агрегируем данные из внешних и корпоративных систем в Хранилище, создаём регулярную отчётность и исследовательские продукты на его базе, оптимизируем бизнес-процессы, в т.ч. за счёт tg ботов.
У нас небольшая, но квалифицированная команда, функции регламентированы и распределены (SA/DE/BI).
Следующий шаг - создание ML-инструментов для предиктивной аналитики и автоматизации бизнес-процессов, на первых этапах на базе StreamLit, далее как часть основых ахритектурных решений.

Наш стек
🛢️ DWH - PostgreSQL, ClickHouse
📊 BI/Reporting/Monitoring - Power BI, Streamlit, DataLens
🎻 Оркестрация/ETL/ML - Airflow, Python, SQL
♾️ Deploy/Docs - GitLab, Docker, Openmetadata, Wiki.js
📎 Также пригодится опыт работы с linux, kafka, drawio, tg ботами, s3
Forwarded from Anna Kolpak
Data Engineer

Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид


Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.

Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).

Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.

Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.

Резюме присылать: @haas_mari
Forwarded from Sergey Ivanychev
#вакансия #job #vacancy #remote #fulltime #Spark #Python #ClickHouse

Вакансия: Senior Data Engineer (Data Infrastructure Team)

Компания: Constructor.io (~300 человек)

Финансы: 90 000–110 000 $ в год + опционы

Локация: полная удалёнка

О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.

О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.

Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.

Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице

Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Forwarded from Anton Solomonov
📊 Вакансия: Ищем аналитика в отдел по работе с ключевыми клиентами (e-commerce)
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross

В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.

Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж

Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде

Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross

📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
Forwarded from Daryana Gudzenko
#вакансия #vacancy #job #senior #data #DB #DBA #database #engineer #architect #administrator #blockchain #crypto #fulltime #удаленка #Match_Systems

Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)

Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.

Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.

Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей

Итоговый размер и формат компенсационного пакета обсуждается индивидуально.

Для связи : @daryana_bye
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия #Москва

Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")

О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.

Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.

Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)

Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python

Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)

Контакт: @AlexandraKononenko
Forwarded from Bul IT
Ищу Database Administrator

💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑‍💻 Компания: Cranch

💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости

💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
Занятость: фултайм
🧾 Оформление: через самозанятые/ИП

Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
Forwarded from Trino и CedrusData
Всем привет! В следующий четверг 26 июня мы проведем очередной онлайн-митап по lakehouse технологиям. В программе два доклада:

Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей

CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.

Регистрация: https://cedrusdata.timepad.ru/event/3426242/
Forwarded from Oleg Ryabov
#вакансия #vacancy #ищу #job # DevOps#middle# senior #remote #удаленно#Hadoop#Hive#Spark

Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.

О нас:
Мы —it  компания " Sotex", занимающаяся разработкой  озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer  преимущественно Middle+ уровня, для усиления команды проекта.

Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.

Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.

Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата:  обсуждается индивидуально.

Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!

Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в  WhatsApp  +79858527774
Forwarded from Kristina OZHEGOVA
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Даша
#data #dataengineer #engineer #вакансия

Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.

Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.

Чем будем заниматься:
*  загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:

* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.

Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.

Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.

А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)

резюме/cv можно приносить сюда: @da_mrv
Forwarded from Никита
Вакансия: Data Engineer Senior
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ


На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.

Обязанности:

- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)

Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:

- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).

- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).

Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum

📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Forwarded from Лиза Рузанова
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия

Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ

О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.

Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.

Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)

Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python

Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)

Контакт: @AlexandraKononenko
2025/06/27 01:56:10
Back to Top
HTML Embed Code: