Forwarded from Nastya Smirnova
#vacancy #AI #ML #DL #NLP #lead #remote
Мы создаем технологии для коммуникаций, с помощью которых решаем разные задачи бизнеса, и сейчас мы ищем AI / ML Tech Lead.
Продукты:
1. Создание умных ботов без необходимости разбираться в ML;
2. Аудио-технология, распознающая попадание на голосового помощника в телефонном канале.
Стек:
Python, Go, SQL, transformers, pytorch/tensorfow, Triton Inference Server, REST/gRPC, MLFlow, Redis, docker-compose, Kubernetes.
Что нужно делать:
– Управлять продуктовой командой и прорабатывать фичи в технические задачи;
– Самостоятельно решать технические задачи совместно с инженерами;
– Дизайнить и валидировать эксперименты, принимать решения о выкатке оптимальной модели в прод;
– Автоматизировать дата-интенсивные пайплайны по обновлению моделей, бороться с data/concept drift
– Оптимизировать ML-решения под запросы бизнеса, строить каскады метрик.
Мы ожидаем, что вы:
– Уже имеете опыт работы тимлидом в продуктовом ML;
– Знакомы с актуальным стеком в DL NLP (pytorch / tf / transformers / LLM) и имеете опыт с audio processing;
– Плюсом будет опыт с Go;
– Понимаете, как ставить эксперименты и автоматизировать пайплайны (Airflow/DagsHub);
– Знаете принципы микросервисной архитектуры (все наши решения cloud-native).
Основные условия:
– Высокая зарплатная вилка + премии (обсудим лично на встрече);
– Удалёнка из любой точки мира;
– Выплаты в ₽ / € / $ — по договорённости.
По всем вопросам пишите @nastyanastyasm
Мы создаем технологии для коммуникаций, с помощью которых решаем разные задачи бизнеса, и сейчас мы ищем AI / ML Tech Lead.
Продукты:
1. Создание умных ботов без необходимости разбираться в ML;
2. Аудио-технология, распознающая попадание на голосового помощника в телефонном канале.
Стек:
Python, Go, SQL, transformers, pytorch/tensorfow, Triton Inference Server, REST/gRPC, MLFlow, Redis, docker-compose, Kubernetes.
Что нужно делать:
– Управлять продуктовой командой и прорабатывать фичи в технические задачи;
– Самостоятельно решать технические задачи совместно с инженерами;
– Дизайнить и валидировать эксперименты, принимать решения о выкатке оптимальной модели в прод;
– Автоматизировать дата-интенсивные пайплайны по обновлению моделей, бороться с data/concept drift
– Оптимизировать ML-решения под запросы бизнеса, строить каскады метрик.
Мы ожидаем, что вы:
– Уже имеете опыт работы тимлидом в продуктовом ML;
– Знакомы с актуальным стеком в DL NLP (pytorch / tf / transformers / LLM) и имеете опыт с audio processing;
– Плюсом будет опыт с Go;
– Понимаете, как ставить эксперименты и автоматизировать пайплайны (Airflow/DagsHub);
– Знаете принципы микросервисной архитектуры (все наши решения cloud-native).
Основные условия:
– Высокая зарплатная вилка + премии (обсудим лично на встрече);
– Удалёнка из любой точки мира;
– Выплаты в ₽ / € / $ — по договорённости.
По всем вопросам пишите @nastyanastyasm
Forwarded from Karina
Quantitative Researcher
📍Компания: Бонанза Крип
🌏Локация: удаленно
📌О проекте: Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем.
✔️Обязанности:
Ваша основная задача — находить и проверять идеи, которые лягут в основу торговых и инвестиционных стратегий команды.
1. Исследование криптовалютного рынка:
- Анализировать структуру и динамику криптовалютного рынка
- Отслеживать новые академические и индустриальные исследования трейдинговых инструментов, выявлять перспективные подходы в трейдинге и best practices.
2. Разработка и подбор признаков (feature engineering):
- Генерировать и структурировать наборы рыночных, фундаментальных и альтернативных данных.
- Создавать и тестировать новые фичи, формализуя экономически обоснованные гипотезы.
3. Оценка идей с помощью ML-метрик:
- Тестировать найденные гипотезы и фичи с помощью уже существующего бейзлайна для оценки стратегий.
- Находить и предлагать SOTA ML инструменты для генерации, построения моделей, анализа метрик.
✔️ Требования:
- Опыт работы от 3-х лет.
- Хорошее знание python, базовых ML-инструментов и его финансовой экосистемы - numpy, pandas, и др.
- Умение работать с графическими либами - matplotlib, seaborn, plotly (optional).
- Понимание рынка криптовалют и его особенностей.
- Английский B2+.
- Опыт в трейдинге, навыки работы с трейдинговыми индикаторами.
- Хорошая математическая и статистическая база.
- Умение самостоятельно строить флоу анализа и обработки данных, обосновывать свои решения.
- Понимание базовой архитектуры ML моделей.
✔️ Будет плюсом:
- Опыт работы в стартапе
- Понимание устройства нейросетей для tabular ML (LSTM, TabR и др.).
✔️Условия:
- Полная занятость, удаленная работа.
- Гибкий график.
- Работа в часовом поясе UTC+0 ±3 часа (для удобства коммуникации в команде).
- Конкурентная зарплата, оплата в USDT или по договоренности
Отклики: https://forms.fillout.com/t/mnz5sDPNhSus
📍Компания: Бонанза Крип
🌏Локация: удаленно
📌О проекте: Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем.
✔️Обязанности:
Ваша основная задача — находить и проверять идеи, которые лягут в основу торговых и инвестиционных стратегий команды.
1. Исследование криптовалютного рынка:
- Анализировать структуру и динамику криптовалютного рынка
- Отслеживать новые академические и индустриальные исследования трейдинговых инструментов, выявлять перспективные подходы в трейдинге и best practices.
2. Разработка и подбор признаков (feature engineering):
- Генерировать и структурировать наборы рыночных, фундаментальных и альтернативных данных.
- Создавать и тестировать новые фичи, формализуя экономически обоснованные гипотезы.
3. Оценка идей с помощью ML-метрик:
- Тестировать найденные гипотезы и фичи с помощью уже существующего бейзлайна для оценки стратегий.
- Находить и предлагать SOTA ML инструменты для генерации, построения моделей, анализа метрик.
✔️ Требования:
- Опыт работы от 3-х лет.
- Хорошее знание python, базовых ML-инструментов и его финансовой экосистемы - numpy, pandas, и др.
- Умение работать с графическими либами - matplotlib, seaborn, plotly (optional).
- Понимание рынка криптовалют и его особенностей.
- Английский B2+.
- Опыт в трейдинге, навыки работы с трейдинговыми индикаторами.
- Хорошая математическая и статистическая база.
- Умение самостоятельно строить флоу анализа и обработки данных, обосновывать свои решения.
- Понимание базовой архитектуры ML моделей.
✔️ Будет плюсом:
- Опыт работы в стартапе
- Понимание устройства нейросетей для tabular ML (LSTM, TabR и др.).
✔️Условия:
- Полная занятость, удаленная работа.
- Гибкий график.
- Работа в часовом поясе UTC+0 ±3 часа (для удобства коммуникации в команде).
- Конкурентная зарплата, оплата в USDT или по договоренности
Отклики: https://forms.fillout.com/t/mnz5sDPNhSus
Отклики
Made with Fillout, the best way to make forms, surveys and quizzes your audience will answer.
Forwarded from Kristina Lao-Olivares
#job #гибрид #вакансия #vacancy #полнаязанятость
#middle #DBA #postgresql #mssql
Middle DBA (PostgreSQL)🙂
✅ Компания:
КА LOK ищет DBA к крупную федеральную розничную сеть магазинов одежды
✅ Вилка зп: 210.000-230.000 руб. на руки
✅ Локация: Гибридный график в городах: Москва, Санкт-Петербург, Ростов-на-Дону, Екатеринбург, Самара, Новосибирск
✅ Занятость: Полная 5/2, гибридный график
✅ Вам предстоит:
-Развитие и администрирование PostgreSQL, а также работа с MSSQL. Постепенно нагрузка на MSSQL будет снижаться в пользу PostgreSQL;
-Автоматизация задач администрирования СУБД, в том числе помощь DevOps в настройке CI/CD, разворачивании PostgreSQL, и автоматизации обновлений;
-Безопасность и надежность: Обеспечение безопасности СУБД, резервное копирование и восстановление, настройка кластеров и систем высокой доступности.
-Мониторинг, анализ и оптимизация производительности СУБД, устранение узких мест, предоставление рекомендаций по улучшению SQL-запросов.
-Решение инцидентов, разработка и поддержка инструментов автоматизации, написание технической документации.
✅ Мы ожидаем что у Вас есть опыт:
-Опыт работы DBA (MSSQL или PostgreSQL) от 3 лет;
✅ Мы предлагаем:
-Оформление по ТК в аккредитованную ИТ-компанию
-ДМС
📱 Жду резюме в личные сообщения 🙂:
@kriskrisych (Кристина)
#middle #DBA #postgresql #mssql
Middle DBA (PostgreSQL)🙂
КА LOK ищет DBA к крупную федеральную розничную сеть магазинов одежды
-Развитие и администрирование PostgreSQL, а также работа с MSSQL. Постепенно нагрузка на MSSQL будет снижаться в пользу PostgreSQL;
-Автоматизация задач администрирования СУБД, в том числе помощь DevOps в настройке CI/CD, разворачивании PostgreSQL, и автоматизации обновлений;
-Безопасность и надежность: Обеспечение безопасности СУБД, резервное копирование и восстановление, настройка кластеров и систем высокой доступности.
-Мониторинг, анализ и оптимизация производительности СУБД, устранение узких мест, предоставление рекомендаций по улучшению SQL-запросов.
-Решение инцидентов, разработка и поддержка инструментов автоматизации, написание технической документации.
-Опыт работы DBA (MSSQL или PostgreSQL) от 3 лет;
-Оформление по ТК в аккредитованную ИТ-компанию
-ДМС
@kriskrisych (Кристина)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Яна Позняк
#вакансия #аналитик #Product #Productanalyst #Senior #AB #remote #удаленно #fulltime #весьмир
Senior продуктовый аналитик
Ищем senior продуктовых аналитиков в Точку. Мы — финтех-компания, создаём онлайн-банк и другие сервисы для предпринимателей и предприятий. Ими пользуются более 700 000 клиентов, а создают больше 4 500 сотрудников в России и за границей.
📍До 550 000 ₽, удалёнка по всему миру
В Точке можно работать по-своему. Никто не будет навязывать свои методы, трекать время и контролировать каждое действие. Ты будешь услышан и сможешь влиять на процессы и стек.
Сейчас мы ищем аналитиков сразу в три команды — ты можешь выбрать ту, которая тебе ближе: Тарифы, Нетворк или Продукт для взрослого бизнеса.
Больше о задачах и условиях на сайте
Вопросы по вакансиям можно задать @iana_tochka
Senior продуктовый аналитик
Ищем senior продуктовых аналитиков в Точку. Мы — финтех-компания, создаём онлайн-банк и другие сервисы для предпринимателей и предприятий. Ими пользуются более 700 000 клиентов, а создают больше 4 500 сотрудников в России и за границей.
📍До 550 000 ₽, удалёнка по всему миру
В Точке можно работать по-своему. Никто не будет навязывать свои методы, трекать время и контролировать каждое действие. Ты будешь услышан и сможешь влиять на процессы и стек.
Сейчас мы ищем аналитиков сразу в три команды — ты можешь выбрать ту, которая тебе ближе: Тарифы, Нетворк или Продукт для взрослого бизнеса.
Больше о задачах и условиях на сайте
Вопросы по вакансиям можно задать @iana_tochka
Forwarded from Алексей
Вакансия Data Engineer
На проекты Сбера требуется мидл / senior data engineer.
Оформление через компанию подрядчик (компания подрядчик будет определена по итогам процедуры закупок).
Формат: Москва офис (в перспективе возможно будет гибрид)
Вилка от 200 до 480k
Обязанности:
- Разработка пайплайнов для обработки данных;
- Создание витрин, маппингов для данных;
- Обследование и профилирование банковских источников данных, исследование моделей данных источников;
- Валидация и проверка качества данных, поиск проблем в данных;
- Участие в создании архитектуры;
- Участие во встречах со своей и смежными командами. Обсуждение и предложение способов реализации текущих проектов.
Требования:
- Опыт и хорошие навыки программирования на python;
- Хорошие знания SQL (оконные функции, сложные запросы, оптимизация запросов);
- Знание инструментов экосистемы Hadoop: Hive, Spark и др;
- Общие знание по работе с РСУБД и хранилищами (нормальные формы, звёзды/снежинки).
Опциональные требования:
- Знание концепций проектирования хранилищ данных (DWH, Data Lake) - кимбал/инмон, dv/anchor, лямбда/каппа, SCD, слои, полная/инкрементальная загрузки;
- Понимание работы индексов в БД, триггеров, транзакций.
Условия и соц пакет:
- Стандартный набор + гибкие условие труда и рабочего дня.
- Заботимся о развитии сотрудников. Возможность профессионального роста, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Формат работы - офис в Мск (в перспективе возможно будет гибрид)
Контакт для связи и резюме @alexei_nnn
На проекты Сбера требуется мидл / senior data engineer.
Оформление через компанию подрядчик (компания подрядчик будет определена по итогам процедуры закупок).
Формат: Москва офис (в перспективе возможно будет гибрид)
Вилка от 200 до 480k
Обязанности:
- Разработка пайплайнов для обработки данных;
- Создание витрин, маппингов для данных;
- Обследование и профилирование банковских источников данных, исследование моделей данных источников;
- Валидация и проверка качества данных, поиск проблем в данных;
- Участие в создании архитектуры;
- Участие во встречах со своей и смежными командами. Обсуждение и предложение способов реализации текущих проектов.
Требования:
- Опыт и хорошие навыки программирования на python;
- Хорошие знания SQL (оконные функции, сложные запросы, оптимизация запросов);
- Знание инструментов экосистемы Hadoop: Hive, Spark и др;
- Общие знание по работе с РСУБД и хранилищами (нормальные формы, звёзды/снежинки).
Опциональные требования:
- Знание концепций проектирования хранилищ данных (DWH, Data Lake) - кимбал/инмон, dv/anchor, лямбда/каппа, SCD, слои, полная/инкрементальная загрузки;
- Понимание работы индексов в БД, триггеров, транзакций.
Условия и соц пакет:
- Стандартный набор + гибкие условие труда и рабочего дня.
- Заботимся о развитии сотрудников. Возможность профессионального роста, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Формат работы - офис в Мск (в перспективе возможно будет гибрид)
Контакт для связи и резюме @alexei_nnn
Forwarded from Криптонит. Разработка, наука, шифрование
«Криптонит» приглашает на Spark-митап в Москве 29 мая!
Приглашаем на наш Spark-митап: обсудим кейсы, практики применения и тренды развития!
🟢 Когда и где пройдёт?
29 мая в 18:30 в Музее криптографии
🟢 Кому Spark Meetup полезен?
🔹 инженерам данных и аналитикам данных
🔹 программистам со знанием Spark и Scala
🔹 всем смежным специальностям из телекома, банков, промышленности и ретейла
🟢 Кто будет выступать с докладами?
Эксперты из «Криптонита», Positive Technologies и М2. Программу можно посмотреть тут
🟢 Как зарегистрироваться?
Вот по этой ссылке
🟢 Будет ли трансляция?
Обязательно будет. Ссылку разместим позже на странице мероприятия — поэтому советуем зарегистрироваться на оффлайн-встречу, даже если вы не сможете прийти. Так вы точно не потеряете ссылку на онлайн
🟢 Нужно что-то платить?
Нет, митап бесплатный — ждём всех неравнодушных к программированию на Spark!
Зарегистрироваться
Приглашаем на наш Spark-митап: обсудим кейсы, практики применения и тренды развития!
29 мая в 18:30 в Музее криптографии
Эксперты из «Криптонита», Positive Technologies и М2. Программу можно посмотреть тут
Вот по этой ссылке
Обязательно будет. Ссылку разместим позже на странице мероприятия — поэтому советуем зарегистрироваться на оффлайн-встречу, даже если вы не сможете прийти. Так вы точно не потеряете ссылку на онлайн
Нет, митап бесплатный — ждём всех неравнодушных к программированию на Spark!
Зарегистрироваться
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ольга Осипова
#Вакансия #job #Аналитик #Remote #Data #SQL #Python
🔎 Вакансия: Product Data Analyst (SQL + Python)
💰 ЗП: 3000-3500$ (до вычета)
🌍 Формат: Full time, удаленно из любой точки мира
📍 Локация компании: Сербия
📌Компания CyberYozh - разработка ПО, обучающих материалов и решений для защиты данных в сети
📋 Основные задачи:
- Анализировать данные проектов для выявления ключевых показателей и трендов
- Настраивать систему получения и обработки данных (SQL, API)
- Выявлять аномалии и готовить аналитические отчёты
- Работать с дашбордами (Looker Studio, GA, Яндекс Метрика)
- Проверять гипотезы и A/B-тесты
🛠 Требования:
- Опыт написания оптимизированных SQL-запросов (PostgreSQL, MySQL)
- Владение Python для анализа данных (pandas, numpy) и автоматизации процессов
- Опыт работы с API и автоматизацией отчётности
- Навыки настройки аналитических систем и построения дашбордов
- Умение работать с метриками, когортами, retention, LTV
🎯 Мы предлагаем:
- Гибкий график и удаленную работу из любой точки мира
- Долгосрочный проект и своевременные выплаты.
- 28 дней оплачиваемого отпуска.
- Минимум бюрократии.
- Регулярные performance review с возможностью роста з/п.
- Сильная команда и здоровая рабочая атмосфера.
📩 Контакт для связи: @hr_olga_osipova
🔎 Вакансия: Product Data Analyst (SQL + Python)
💰 ЗП: 3000-3500$ (до вычета)
🌍 Формат: Full time, удаленно из любой точки мира
📍 Локация компании: Сербия
📌Компания CyberYozh - разработка ПО, обучающих материалов и решений для защиты данных в сети
📋 Основные задачи:
- Анализировать данные проектов для выявления ключевых показателей и трендов
- Настраивать систему получения и обработки данных (SQL, API)
- Выявлять аномалии и готовить аналитические отчёты
- Работать с дашбордами (Looker Studio, GA, Яндекс Метрика)
- Проверять гипотезы и A/B-тесты
🛠 Требования:
- Опыт написания оптимизированных SQL-запросов (PostgreSQL, MySQL)
- Владение Python для анализа данных (pandas, numpy) и автоматизации процессов
- Опыт работы с API и автоматизацией отчётности
- Навыки настройки аналитических систем и построения дашбордов
- Умение работать с метриками, когортами, retention, LTV
🎯 Мы предлагаем:
- Гибкий график и удаленную работу из любой точки мира
- Долгосрочный проект и своевременные выплаты.
- 28 дней оплачиваемого отпуска.
- Минимум бюрократии.
- Регулярные performance review с возможностью роста з/п.
- Сильная команда и здоровая рабочая атмосфера.
📩 Контакт для связи: @hr_olga_osipova
Forwarded from Darya Mardan
#вакансия #vacancy #job #senior #hybrid #poland #warsaw #bigdataengineer
Vacancy: Big Data Engineer
Location: Poland
Format: Hybrid
Type of Contract: B2B
Salary: 8000$ gross
Orca Security is a leading cloud infrastructure security platform. If you like working with cutting-edge tech and solving real security challenges, this might be your perfect match!
Key Responsibilities:
- Design, develop, and maintain scalable and robust data pipelines for processing large datasets
- Optimize ETL/ELT workflows to ensure high performance, scalability, and efficiency
- Work with structured and unstructured data from multiple sources (e.g., logs, events, databases, APIs, and streams)
Requirements:
- 5+ years of experience in designing and developing data pipelines for big data processing
- Expertise in Python, Scala, or Java for data engineering tasks
- Proficiency with big data technologies like Apache Spark, Flink, Kafka, or Hadoop
- Experience with stream processing frameworks (Kafka Streams, Apache Flink, or Spark Streaming)
- Experience working with cloud platforms such as AWS, GCP, or Azure (e.g., S3, Athena, Redshift, BigQuery, Databricks)
More information on our website.
📩 For inquiries, contact me on Telegram: @seele_99
Vacancy: Big Data Engineer
Location: Poland
Format: Hybrid
Type of Contract: B2B
Salary: 8000$ gross
Orca Security is a leading cloud infrastructure security platform. If you like working with cutting-edge tech and solving real security challenges, this might be your perfect match!
Key Responsibilities:
- Design, develop, and maintain scalable and robust data pipelines for processing large datasets
- Optimize ETL/ELT workflows to ensure high performance, scalability, and efficiency
- Work with structured and unstructured data from multiple sources (e.g., logs, events, databases, APIs, and streams)
Requirements:
- 5+ years of experience in designing and developing data pipelines for big data processing
- Expertise in Python, Scala, or Java for data engineering tasks
- Proficiency with big data technologies like Apache Spark, Flink, Kafka, or Hadoop
- Experience with stream processing frameworks (Kafka Streams, Apache Flink, or Spark Streaming)
- Experience working with cloud platforms such as AWS, GCP, or Azure (e.g., S3, Athena, Redshift, BigQuery, Databricks)
More information on our website.
📩 For inquiries, contact me on Telegram: @seele_99
Telegram
Darya Mardan
Insta: mardandarya
Forwarded from Bul
📊 Power BI Developer (Middle/Senior)
📍 Удалёнка | Фуллтайм
💰 Ставка от 200–250 тыс.₽ (вилка обсуждается)
Нужен тот, кто:
✅ Строил дашборды на Power BI с нуля
✅ Работал с DAX, Power Query, SQL (в том числе объединения/агрегации)
✅ Понимает Data Quality и бизнес-задачи (не просто визуалка ради визуалки)
Будет плюсом:
➕ Опыт с Azure, RLS, CI/CD
➕ Участие в внедрении BI-решений в больших компаниях
📩 Пиши: @skeldafn
📍 Удалёнка | Фуллтайм
💰 Ставка от 200–250 тыс.₽ (вилка обсуждается)
Нужен тот, кто:
✅ Строил дашборды на Power BI с нуля
✅ Работал с DAX, Power Query, SQL (в том числе объединения/агрегации)
✅ Понимает Data Quality и бизнес-задачи (не просто визуалка ради визуалки)
Будет плюсом:
➕ Опыт с Azure, RLS, CI/CD
➕ Участие в внедрении BI-решений в больших компаниях
📩 Пиши: @skeldafn
Forwarded from Kristina OZHEGOVA
Запускаем карьеру тестировщика онлайн в «Открытых школах» Т1
✉️ Отправьте заявку до 19 мая!
На бесплатном интенсиве вы: изучите теорию, разработаете сценарии функционального и интеграционного тестирования, погрузитесь в клиент-серверную и микросервисную архитектуру.
Почему нужно участвовать:
🔘 подготовка к стажировке и практика на реальных кейсах — по четыре часа в неделю онлайн;
🔘 шанс остаться в команде Т1 и работать над крутыми проектами из любого города страны;
🔘 знакомство с процессом найма и оформление резюме для успешного прохождения интервью;
🔘 погружение в бигтех — узнаете, как устроена одна из крупнейших компаний отрасли.
👥 Успейте зарегистрироваться до 19 мая: https://clck.ru/3M6V6f
На бесплатном интенсиве вы: изучите теорию, разработаете сценарии функционального и интеграционного тестирования, погрузитесь в клиент-серверную и микросервисную архитектуру.
Почему нужно участвовать:
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Liz Kostina
Enfint is seeking a Senior Data Engineer #vacancy #вакансия
🗺 Dubai (ON-SITE, FULL-TIME!!!)
Important
• ONSITE Position in Dubai (4 days per week work from office)
• Strong command of English language (both verbal and written)
Essential Qualifications
• 5+ years of previous commercial experience as a leader in a data-driven role
• 2+ years of hands-on experience building data pipelines in production and ability to work across structured, semi-structured and unstructured data
• 2+ years of experience in ML pipeline for streaming/batch workflow
Essential Knowledge & Skills
• Ability to write clean, maintainable, and robust code in Python
• Understanding and expertise of software engineering concepts and best practices
• Knowledge of testing frameworks and libraries
• Experience with analytics (descriptive, predictive, EDA), feature engineer, algorithms, anomaly detection, data quality assessment and python visualization libraries - e.g. matplotlib, seaborn or other
• Comfortable with notebook and source code development - Jupyter, Pycharm/VScode
• Hands-on experience of technologies like Python, Spark/Pyspark, Hadoop/MapReduce/HIVE, Pandas etc.
• Familiarity with query languages and database technologies, CI/CD, testing and validation of data and software
• Tech stack and activities that you would use and preform on a daily basis:
o Python
o Spark (PySpark)
o Jupyter
o SQL and No-SQL DBMS
o Git (as source code versioning and CI/CD)
o Exploratory Data Analysis (EDA)
o Imputation Techniques,
o Data Linking / Cleansing
o Feature Engineering
o Apache Airflow/ Genkins scheduling and automation
Nice to have
• Fluent in Russian
Benefits
• Opportunity to work on cutting-edge technologies in a highly innovative environment
• Dynamic and friendly work environment
• Company assistance with relocation expenses (if needed)
• Сomfortable office in the convenient location (Dubai)
• Medical insurance
If interested, please send your CV to:
https://www.tg-me.com/Liz_Kostina
Important
• ONSITE Position in Dubai (4 days per week work from office)
• Strong command of English language (both verbal and written)
Essential Qualifications
• 5+ years of previous commercial experience as a leader in a data-driven role
• 2+ years of hands-on experience building data pipelines in production and ability to work across structured, semi-structured and unstructured data
• 2+ years of experience in ML pipeline for streaming/batch workflow
Essential Knowledge & Skills
• Ability to write clean, maintainable, and robust code in Python
• Understanding and expertise of software engineering concepts and best practices
• Knowledge of testing frameworks and libraries
• Experience with analytics (descriptive, predictive, EDA), feature engineer, algorithms, anomaly detection, data quality assessment and python visualization libraries - e.g. matplotlib, seaborn or other
• Comfortable with notebook and source code development - Jupyter, Pycharm/VScode
• Hands-on experience of technologies like Python, Spark/Pyspark, Hadoop/MapReduce/HIVE, Pandas etc.
• Familiarity with query languages and database technologies, CI/CD, testing and validation of data and software
• Tech stack and activities that you would use and preform on a daily basis:
o Python
o Spark (PySpark)
o Jupyter
o SQL and No-SQL DBMS
o Git (as source code versioning and CI/CD)
o Exploratory Data Analysis (EDA)
o Imputation Techniques,
o Data Linking / Cleansing
o Feature Engineering
o Apache Airflow/ Genkins scheduling and automation
Nice to have
• Fluent in Russian
Benefits
• Opportunity to work on cutting-edge technologies in a highly innovative environment
• Dynamic and friendly work environment
• Company assistance with relocation expenses (if needed)
• Сomfortable office in the convenient location (Dubai)
• Medical insurance
If interested, please send your CV to:
https://www.tg-me.com/Liz_Kostina
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Liz Kostina
Enfint Business Development Team‼️WE DON'T WORK WITH HIRING AGENCIES‼️
Forwarded from Алина
Ищем Data Engineer с опытом построения финансовой и/или казначейской отчётности.
Проект в направлении казначейства: расчёт фондирования банковских продуктов, работа с источниками данных, документацией и отчётностью.
📌 Что предстоит делать:
— Внедрение алгоритмов фондирования (самостоятельно и через постановку задач)
— SQL-реализация расчётов
— Интеграция новых источников данных
— Документирование бизнес-логики и сопровождение решений до продакшена
🛠 Что важно:
— Опыт в роли дата-инженера от 3 лет
— Обязателен опыт в финансах или казначействе
— Отличное знание SQL
— Опыт написания процедур и DAG'ов
— Навыки тестирования и работы с документацией
💼 Оформление: в штат IT-компании Outlines Tech
📍 Формат: удалённо по РФ
💰 До 365 000 ₽ gross
🎁 ДМС, отгулы, компенсация обучения и подписок
Пишите в личку, если интересно или знаете подходящего кандидата — @linnnnnnnna 😊
Проект в направлении казначейства: расчёт фондирования банковских продуктов, работа с источниками данных, документацией и отчётностью.
📌 Что предстоит делать:
— Внедрение алгоритмов фондирования (самостоятельно и через постановку задач)
— SQL-реализация расчётов
— Интеграция новых источников данных
— Документирование бизнес-логики и сопровождение решений до продакшена
🛠 Что важно:
— Опыт в роли дата-инженера от 3 лет
— Обязателен опыт в финансах или казначействе
— Отличное знание SQL
— Опыт написания процедур и DAG'ов
— Навыки тестирования и работы с документацией
💼 Оформление: в штат IT-компании Outlines Tech
📍 Формат: удалённо по РФ
💰 До 365 000 ₽ gross
🎁 ДМС, отгулы, компенсация обучения и подписок
Пишите в личку, если интересно или знаете подходящего кандидата — @linnnnnnnna 😊
Forwarded from Svetlana Nefedova
Мы ищем талантливого Data Engineer, который поможет нам обрабатывать и анализировать данные, чтобы улучшить наши выставочные мероприятия и бизнес-процессы.
Обязанности
• Разработка и поддержка архитектуры данных для обработки больших объемов информации.
• Создание и оптимизация ETL-процессов для интеграции данных из различных источников.
• Обеспечение качества данных и их доступности для аналитических команд.
• Внедрение и поддержка инструментов для мониторинга и управления данными.
• Сотрудничество с командами аналитиков и разработчиков для улучшения бизнес-процессов.
Требования
• Опыт работы от 3 до 6 лет в области обработки данных.
• Знание языков программирования Python или Java.
• Опыт работы с системами управления базами данных (SQL, NoSQL).
• Понимание принципов построения ETL-процессов и работы с большими данными.
• Умение работать в команде и эффективно коммуницировать с коллегами.
• Разговорный Английский язык - не ниже уровня B2.
Что мы предлагаем:
• Стабильная работа в компании с 30-летней историей.
• Работа в команде профессионалов, которые всегда поддержат.
• Использование передовых международных и российских практик.
• Гибридный формат работы, гибкое начало дня.
• Постоянные тренинги, выстроенная система адаптации и наставничества.
• Активная корпоративная жизнь.
• Конкурентный уровень заработной платы.
• ДМС со стоматологией и психологической поддержкой, страхование жизни и выездов за рубеж.
• 100% оплачиваемый больничный (до 14 дней).
• Корпоративные курсы английского и китайского языков. Отликаться: [email protected]
Обязанности
• Разработка и поддержка архитектуры данных для обработки больших объемов информации.
• Создание и оптимизация ETL-процессов для интеграции данных из различных источников.
• Обеспечение качества данных и их доступности для аналитических команд.
• Внедрение и поддержка инструментов для мониторинга и управления данными.
• Сотрудничество с командами аналитиков и разработчиков для улучшения бизнес-процессов.
Требования
• Опыт работы от 3 до 6 лет в области обработки данных.
• Знание языков программирования Python или Java.
• Опыт работы с системами управления базами данных (SQL, NoSQL).
• Понимание принципов построения ETL-процессов и работы с большими данными.
• Умение работать в команде и эффективно коммуницировать с коллегами.
• Разговорный Английский язык - не ниже уровня B2.
Что мы предлагаем:
• Стабильная работа в компании с 30-летней историей.
• Работа в команде профессионалов, которые всегда поддержат.
• Использование передовых международных и российских практик.
• Гибридный формат работы, гибкое начало дня.
• Постоянные тренинги, выстроенная система адаптации и наставничества.
• Активная корпоративная жизнь.
• Конкурентный уровень заработной платы.
• ДМС со стоматологией и психологической поддержкой, страхование жизни и выездов за рубеж.
• 100% оплачиваемый больничный (до 14 дней).
• Корпоративные курсы английского и китайского языков. Отликаться: [email protected]
Forwarded from Bul
Приветствую, можете опубликовать еще одну вакансию?
🧠 Data-инженер (Middle+/Senior)
Проект: разработка витрин данных (EDW) для перехода на целевые источники
⏱ Загрузка: полная, фуллтайм
🌍 Локация: любая
🛂 Гражданство: любое
🕰 Тайм-зона: МСК
💸 Ставка: от 200 до 250 тыс. руб/мес на руки (зависит от грейда и локации)
📌 Задачи:
— Разработка и доработка кода аналитического хранилища данных
— Создание и сопровождение документации, стандартизация подходов
— Настройка процессов релизов и обновлений
— Оптимизация SQL-запросов и структуры БД
— Code review коллег и устранение ошибок
— Соблюдение сроков и оперативное реагирование на инциденты
✅ Требования:
— 3+ года в роли Data Engineer
— Опыт разработки ELT-процессов
— Глубокое знание SQL и одного из PL (PL/SQL, PL/pgSQL и т.п.)
— Опыт работы с Git (GitLab/Bitbucket)
— Опыт с реляционными БД (Postgres, Oracle, MySQL и др.)
— Опыт с распределёнными СУБД (Hadoop, Greenplum)
— Понимание HDFS и форматов хранения
— Базовые знания Java, Groovy, Python
📩 Заинтересовало? Жду ваше резюме в личке — @skeldafn
🧠 Data-инженер (Middle+/Senior)
Проект: разработка витрин данных (EDW) для перехода на целевые источники
⏱ Загрузка: полная, фуллтайм
🌍 Локация: любая
🛂 Гражданство: любое
🕰 Тайм-зона: МСК
💸 Ставка: от 200 до 250 тыс. руб/мес на руки (зависит от грейда и локации)
📌 Задачи:
— Разработка и доработка кода аналитического хранилища данных
— Создание и сопровождение документации, стандартизация подходов
— Настройка процессов релизов и обновлений
— Оптимизация SQL-запросов и структуры БД
— Code review коллег и устранение ошибок
— Соблюдение сроков и оперативное реагирование на инциденты
✅ Требования:
— 3+ года в роли Data Engineer
— Опыт разработки ELT-процессов
— Глубокое знание SQL и одного из PL (PL/SQL, PL/pgSQL и т.п.)
— Опыт работы с Git (GitLab/Bitbucket)
— Опыт с реляционными БД (Postgres, Oracle, MySQL и др.)
— Опыт с распределёнными СУБД (Hadoop, Greenplum)
— Понимание HDFS и форматов хранения
— Базовые знания Java, Groovy, Python
📩 Заинтересовало? Жду ваше резюме в личке — @skeldafn
Forwarded from Андрей
💰 до 290 тыс. ₽ на руки
📍 Удалённо из РФ или офис в Москве
О проекте:
Мы развиваем Data Lake, движок Trino и инструменты для аналитики, BI и ML. Занимаемся batch и streaming загрузками, создаём стандарты, чтобы вся команда могла наполнять озеро данных.
Задачи:
— Миграция с Yandex Cloud в cloud.ru
— Миграция DAG’ов в новый репозиторий Airflow под новые стандарты
— Разработка ETL (Airflow, Python, Spark, S3, ClickHouse, Greenplum)
— Развитие Trino и автоматизация процессов
— Миграция сотен ТБ данных в новый S3, отказ от Dataproc в пользу Spark Operator
Что нужно:
✔️ Уверенный SQL и Python
✔️ Опыт с Airflow
✔️ Базовое понимание архитектуры распределённых аналитических систем (например, Greenplum, ClickHouse, Trino)
🍩 Что ещё приятного у нас есть:
— ДМС с первого месяца
— Бонусы для сотрудников экосистемы Сбера
— Корпоративные бонусы и Best Benefits
— Электронная библиотека MyBook, спорт в группе компаний ecom.tech
📩 Хочешь заниматься Data Lake с нами? Пиши @da_mrv
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
debridge.finance
deBridge is the bridge that moves at lightspeed, enabling blazingly fast bridge transfers between Ethereum, Solana, and all major chains with deepest liquidity and guaranteed rates.
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
debridge.finance
deBridge is the bridge that moves at lightspeed, enabling blazingly fast bridge transfers between Ethereum, Solana, and all major chains with deepest liquidity and guaranteed rates.
Forwarded from Bul
🥇 Разработчик БД / PostgreSQL админ
Грейд: от Middle+
Опыт: от 4–5 лет
Локация: РФ
Таймзона: МСК
Ставка: 200–250 тыс. ₽
📦 Проект: финтех, длительный
🚀 Старт: ASAP
🧑💻 Формат: удалёнка, фуллтайм
📌 Задачи:
— Поддержка промышленных и тестовых БД PostgreSQL (развёртывание, настройка, обновления, резервное копирование)
— Оптимизация СУБД и SQL-запросов
— Устранение инцидентов по доступности и производительности
— Автоматизация с помощью shell/ansible
— Настройка мониторинга (Grafana, ELK и т.п.)
— Взаимодействие с разработкой и QA
💻 Требования:
— 3+ года администрирования PostgreSQL
— Опыт с Ansible
— Опыт с Grafana / ELK / мониторингом
— Linux/Unix на уровне администратора
— Будет плюсом: Jenkins, Atlassian (Jira, Bitbucket, Confluence)
📩 Резюме — в личку: @skeldafn
Если ты сильный PostgreSQL-админ — это может быть твой проект!
Грейд: от Middle+
Опыт: от 4–5 лет
Локация: РФ
Таймзона: МСК
Ставка: 200–250 тыс. ₽
📦 Проект: финтех, длительный
🚀 Старт: ASAP
🧑💻 Формат: удалёнка, фуллтайм
📌 Задачи:
— Поддержка промышленных и тестовых БД PostgreSQL (развёртывание, настройка, обновления, резервное копирование)
— Оптимизация СУБД и SQL-запросов
— Устранение инцидентов по доступности и производительности
— Автоматизация с помощью shell/ansible
— Настройка мониторинга (Grafana, ELK и т.п.)
— Взаимодействие с разработкой и QA
💻 Требования:
— 3+ года администрирования PostgreSQL
— Опыт с Ansible
— Опыт с Grafana / ELK / мониторингом
— Linux/Unix на уровне администратора
— Будет плюсом: Jenkins, Atlassian (Jira, Bitbucket, Confluence)
📩 Резюме — в личку: @skeldafn
Если ты сильный PostgreSQL-админ — это может быть твой проект!
Telegram
Bul IT
HR в IT 👨💻 - https://www.tg-me.com/itfrombul