Forwarded from Никита Сидоров
#вакансия #удалённо #parttime #преподаватель #DWH
🦉 OTUS ищет преподавателей на онлайн-курс - Data Warehouse Analyst
Мы расширяем команду экспертов (уже более 650 человек) и ищем опытных специалистов которым интересно делиться знаниями. Преподавательский опыт не обязателен — наши методисты помогут вам освоить практики преподавания.
Требуется практический опыт по темам из программы курса (на ваш выбор). материалы к вебинарам предоставим.
Обязанности:
- подготовиться к занятиям (темы на выбор);
- преподавать удаленно, уделяя большое внимание практике. Здесь вы сможете развивать навыки публичных выступлений, работы с аудиторией и подачи обратной связи.
Условия:
✅ гибкий график, легко совмещать с основной работой;
✅ получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
✅ бонусы: доступ к нашим курсам, нетворкинг, развитие личного бренда, участие в воркшопах и конференциях.
Обсудить подробнее: @HR_Nikita
🦉 OTUS ищет преподавателей на онлайн-курс - Data Warehouse Analyst
Мы расширяем команду экспертов (уже более 650 человек) и ищем опытных специалистов которым интересно делиться знаниями. Преподавательский опыт не обязателен — наши методисты помогут вам освоить практики преподавания.
Требуется практический опыт по темам из программы курса (на ваш выбор). материалы к вебинарам предоставим.
Обязанности:
- подготовиться к занятиям (темы на выбор);
- преподавать удаленно, уделяя большое внимание практике. Здесь вы сможете развивать навыки публичных выступлений, работы с аудиторией и подачи обратной связи.
Условия:
✅ гибкий график, легко совмещать с основной работой;
✅ получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
✅ бонусы: доступ к нашим курсам, нетворкинг, развитие личного бренда, участие в воркшопах и конференциях.
Обсудить подробнее: @HR_Nikita
Forwarded from Anastasia Shakhtarina
Здравствуйте!
Разместите, пожалуйста, вакансию Marketing Analyst в канале @datajobschannel🙏 Текст ниже:
X-FLOW is a mobile game development company established in 2018. We gained recognition after the release of Happy Color, the most popular digital coloring book and one of the most successful ad-driven mobile apps in the world.
We are seeking a Marketing Analyst.
📍Location: remotely from Europe or remotely/office/hybrid in Cyprus.
Responsibilities:
- Active collaboration with the UA team to adjust strategies based on data-driven insights.
- Build and maintain LTV forecasting models.
- Identify new signals (user behavior) for UA.
- Communicate complex data analysis and insights to non-technical stakeholders.
- Develop and maintain data pipelines to ensure accurate and timely data processing.
- Stay up-to-date with the latest technologies and advancements in Marketing Analytics.
Requirements:
- 2+ years of experience in data Marketing analytics.
- Strong skills in Python and SQL.
- Experience in advertising monetization will be a plus.
- Experience with data visualization tools such as Tableau or Power BI.
- Excellent verbal and written communication skills.
- Ability to work independently and as part of a team.
- Experience in ML(predicting LTV, time series, etc).
What We Offer:
- Competitive salary and benefits package.
- Opportunity to work with a talented and passionate team in a creative and dynamic environment.
- Flexible working hours and remote/office work options.
- Career growth and professional development opportunities.
- A fun and inclusive company culture that celebrates diversity and creativity.
Please send your CV @nshakhtarina
Разместите, пожалуйста, вакансию Marketing Analyst в канале @datajobschannel🙏 Текст ниже:
X-FLOW is a mobile game development company established in 2018. We gained recognition after the release of Happy Color, the most popular digital coloring book and one of the most successful ad-driven mobile apps in the world.
We are seeking a Marketing Analyst.
📍Location: remotely from Europe or remotely/office/hybrid in Cyprus.
Responsibilities:
- Active collaboration with the UA team to adjust strategies based on data-driven insights.
- Build and maintain LTV forecasting models.
- Identify new signals (user behavior) for UA.
- Communicate complex data analysis and insights to non-technical stakeholders.
- Develop and maintain data pipelines to ensure accurate and timely data processing.
- Stay up-to-date with the latest technologies and advancements in Marketing Analytics.
Requirements:
- 2+ years of experience in data Marketing analytics.
- Strong skills in Python and SQL.
- Experience in advertising monetization will be a plus.
- Experience with data visualization tools such as Tableau or Power BI.
- Excellent verbal and written communication skills.
- Ability to work independently and as part of a team.
- Experience in ML(predicting LTV, time series, etc).
What We Offer:
- Competitive salary and benefits package.
- Opportunity to work with a talented and passionate team in a creative and dynamic environment.
- Flexible working hours and remote/office work options.
- Career growth and professional development opportunities.
- A fun and inclusive company culture that celebrates diversity and creativity.
Please send your CV @nshakhtarina
Forwarded from Алексей
Вакансия Data Engineer
На проекты Сбера требуется мидл / senior data engineer.
Оформление через компанию подрядчик (компания подрядчик будет определена по итогам процедуры закупок).
Формат: Москва офис (в перспективе возможно будет гибрид)
Вилка от 200 до 480k
Обязанности:
- Разработка пайплайнов для обработки данных;
- Создание витрин, маппингов для данных;
- Обследование и профилирование банковских источников данных, исследование моделей данных источников;
- Валидация и проверка качества данных, поиск проблем в данных;
- Участие в создании архитектуры;
- Участие во встречах со своей и смежными командами. Обсуждение и предложение способов реализации текущих проектов.
Требования:
- Опыт и хорошие навыки программирования на python;
- Хорошие знания SQL (оконные функции, сложные запросы, оптимизация запросов);
- Знание инструментов экосистемы Hadoop: Hive, Spark и др;
- Общие знание по работе с РСУБД и хранилищами (нормальные формы, звёзды/снежинки).
Опциональные требования:
- Знание концепций проектирования хранилищ данных (DWH, Data Lake) - кимбал/инмон, dv/anchor, лямбда/каппа, SCD, слои, полная/инкрементальная загрузки;
- Понимание работы индексов в БД, триггеров, транзакций.
Условия и соц пакет:
- Стандартный набор + гибкие условие труда и рабочего дня.
- Заботимся о развитии сотрудников. Возможность профессионального роста, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Формат работы - офис в Мск (в перспективе возможно будет гибрид)
Контакт для связи и резюме @alexei_nnn
На проекты Сбера требуется мидл / senior data engineer.
Оформление через компанию подрядчик (компания подрядчик будет определена по итогам процедуры закупок).
Формат: Москва офис (в перспективе возможно будет гибрид)
Вилка от 200 до 480k
Обязанности:
- Разработка пайплайнов для обработки данных;
- Создание витрин, маппингов для данных;
- Обследование и профилирование банковских источников данных, исследование моделей данных источников;
- Валидация и проверка качества данных, поиск проблем в данных;
- Участие в создании архитектуры;
- Участие во встречах со своей и смежными командами. Обсуждение и предложение способов реализации текущих проектов.
Требования:
- Опыт и хорошие навыки программирования на python;
- Хорошие знания SQL (оконные функции, сложные запросы, оптимизация запросов);
- Знание инструментов экосистемы Hadoop: Hive, Spark и др;
- Общие знание по работе с РСУБД и хранилищами (нормальные формы, звёзды/снежинки).
Опциональные требования:
- Знание концепций проектирования хранилищ данных (DWH, Data Lake) - кимбал/инмон, dv/anchor, лямбда/каппа, SCD, слои, полная/инкрементальная загрузки;
- Понимание работы индексов в БД, триггеров, транзакций.
Условия и соц пакет:
- Стандартный набор + гибкие условие труда и рабочего дня.
- Заботимся о развитии сотрудников. Возможность профессионального роста, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Формат работы - офис в Мск (в перспективе возможно будет гибрид)
Контакт для связи и резюме @alexei_nnn
Forwarded from Positive Hack Days Media
🎫 Вы этого ждали: мы начали продажу билетов на международный киберфестиваль Positive Hack Days!
Традиционно у нас будет как открытая бесплатная зона для всех желающих с мощной научно-популярной программой в Кибергороде, так и закрытая часть с экспертными докладами и дискуссиями, проход в которую будет по билетам.
🫰 Получить билет можно за пожертвование в благотворительный фонд на сумму от 1500 рублей.
Для этого вам нужно зайти на наш сайт, зарегистрировать личный кабинет, выбрать один из трех фондов («Подари жизнь», «Улица Мира» или «Старость в радость») и внести пожертвование. После оплаты билет будет доступен в личном кабинете.
Приобрести билет можно и от имени юридического лица — на сайте есть подробная инструкция о том, как это сделать.
В закрытой части вас будут ждать выступления более 500 спикеров — от начинающих специалистов до именитых экспертов со всего мира, CIO и CISO крупных IT-компаний. А также кибербитва Standoff.
👀 В бесплатной части киберфестиваля будет много интерактивных инсталляций в обновленном Кибергороде, выступления на тему технологий в ваших руках на научпоп-сцене, квесты, в которых вы сможете почувствовать себя реверс-инженерами, масштабный концерт и многое-многое другое!
😏 Приобрести билет
Ждем вас в «Лужниках» 22–24 мая! 🏟
Все новости киберфестиваля — в канале @PHDays
Традиционно у нас будет как открытая бесплатная зона для всех желающих с мощной научно-популярной программой в Кибергороде, так и закрытая часть с экспертными докладами и дискуссиями, проход в которую будет по билетам.
🫰 Получить билет можно за пожертвование в благотворительный фонд на сумму от 1500 рублей.
Для этого вам нужно зайти на наш сайт, зарегистрировать личный кабинет, выбрать один из трех фондов («Подари жизнь», «Улица Мира» или «Старость в радость») и внести пожертвование. После оплаты билет будет доступен в личном кабинете.
Приобрести билет можно и от имени юридического лица — на сайте есть подробная инструкция о том, как это сделать.
В закрытой части вас будут ждать выступления более 500 спикеров — от начинающих специалистов до именитых экспертов со всего мира, CIO и CISO крупных IT-компаний. А также кибербитва Standoff.
👀 В бесплатной части киберфестиваля будет много интерактивных инсталляций в обновленном Кибергороде, выступления на тему технологий в ваших руках на научпоп-сцене, квесты, в которых вы сможете почувствовать себя реверс-инженерами, масштабный концерт и многое-многое другое!
Ждем вас в «Лужниках» 22–24 мая! 🏟
Все новости киберфестиваля — в канале @PHDays
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Лиза
Рынок IT перенасыщен, но специалистов, умеющих применять Data Science в химии, — единицы. Участвуйте в конкурсе «Элемент 119» от СИБУРа и решайте реальную задачу на стыке машинного обучения и химии.
Почему нужно участвовать?
— Уникальный опыт в малоконкурентной сфере.
— Призы и карьерные бонусы: стажировка, призовой фонд до 100 тысяч рублей и мерч.
— Финал в Москве с перелетом и проживанием за счет компании.
— Нетворкинг с экспертами и комьюнити единомышленников.
Неважно, из IT вы или из химии — важно желание попробовать новое направление. Участвовать можно индивидуально или в команде, регистрируйтесь до 31 марта: https://clck.ru/3HxHVv
Почему нужно участвовать?
— Уникальный опыт в малоконкурентной сфере.
— Призы и карьерные бонусы: стажировка, призовой фонд до 100 тысяч рублей и мерч.
— Финал в Москве с перелетом и проживанием за счет компании.
— Нетворкинг с экспертами и комьюнити единомышленников.
Неважно, из IT вы или из химии — важно желание попробовать новое направление. Участвовать можно индивидуально или в команде, регистрируйтесь до 31 марта: https://clck.ru/3HxHVv
❤1
Forwarded from Maxim Fedotov
Привет!
Ищем продуктового аналитика в команду Транзакционных сервисов B2C. Вы сможете напрямую влиять на бизнес, работая над улучшением Привлечения в продукты банка (дебетовая карта, накопительные счета, вклады).
Вам предстоит:
— Строить и исследовать воронки привлечения в целевое действие;
— Находить узкие места места в этих воронках и предлагать способы для улучшения конверсий;
— Проводить много АБ экспериментов (в среднем 5 в месяц) от этапа дизайна до подведения итогов;
— Оценивать эффективность и качество различных акционных механик направленных на привлечение пользователя, рассчитывать CAC/ROI, определять пул наиболее эффективных механик;
— Исследовать базу для привлечения, определять оптимальные и эффективные пути для разных групп пользователей;
— Исследовать качество приведенных пользователей, искать пути увеличения вовлеченности пользователей в продукт на ранних этапах жизни;
— Строить многоуровневые борды в SuperSet;
— Писать сложные запросы к Vertica, ClickHouse.
Мы ожидаем:
— Высшее техническое, математическое, финансовое или экономическое образование;
— Опыт работы аналитиком более 2х лет;
— Уверенные знания математики и основ статистики;
— Умение общаться с заказчиками и выявлять бизнес-требования;
— Умение рассказать о полученных на основе работы с данными выводах понятным языком;
— Умение аргументированно отстаивать свою точку зрения и готовность слышать и учитывать точки зрения ваших коллег;
— Вы разбираетесь в продуктовых метриках, связанных с привлечением и активностью пользователей;
— Владение SQL на достаточном для написания сложных запросов уровне (вложенные запросы, оконные функции, методы оптимизации запроса);
— Знание Python на уровне, достаточном для анализа, визуализации и интерпретации данных (pandas, numpy, matplotlib, scilearn);
— Имеете большой опыт визуализации в BI системах (Tableau, Power BI, Datalens, Superset и тд);
— Знаете статистическую базу АБ тестирования и имеете опыт проведения качественных АБ тестов от дизайна до подведения итогов.
Будет плюсом:
— Опыт работы с инструментами оркестрации данных (Airflow, Git);
— Опыт построения базовых ML моделей (линейная или логистическая регрессия, случайный лес, catboost);
— Опыт прогнозирования временных рядов (ARIMA, SARIMA и т.д.);
— Опыт анализа процессов с помощью process mining (Retentioneering и т.д.);
— Статьи, выступления на конференциях.
Можете откликаться по ссылке https://job.ozon.ru/fintech/vacancy?id=117575687 или напрямую к @alexey_gorbatov
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from Maxim Fedotov
Привет!
Ищем сильного маркетингового аналитика, который поможет поддерживать и развивать аналитику в направлении дебетовых и кредитных продуктов в B2C. Вы будете анализировать ключевые маркетинговые показатели, а также напрямую влиять на принимаемые бизнесом решения.
Вам предстоит:
— Вести новую и поддерживать обширную старую отчётность по маркетинговым инструментам
— Анализировать региональные и федеральные рекламные кампании с использованием временных рядов, Causal Impact и методов, предложенными вами
— Оказывать end-to-end-поддержку A/B-тестов в маркетинге: дизайны экспериментов, сбор сегментов, сплитование, подведение итогов
— Анализировать эффективность маркетинговых инструментов: поддерживать и реализовывать новые модели атрибуции, оценивать покрытие, находить наиболее эффективные цепочки
— Строить в Vertica качественные маркетинговые витрины с высоко эффективной стоимостью сборки и хранения
— Общаться с разработкой по вопросам качества данных и ставить задачи на исправление проблемных участков
Мы ожидаем
— Опыт работы аналитиком от 2 лет
— Опыт работы в маркетинговой аналитике
— Уверенные знания математики и основ статистики
— Умение общаться с заказчиками и выявлять бизнес-требования
— Умение понятным языком излагать выводы на основе работы с данными
— Умение аргументированно отстаивать свою точку зрения и готовность слышать и учитывать точки зрения коллег
— Владение SQL на достаточном для написания сложных запросов уровне (вложенные запросы, оконные функции, методы оптимизации запроса)
— Знание Python на уровне, достаточном для анализа и интерпретации данных (Pandas, библиотеки визуализации)
— Опыт работы с любыми аналитическими средами по визуализации данных (Power BI, Tableau, SuperSet, DataLens, Redash и т.д.)
Будет плюсом
— Опыт проведения A/B-тестов
— Теоретические знания и опыт применения временных рядов
— Опыт реализации моделей атрибуции
Можете откликаться по ссылке https://job.ozon.ru/fintech/vacancy?id=116104924 или напрямую к @alexey_gorbatov
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Forwarded from Игорь Романов
#вакансия #ML
Senior ML Engineer в стартап в области строительства
📍 Город и адрес офиса: Москва
💼 Формат работы: удаленно
⏳ Занятость: полная
💰 Зарплатная вилка: 250 000 – 350 000 ₽
Что предстоит делать?
🔹 Разрабатывать и обучать ML-модели (GAN, VAE, Transformers, GNN) для генерации планировок
🔹 Оптимизировать производительность (GPU-ускорение, квантование, профилирование)
🔹 Подготавливать и аугментировать данные (JSON, IFC, CAD), генерировать дополнительные примеры
🔹 Интегрировать модели в backend через REST API/microservices
🔹 Разрабатывать стратегии инференса (batch-запросы, кэширование)
🔹 Оценивать метрики качества, настраивать гиперпараметры и оптимизировать модели
🔹 Взаимодействовать с архитекторами и дизайнерами для интерпретации результатов
Наш стек
🚀 PyTorch (желательно) или TensorFlow
🚀 Docker, Kubernetes, CI/CD
🚀 PostgreSQL, NoSQL-хранилища
🚀 2D/3D-геометрия, работа с координатами, валидация контуров
Что мы предлагаем?
✨ Работа на cutting-edge технологиях AI и архитектурной генерации
✨ Наставничество от экспертов из OpenAI, Nvidia, Yandex
✨ Гибкий график и возможность работать удаленно
✨ Карьерный рост и участие в амбициозных проектах
🏢 Название компании: Умные ассистенты
📩 Контакты: @gokanik
Присоединяйся, если хочешь работать на переднем крае AI и менять индустрию! 🚀
Senior ML Engineer в стартап в области строительства
📍 Город и адрес офиса: Москва
💼 Формат работы: удаленно
⏳ Занятость: полная
💰 Зарплатная вилка: 250 000 – 350 000 ₽
Что предстоит делать?
🔹 Разрабатывать и обучать ML-модели (GAN, VAE, Transformers, GNN) для генерации планировок
🔹 Оптимизировать производительность (GPU-ускорение, квантование, профилирование)
🔹 Подготавливать и аугментировать данные (JSON, IFC, CAD), генерировать дополнительные примеры
🔹 Интегрировать модели в backend через REST API/microservices
🔹 Разрабатывать стратегии инференса (batch-запросы, кэширование)
🔹 Оценивать метрики качества, настраивать гиперпараметры и оптимизировать модели
🔹 Взаимодействовать с архитекторами и дизайнерами для интерпретации результатов
Наш стек
🚀 PyTorch (желательно) или TensorFlow
🚀 Docker, Kubernetes, CI/CD
🚀 PostgreSQL, NoSQL-хранилища
🚀 2D/3D-геометрия, работа с координатами, валидация контуров
Что мы предлагаем?
✨ Работа на cutting-edge технологиях AI и архитектурной генерации
✨ Наставничество от экспертов из OpenAI, Nvidia, Yandex
✨ Гибкий график и возможность работать удаленно
✨ Карьерный рост и участие в амбициозных проектах
🏢 Название компании: Умные ассистенты
📩 Контакты: @gokanik
Присоединяйся, если хочешь работать на переднем крае AI и менять индустрию! 🚀
Forwarded from Игорь Романов
#вакансия #DS
Senior Data Scientist в стартап в области строительства
📍 Город и адрес офиса: Москва
💼 Формат работы: удаленно
⏳ Занятость: полная
💰 Зарплатная вилка: 200 000 – 300 000 ₽
Что предстоит делать?
🔹 Организовывать сбор и интеграцию разнородных данных по планировкам (JSON, IFC, DWG, данные о площадях и конструктивных элементах)
🔹 Проводить EDA: выявлять закономерности, находить аномалии, формировать статистические отчёты
🔹 Разрабатывать конвейеры подготовки данных (очистка, нормализация, фильтрация)
🔹 Настраивать аугментацию (отражения, масштабирование, добавление шумов)
🔹 Определять и разрабатывать кастомные метрики качества для ML-моделей
🔹 Проводить эксперименты по оптимизации гиперпараметров и улучшению генеративных моделей
🔹 Анализировать влияние различных факторов (количество комнат, сложность контура) на результаты моделей
🔹 Работать над алгоритмами пост-обработки (исправление контуров, расстановка дверей)
Наш стек
🚀 Python (Pandas, NumPy, SciPy, Plotly/Matplotlib)
🚀 PostgreSQL, NoSQL-хранилища
🚀 Методы факторного анализа, PCA, кластеризация
🚀 PyTorch/TensorFlow (желательно, для экспериментов)
Что мы предлагаем?
✨ Работа с cutting-edge технологиями в AI и Data Science
✨ Наставничество от экспертов OpenAI, Nvidia, Yandex
✨ Гибкий график и возможность удаленной работы
✨ Карьерный рост и участие в сложных технологических проектах
🏢 Название компании: Умные ассистенты
📩 Контакты: @gokanik
Если тебе интересно работать с ML, геометрией и архитектурными данными — ждем в команду! 🚀
Senior Data Scientist в стартап в области строительства
📍 Город и адрес офиса: Москва
💼 Формат работы: удаленно
⏳ Занятость: полная
💰 Зарплатная вилка: 200 000 – 300 000 ₽
Что предстоит делать?
🔹 Организовывать сбор и интеграцию разнородных данных по планировкам (JSON, IFC, DWG, данные о площадях и конструктивных элементах)
🔹 Проводить EDA: выявлять закономерности, находить аномалии, формировать статистические отчёты
🔹 Разрабатывать конвейеры подготовки данных (очистка, нормализация, фильтрация)
🔹 Настраивать аугментацию (отражения, масштабирование, добавление шумов)
🔹 Определять и разрабатывать кастомные метрики качества для ML-моделей
🔹 Проводить эксперименты по оптимизации гиперпараметров и улучшению генеративных моделей
🔹 Анализировать влияние различных факторов (количество комнат, сложность контура) на результаты моделей
🔹 Работать над алгоритмами пост-обработки (исправление контуров, расстановка дверей)
Наш стек
🚀 Python (Pandas, NumPy, SciPy, Plotly/Matplotlib)
🚀 PostgreSQL, NoSQL-хранилища
🚀 Методы факторного анализа, PCA, кластеризация
🚀 PyTorch/TensorFlow (желательно, для экспериментов)
Что мы предлагаем?
✨ Работа с cutting-edge технологиями в AI и Data Science
✨ Наставничество от экспертов OpenAI, Nvidia, Yandex
✨ Гибкий график и возможность удаленной работы
✨ Карьерный рост и участие в сложных технологических проектах
🏢 Название компании: Умные ассистенты
📩 Контакты: @gokanik
Если тебе интересно работать с ML, геометрией и архитектурными данными — ждем в команду! 🚀
Forwarded from Kristina Samko
Senior Data Engineer в Mno Go Games
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагманский продукт, QuizzLand, собрал 100+ млн установок и входит в топ-игр в категории trivia/quiz.
Стек: clickhouse, aerospike, tidb, grafana, kafka.
Задачи:
- Проектирование и разработка Data Pipeline;
- Работа с большими объемами данных: проведение анализа, выполнение ad hoc выборок, оперативное выявление проблем и их решение;
- Разработка и оптимизация структур баз данных;
- Интеграция с внешними сервисами;
- Проработка и подготовка данных для дашбордов;
- Поддержка системы мониторинга, предсказание аномалий.
Мы друг другу подойдем, если:
- У вас есть аналогичный опыт работы от 3-х лет;
- Глубоко понимаете архитектуру обработки данных и работали с большими объемами данных;
- Уверенно себя чувствуете в работе с Clickhouse, включая составление сложных запросов;
- Владеете Python на уровне middle;
- Умеете работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагманский продукт, QuizzLand, собрал 100+ млн установок и входит в топ-игр в категории trivia/quiz.
Стек: clickhouse, aerospike, tidb, grafana, kafka.
Задачи:
- Проектирование и разработка Data Pipeline;
- Работа с большими объемами данных: проведение анализа, выполнение ad hoc выборок, оперативное выявление проблем и их решение;
- Разработка и оптимизация структур баз данных;
- Интеграция с внешними сервисами;
- Проработка и подготовка данных для дашбордов;
- Поддержка системы мониторинга, предсказание аномалий.
Мы друг другу подойдем, если:
- У вас есть аналогичный опыт работы от 3-х лет;
- Глубоко понимаете архитектуру обработки данных и работали с большими объемами данных;
- Уверенно себя чувствуете в работе с Clickhouse, включая составление сложных запросов;
- Владеете Python на уровне middle;
- Умеете работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Telegram
Kristina Samko
Forwarded from Олег
Добрый день!
Я представляю компанию Яндекс, сервис Яндекс Маркет
Вакансия: Data Engineer
Грейд: Middle и Senior
Занятость: Full-time
Локация: Москва/Санкт-Петербург/Минск (гибрид)
Кажется, сегодня тот самый день, когда стоит попробовать свои силы и устроиться в Яндекс Маркет!
У нас ты сможешь развиваться в дата-инженерии DWH.
Технологически ядро хранилища построено на системах хранения данных YTsaurus и СlickHouse. Мы разрабатываем ETL-процессы на собственном фреймворке, созданном в Яндексе. У нас сейчас самое крупное хранилище среди всех бизнесов компании — порядка 30 петабайт, и оно будет только расти :)
Отправить отклик или задать вопросы — @maria_danilyuk ✍️
Я представляю компанию Яндекс, сервис Яндекс Маркет
Вакансия: Data Engineer
Грейд: Middle и Senior
Занятость: Full-time
Локация: Москва/Санкт-Петербург/Минск (гибрид)
Кажется, сегодня тот самый день, когда стоит попробовать свои силы и устроиться в Яндекс Маркет!
У нас ты сможешь развиваться в дата-инженерии DWH.
Технологически ядро хранилища построено на системах хранения данных YTsaurus и СlickHouse. Мы разрабатываем ETL-процессы на собственном фреймворке, созданном в Яндексе. У нас сейчас самое крупное хранилище среди всех бизнесов компании — порядка 30 петабайт, и оно будет только расти :)
Отправить отклик или задать вопросы — @maria_danilyuk ✍️
❤4🔥2
Forwarded from Dmitry Zuev
Привет
Запускаем сбор докладов на SmartData 2025, и как всегда, в фокусе — дата-платформы и всё, что с ними связано!
Ищем ваши реальные истории и кейсы! Успешные внедрения, интересные архитектурные решения, неочевидные оптимизации или даже поучительные провалы — всё это ценный опыт для сообщества. Может, вы настроили Trino так, что он летает? Или нашли способ эффективно хранить петабайты данных? А может, у вас есть что рассказать про CDC, который наконец-то работает как часы?
Подать заявку можно здесь: https://smartdataconf.ru/callforpapers/
Как член программного комитета, с радостью помогу с оформлением и подготовкой доклада. Опыт выступлений не так важен — важнее ваша экспертиза и желание делиться знаниями!
Пожалуйста, расшарьте это приглашение среди коллег и единомышленников. Чем больше практиков с реальным опытом, тем ценнее будет конференция для всех участников.
Запускаем сбор докладов на SmartData 2025, и как всегда, в фокусе — дата-платформы и всё, что с ними связано!
Ищем ваши реальные истории и кейсы! Успешные внедрения, интересные архитектурные решения, неочевидные оптимизации или даже поучительные провалы — всё это ценный опыт для сообщества. Может, вы настроили Trino так, что он летает? Или нашли способ эффективно хранить петабайты данных? А может, у вас есть что рассказать про CDC, который наконец-то работает как часы?
Подать заявку можно здесь: https://smartdataconf.ru/callforpapers/
Как член программного комитета, с радостью помогу с оформлением и подготовкой доклада. Опыт выступлений не так важен — важнее ваша экспертиза и желание делиться знаниями!
Пожалуйста, расшарьте это приглашение среди коллег и единомышленников. Чем больше практиков с реальным опытом, тем ценнее будет конференция для всех участников.
SmartData 2025. Конференция по инженерии данных
SmartData 2025 | Подача заявки на доклад | Конференция по инженерии данных
Всё о том, как стать спикером SmartData 2025: как подать заявку, как выбрать тему, какие доклады подойдут, как выглядит процесс рассмотрения
Data jobs feed pinned «Привет Запускаем сбор докладов на SmartData 2025, и как всегда, в фокусе — дата-платформы и всё, что с ними связано! Ищем ваши реальные истории и кейсы! Успешные внедрения, интересные архитектурные решения, неочевидные оптимизации или даже поучительные…»
Forwarded from Anastasia
Вакансия: (TechLead) на проект по автоматизации бизнес-процессов логистической компании
ЗП: 400-500 т.р.
Формат: гибрид или офис
Локация: Москва
Есть возможность трудоустройства в аккредитованную IT организацию
✍️ Задачи:
- формирование предложений по архитектуре и выбору технологий для реализации решений по автоматизации процессов, в т.ч. на основе ИИ
- координация разработчиков и аналитиков, занимающихся проектом по внедрению искусственного интеллекта и автоматизации процессов
- решение технических и организационных вопросов взаимодействия с подрядчиками и поставщиками услуг, а также внутренними подразделениями в ходе реализации проекта
- оценка рисков и разработка планов по их минимизации
- обеспечение качества разработки и соответствия стандартам безопасности
- поддержание технической документации и участие в презентациях перед руководством
- сопровождение внедрения решений и обеспечение их успешной интеграции в существующие бизнес-процессы
⁉️ Требования:
- высшее техническое образование (предпочтительно информатика, прикладная математика, инженерия)
- опыт работы техническим лидером или руководителем проектов от 3 лет
- глубокое понимание алгоритмов машинного обучения и нейронных сетей
- практические навыки работы с языками программирования Python, R, JavaScript
- опыт работы с библиотеками для машинного обучения (TensorFlow, PyTorch, Scikit-learn)
- отличные коммуникативные навыки и умение эффективно взаимодействовать с командой и клиентами
- способность решать сложные технические проблемы и находить оптимальные решения
Если по всем требованиям мэтч , то откликайтесь сразу с резюме
🚀 https://www.tg-me.com/stasy_yart_work 🙌🏻
ЗП: 400-500 т.р.
Формат: гибрид или офис
Локация: Москва
Есть возможность трудоустройства в аккредитованную IT организацию
✍️ Задачи:
- формирование предложений по архитектуре и выбору технологий для реализации решений по автоматизации процессов, в т.ч. на основе ИИ
- координация разработчиков и аналитиков, занимающихся проектом по внедрению искусственного интеллекта и автоматизации процессов
- решение технических и организационных вопросов взаимодействия с подрядчиками и поставщиками услуг, а также внутренними подразделениями в ходе реализации проекта
- оценка рисков и разработка планов по их минимизации
- обеспечение качества разработки и соответствия стандартам безопасности
- поддержание технической документации и участие в презентациях перед руководством
- сопровождение внедрения решений и обеспечение их успешной интеграции в существующие бизнес-процессы
⁉️ Требования:
- высшее техническое образование (предпочтительно информатика, прикладная математика, инженерия)
- опыт работы техническим лидером или руководителем проектов от 3 лет
- глубокое понимание алгоритмов машинного обучения и нейронных сетей
- практические навыки работы с языками программирования Python, R, JavaScript
- опыт работы с библиотеками для машинного обучения (TensorFlow, PyTorch, Scikit-learn)
- отличные коммуникативные навыки и умение эффективно взаимодействовать с командой и клиентами
- способность решать сложные технические проблемы и находить оптимальные решения
Если по всем требованиям мэтч , то откликайтесь сразу с резюме
🚀 https://www.tg-me.com/stasy_yart_work 🙌🏻
❤1
Forwarded from Nikita Ryanov
Вакансия: Data Engineer
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
Forwarded from Мозг Немчина
Уже идет прием заявок на доклады для Data Internals X 2025📌
Data Internals - профессиональная конференция по инженерии данных, базам данных и системам хранения и обработки данных. Участие в конференции - это возможность расширить свой профессиональный горизонт и присоединиться к сообществу экспертов.
На этот год мы определили перечень направлений, наиболее актуальных для сообщества. Мы не будем ограничиваться только ими, но предпочтение будет отдано докладам на следующие темы:
▶️Разработка СУБД и инструментов работы с данными
▶️Практические примеры внедрений
▶️Архитектура данных
▶️Управление данными
▶️Машинное обучение и искусственный интеллект в разработке инструментов управления данными
Если вы бы хотели выступить с другой темой, тоже смело подавайте заявку! Программный комитет обязательно ее рассмотрит.
Узнать больше о бонусах для спикеров, изучить этапы процесса подготовки и подать заявку можно на сайте.
🖇Ждем ваших докладов на Data Internals X 2025!
Data Internals - профессиональная конференция по инженерии данных, базам данных и системам хранения и обработки данных. Участие в конференции - это возможность расширить свой профессиональный горизонт и присоединиться к сообществу экспертов.
На этот год мы определили перечень направлений, наиболее актуальных для сообщества. Мы не будем ограничиваться только ими, но предпочтение будет отдано докладам на следующие темы:
▶️Разработка СУБД и инструментов работы с данными
▶️Практические примеры внедрений
▶️Архитектура данных
▶️Управление данными
▶️Машинное обучение и искусственный интеллект в разработке инструментов управления данными
Если вы бы хотели выступить с другой темой, тоже смело подавайте заявку! Программный комитет обязательно ее рассмотрит.
Узнать больше о бонусах для спикеров, изучить этапы процесса подготовки и подать заявку можно на сайте.
🖇Ждем ваших докладов на Data Internals X 2025!
🔥2
Forwarded from Dmitry R
#вакансия #remote #fulltime
✨ Позиция: Senior Data Engineer
🏦 Компания: Rusprofile
💰 Вилка ЗП: от 300.000 до 450.000 на руки (готовы платить выше указанной вилки, если твой опыт отвечает всем нашим ожиданиям)
Rusprofile — быстрорастущая частная компания, один из лидеров российского рынка RegTech. Сервис помогает компаниям быстро и эффективно принимать критические для бизнеса решения на основе данных, собираемых ежедневно из десятков источников. Аудитория Rusprofile — это около 10 млн пользователей в месяц и десятков тысяч платящих клиентов, от малого бизнеса до крупных корпораций.
Про наш стэк: ClickHouse, Airflow, Kafka, Superset, Mysql, Python, PHP, Docker, Git.
⚙️ Твои задачи будут включать:
1. Погружение в текущую инфраструктуру данных:
- Изучение существующего хранилища данных, структуры и настройки (ClickHouse, MySQL), пайплайнов данных и инструментов (Airflow, Superset, Kafka);
- Погружение в текущие процессы и практики команды.
2. Планирование и определение приоритетов:
- Выявление возможностей для быстрых оптимизаций в текущей инфраструктуре и процессах;
- Разработку плана тактических улучшений текущей инфраструктуры данных на ближайшие 3-4 месяца, совместно с CTO;
- Определение топ приоритетных задач, которые должны быть обязательно закрыты в течение испытательного срока.
3. Перенос инфраструктуры данных на IaC:
- Поиск, выбор внешнего партнера (вероятно flant или express42) и запуск пилотного проекта по переходу на IaC в первые 3 месяца;
- Планирование и начало реализации полного перехода с bare metal на IaC в течение полугода.
4. Взятие на себя ответственности за инфраструктуру данных:
- Стать владельцем текущего стека данных и процессов;
- Обеспечение поддержки и стабильной работы существующей инфраструктуры.
5. Сотрудничество с командами:
- Налаживание эффективного взаимодействия с продуктовой командой, разработчиками и командой инфраструктуры;
- Обеспечение коммуникации и совместной работы над проектами по развитию инфраструктуры данных.
Как понять что ты подойдешь ❓
- Опыт работы от 3 лет в роли Data Engineer;
- Глубокое знание SQL и понимание методик оптимизации запросов;
- Уверенное владение Python;
- Опыт работы с Airflow, Superset, ClickHouse;
- Понимание устройства реляционных и нереляционных баз данных;
- Умение разрабатывать ETL/ELT пайплайны на базе Airflow;
- Навыки мониторинга и отладки пайплайнов обработки данных;
- Умение проектировать архитектуру данных в том числе индексы, партиционирование, шардирование;
- Понимание принципов data quality и data lineage;
- Опыт работы с Docker и контейнеризацией;
- Знание Linux на уровне базового администрирования;
- Опыт работы с Git;
- Умение самостоятельно развертывать и поддерживать сервисы обработки данных;
- Опыт настройки и оптимизации производительности СУБД;
- Базовые навыки практик DevOps;
- Опыт работы с CI/CD.
Что мы предлагаем ❓
- Свободу действий в принятии решений и высокий уровень ответственности - у тебя будет возможность влиять на продукт и строить процессы так, чтобы они помогали бизнесу достигать своих целей;
- Интересный продукт в одном из самых быстрорастущих сегментов рынка во всем мире. У нас большие стратегические планы по развитию стека обработки данных и сейчас очень ранний этап работы с этими планами, есть возможность сразу сделать хорошо почти с нуля;
- Основной бизнес компании - данные. Лучшего применения своим знаниям трудно представить, так как от эффективности и скорости работы с данными напрямую зависит успех;
- Гибкий график и возможность удаленной работы (можно также работать в нашем офисе в Москва-Сити с потрясающим видом на столицу);
- Работу в аккредитованной ИТ компании с полным соблюдением ТК РФ;
- Любую технику для работы;
- ДМС, 7 Day Off, оплату обучения, семинаров и конференций.
Откликнуться сюда 📩 @fuelhett
✨ Позиция: Senior Data Engineer
🏦 Компания: Rusprofile
💰 Вилка ЗП: от 300.000 до 450.000 на руки (готовы платить выше указанной вилки, если твой опыт отвечает всем нашим ожиданиям)
Rusprofile — быстрорастущая частная компания, один из лидеров российского рынка RegTech. Сервис помогает компаниям быстро и эффективно принимать критические для бизнеса решения на основе данных, собираемых ежедневно из десятков источников. Аудитория Rusprofile — это около 10 млн пользователей в месяц и десятков тысяч платящих клиентов, от малого бизнеса до крупных корпораций.
Про наш стэк: ClickHouse, Airflow, Kafka, Superset, Mysql, Python, PHP, Docker, Git.
⚙️ Твои задачи будут включать:
1. Погружение в текущую инфраструктуру данных:
- Изучение существующего хранилища данных, структуры и настройки (ClickHouse, MySQL), пайплайнов данных и инструментов (Airflow, Superset, Kafka);
- Погружение в текущие процессы и практики команды.
2. Планирование и определение приоритетов:
- Выявление возможностей для быстрых оптимизаций в текущей инфраструктуре и процессах;
- Разработку плана тактических улучшений текущей инфраструктуры данных на ближайшие 3-4 месяца, совместно с CTO;
- Определение топ приоритетных задач, которые должны быть обязательно закрыты в течение испытательного срока.
3. Перенос инфраструктуры данных на IaC:
- Поиск, выбор внешнего партнера (вероятно flant или express42) и запуск пилотного проекта по переходу на IaC в первые 3 месяца;
- Планирование и начало реализации полного перехода с bare metal на IaC в течение полугода.
4. Взятие на себя ответственности за инфраструктуру данных:
- Стать владельцем текущего стека данных и процессов;
- Обеспечение поддержки и стабильной работы существующей инфраструктуры.
5. Сотрудничество с командами:
- Налаживание эффективного взаимодействия с продуктовой командой, разработчиками и командой инфраструктуры;
- Обеспечение коммуникации и совместной работы над проектами по развитию инфраструктуры данных.
Как понять что ты подойдешь ❓
- Опыт работы от 3 лет в роли Data Engineer;
- Глубокое знание SQL и понимание методик оптимизации запросов;
- Уверенное владение Python;
- Опыт работы с Airflow, Superset, ClickHouse;
- Понимание устройства реляционных и нереляционных баз данных;
- Умение разрабатывать ETL/ELT пайплайны на базе Airflow;
- Навыки мониторинга и отладки пайплайнов обработки данных;
- Умение проектировать архитектуру данных в том числе индексы, партиционирование, шардирование;
- Понимание принципов data quality и data lineage;
- Опыт работы с Docker и контейнеризацией;
- Знание Linux на уровне базового администрирования;
- Опыт работы с Git;
- Умение самостоятельно развертывать и поддерживать сервисы обработки данных;
- Опыт настройки и оптимизации производительности СУБД;
- Базовые навыки практик DevOps;
- Опыт работы с CI/CD.
Что мы предлагаем ❓
- Свободу действий в принятии решений и высокий уровень ответственности - у тебя будет возможность влиять на продукт и строить процессы так, чтобы они помогали бизнесу достигать своих целей;
- Интересный продукт в одном из самых быстрорастущих сегментов рынка во всем мире. У нас большие стратегические планы по развитию стека обработки данных и сейчас очень ранний этап работы с этими планами, есть возможность сразу сделать хорошо почти с нуля;
- Основной бизнес компании - данные. Лучшего применения своим знаниям трудно представить, так как от эффективности и скорости работы с данными напрямую зависит успех;
- Гибкий график и возможность удаленной работы (можно также работать в нашем офисе в Москва-Сити с потрясающим видом на столицу);
- Работу в аккредитованной ИТ компании с полным соблюдением ТК РФ;
- Любую технику для работы;
- ДМС, 7 Day Off, оплату обучения, семинаров и конференций.
Откликнуться сюда 📩 @fuelhett
Forwarded from Elena Vasilchenko
Data Engineer (middle) в inDrive
inDrive — международная технологическая платформа транспортных услуг.
Наш стек:
Languages: Python, SQL, Scala, Go
Frameworks: Spark, Apache Beam Storage and
Analytics: BigQuery, GCS, S3, Trino, other GCP and
AWS stack components Integration: Apache Kafka,
Google Pub/Sub, Debezium, Zero ETL, Firehose ETL: Airflow2
Infrastructure: Kubernetes, Terraform Development: GitHub, GitHub Actions, Jira
Задачи:
- Развивать культуру управления данными в компании
- Разрабатывать процессы обработки, хранения, очистки и обогащения данных
- Проектировать и поддерживать конвейеры передачи данных от сбора до использования
- Разрабатывать API (REST, gRPC) для высоконагруженных сервисов
- Создавать инфраструктуру для хранения и обработки больших массивов данных на K8S, Terraform
- Автоматизировать тестирование, валидацию и мониторинг данных
- Участвовать в проектировании системы и принятии архитектурных решений
Мы друг другу подойдем, если у вас есть:
- Опыт Python 3.7+, PySpark и глубокое знание SQL
- Обширный опыт создания ETL с Airflow 2, опыт работы в промышленных условиях с Kubernetes
- Понимание принципов и алгоритмов обработки данных
- Отличное знание ООП, шаблонов проектирования, чистой архитектуры
- Продуктивность, ответственность и способность брать ответственность на себя
Было бы плюсом: Опыт работы с высоконагруженными сервисами, навыки DevOps и опыт автоматизации CI/CD
Мы предлагаем:
- Стабильная заработная плата, официальное трудоустройство
- Медицинская страховка
- Смешанный режим работы и гибкий график
- Для кандидатов из других регионов предлагается пакет услуг по переезду (для Казахстана и Кипра)
- Доступ к профессиональным консультационным услугам, включая психологическую, финансовую и юридическую поддержку
- Разнообразные программы внутреннего обучения
- Частично или полностью оплачиваемые дополнительные курсы повышения квалификации
- Все необходимое рабочее оборудование
:pushpin:Присылать CV и задавать вопросы сюда → @vasilchenkoelena
inDrive — международная технологическая платформа транспортных услуг.
Наш стек:
Languages: Python, SQL, Scala, Go
Frameworks: Spark, Apache Beam Storage and
Analytics: BigQuery, GCS, S3, Trino, other GCP and
AWS stack components Integration: Apache Kafka,
Google Pub/Sub, Debezium, Zero ETL, Firehose ETL: Airflow2
Infrastructure: Kubernetes, Terraform Development: GitHub, GitHub Actions, Jira
Задачи:
- Развивать культуру управления данными в компании
- Разрабатывать процессы обработки, хранения, очистки и обогащения данных
- Проектировать и поддерживать конвейеры передачи данных от сбора до использования
- Разрабатывать API (REST, gRPC) для высоконагруженных сервисов
- Создавать инфраструктуру для хранения и обработки больших массивов данных на K8S, Terraform
- Автоматизировать тестирование, валидацию и мониторинг данных
- Участвовать в проектировании системы и принятии архитектурных решений
Мы друг другу подойдем, если у вас есть:
- Опыт Python 3.7+, PySpark и глубокое знание SQL
- Обширный опыт создания ETL с Airflow 2, опыт работы в промышленных условиях с Kubernetes
- Понимание принципов и алгоритмов обработки данных
- Отличное знание ООП, шаблонов проектирования, чистой архитектуры
- Продуктивность, ответственность и способность брать ответственность на себя
Было бы плюсом: Опыт работы с высоконагруженными сервисами, навыки DevOps и опыт автоматизации CI/CD
Мы предлагаем:
- Стабильная заработная плата, официальное трудоустройство
- Медицинская страховка
- Смешанный режим работы и гибкий график
- Для кандидатов из других регионов предлагается пакет услуг по переезду (для Казахстана и Кипра)
- Доступ к профессиональным консультационным услугам, включая психологическую, финансовую и юридическую поддержку
- Разнообразные программы внутреннего обучения
- Частично или полностью оплачиваемые дополнительные курсы повышения квалификации
- Все необходимое рабочее оборудование
:pushpin:Присылать CV и задавать вопросы сюда → @vasilchenkoelena
🔥4