Forwarded from Никита
Вакансия: Data Engineer Senior
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
❤1
Forwarded from Лиза Рузанова
Совместная бесплатная магистратура Авито и МФТИ — получайте образование в сфере Data Science и выходите на рынок с практическими навыками и возможностью трудоустройства в одну из сильнейших команд индустрии!
Почему это крутая программа?
— Востребованные навыки в Data Science — от классического ML и компьютерного зрения до рекомендательных систем и генеративного ИИ.
— Удобный формат — очные занятия сочетаются с онлайн-лекциями, чтобы вы могли совмещать учёбу с работой.
— Обучение на практике — будете работать с реальными данными Авито.
Готовы учиться на реальных задачах и расти вместе с экспертами? Подавайте заявку до 11 июля, чтобы сделать шаг к старту карьеры в Data Science: https://clck.ru/3MmQ6k
Почему это крутая программа?
— Востребованные навыки в Data Science — от классического ML и компьютерного зрения до рекомендательных систем и генеративного ИИ.
— Удобный формат — очные занятия сочетаются с онлайн-лекциями, чтобы вы могли совмещать учёбу с работой.
— Обучение на практике — будете работать с реальными данными Авито.
Учитесь бесплатно с возможностью получать стипендию до 25 000 ₽ в месяц для лучших студентов и развивайтесь в индустрии — Авито дает шанс пройти оплачиваемую стажировку уже во время обучения!
Готовы учиться на реальных задачах и расти вместе с экспертами? Подавайте заявку до 11 июля, чтобы сделать шаг к старту карьеры в Data Science: https://clck.ru/3MmQ6k
🔥3
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
❤1
Forwarded from Eva
Вакансия: Продуктовый аналитик на продукт ЛК (web+mobile)
Компания: М2
Чем предстоит заниматься:
- анализировать поведение клиентов в ЛК на платформах web/mobile
- участвовать в генерации гипотез командой ЛК, придумывать способы их оценки и проверки
- взаимодействовать с другими аналитиками (продуктовые, web, bi) и платформой данных, вместе создавать источники данных и разметку
Наш стек:
SQL (Clickhouse/Posgres/Trino), Python, Superset, Firebase, MyTracker, Яндекс.Метрика
Чего мы ждём:
- отличное знание SQL, уверенный Python
- опыт работы в любом инструменте визуализации
- опыт проверки гипотез (АБ, CI)
- опыт аналитики клиентских путей в mobile-first продуктах, в идеале - опыт работы с сырыми данными веба/приложений
- аналитическое мышление, умение видеть за цифрами опыт пользователя
- проактивность, самостоятельность, внимание к деталям
Контакт рекрутера: @isuragin
Компания: М2
Чем предстоит заниматься:
- анализировать поведение клиентов в ЛК на платформах web/mobile
- участвовать в генерации гипотез командой ЛК, придумывать способы их оценки и проверки
- взаимодействовать с другими аналитиками (продуктовые, web, bi) и платформой данных, вместе создавать источники данных и разметку
Наш стек:
SQL (Clickhouse/Posgres/Trino), Python, Superset, Firebase, MyTracker, Яндекс.Метрика
Чего мы ждём:
- отличное знание SQL, уверенный Python
- опыт работы в любом инструменте визуализации
- опыт проверки гипотез (АБ, CI)
- опыт аналитики клиентских путей в mobile-first продуктах, в идеале - опыт работы с сырыми данными веба/приложений
- аналитическое мышление, умение видеть за цифрами опыт пользователя
- проактивность, самостоятельность, внимание к деталям
Контакт рекрутера: @isuragin
tech.m2.ru
m2_tech
мы — команда разработки M2, создаём онлайн-платформу для решения вопросов с недвижимостью
❤1
Forwarded from Вячеслав Брыков
Ищем ML-инженера (Middle/Senior) | Part-time, Remote
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
Forwarded from Никита
Вакансия: Data-аналитик / BI-разработчик (Middle)
Компания: LIAN
Занятость: полная
Оформление: ИП/СЗ
ЗП: то 200 до 250тыс
Локация и гражданство: РФ
Формат: удаленка по РФ
Обязанности:
- Разработка и поддержка BI-отчетности (Visiology BI, Power BI, SSRS)
- Сбор и анализ требований к аналитическим витринам и отчетам
- Подготовка спецификаций и технических описаний (включая S2T-документацию)
- Проведение обследований и интервью с заказчиками, согласование требований
- Реверс-инжиниринг существующих legacy-отчетов
- Участие в согласовании функциональных спецификаций
- Анализ данных и формулирование обоснованных выводов
- Постановка уточняющих вопросов для точного понимания задач
Требования:
- Опыт работы в роли data-аналитика от 3 лет
- Отличное знание SQL и опыт работы с GreenPlum и/или PostgreSQL
- Опыт проектирования отчетных показателей и построения витрин данных
- Уверенное владение инструментом Visiology BI (ПРАКТИЧЕСКИЙ опыт)
- Навыки подготовки и согласования документации
- Опыт взаимодействия с бизнес-заказчиками, включая сбор и уточнение требований
- Умение работать с неструктурированной информацией, анализировать и систематизировать её
- Опыт анализа и реконструкции существующих BI-отчетов
Для отклика пишите в личные сообщения @yanggilla
прикрепляйте сразу CV
Компания: LIAN
Занятость: полная
Оформление: ИП/СЗ
ЗП: то 200 до 250тыс
Локация и гражданство: РФ
Формат: удаленка по РФ
Обязанности:
- Разработка и поддержка BI-отчетности (Visiology BI, Power BI, SSRS)
- Сбор и анализ требований к аналитическим витринам и отчетам
- Подготовка спецификаций и технических описаний (включая S2T-документацию)
- Проведение обследований и интервью с заказчиками, согласование требований
- Реверс-инжиниринг существующих legacy-отчетов
- Участие в согласовании функциональных спецификаций
- Анализ данных и формулирование обоснованных выводов
- Постановка уточняющих вопросов для точного понимания задач
Требования:
- Опыт работы в роли data-аналитика от 3 лет
- Отличное знание SQL и опыт работы с GreenPlum и/или PostgreSQL
- Опыт проектирования отчетных показателей и построения витрин данных
- Уверенное владение инструментом Visiology BI (ПРАКТИЧЕСКИЙ опыт)
- Навыки подготовки и согласования документации
- Опыт взаимодействия с бизнес-заказчиками, включая сбор и уточнение требований
- Умение работать с неструктурированной информацией, анализировать и систематизировать её
- Опыт анализа и реконструкции существующих BI-отчетов
Для отклика пишите в личные сообщения @yanggilla
прикрепляйте сразу CV
❤1
Forwarded from Kristina OZHEGOVA
Магистратура по Data Science от Авито и ФКН ВШЭ — осваивайте современные навыки в ML вместе с экспертами топового вуза и лидерами рынка цифровых продуктов.
Почему стоит подать заявку:
— практика на реальных digital-продуктах с миллионами пользователей;
— обучение у топов индустрии: ведущих преподавателей ВШЭ и экспертов Авито;
— применение современных инструментов для анализа данных, ML, работы с ИИ и управления проектами;
— диплом гособразца и комфортный график — очно или онлайн, удобно совмещать с работой.
Подавайте заявку и делайте буст в карьере — получите возможность работать в одной из сильнейших DS-команд на рынке: https://clck.ru/3MuNER
Получите шанс занять одно из 30 бюджетных мест и построить уникальный образовательный трек — будут актуальные дисциплины по выбору и возможность пройти оплачиваемую стажировку в Авито уже во время учёбы!
Почему стоит подать заявку:
— практика на реальных digital-продуктах с миллионами пользователей;
— обучение у топов индустрии: ведущих преподавателей ВШЭ и экспертов Авито;
— применение современных инструментов для анализа данных, ML, работы с ИИ и управления проектами;
— диплом гособразца и комфортный график — очно или онлайн, удобно совмещать с работой.
Подавайте заявку и делайте буст в карьере — получите возможность работать в одной из сильнейших DS-команд на рынке: https://clck.ru/3MuNER
❤2
Forwarded from Kristina Samko
#вакансия #vacancy #job #clickhouse #dataengineer #analyticsengineer #датаинженер #gamedev #datajob
Позиция: Analytics Data Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагман, QuizzLand, собрал 150+ млн установок и входит в топ-игр в категории Trivia.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.
Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.
В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.
Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Позиция: Analytics Data Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагман, QuizzLand, собрал 150+ млн установок и входит в топ-игр в категории Trivia.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.
Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.
В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.
Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Telegram
Kristina Samko
❤6
Forwarded from Irina Rizhkovskaya
#вакансия #удаленка #productanalyst #gamedev #casualgames
Вакансия: Product Game Analyst
Компания: Happy Games studio
Проект: игра Рецепт счастья
Формат: удаленка
Занятость: полная
ЗП: от 250 тыс рублей и выше (по компетенциям)
Грейд: middle/senior
Happy Games Studio — занимаемся разработкой казуальных free-to-play игр.
С 2016 года создаем новые проекты, экспериментируем и развиваемся.
Мы — сплоченная команда, где каждый может принимать решения и нести ответственность за свою работу.
Мы не только любим создавать игры, но и с удовольствием играем в них сами.
Задачи:
- Анализ удачности игровых апдейтов;
- Формулировка требований на сбор и хранение данных;
- Визуализация результатов анализа;
- AB-тестирование;
- Формирование маркетинговых и иных ключевых метрик продуктов;
- Создание статистических и экономических моделей поведения пользователей;
- Оптимизация и совершенствование алгоритма прогноза LTV;
- Поиск решений для увеличения удержания и монетизации проекта;
- Разбор и решение проблемных случаев;
- Ad-hoc аналитика;
Наши ожидания:
- Глубокое знание SQL;
- Опыт работы с с аналитическими библиотеками Python и Jupiter notebook;
- Отличное знание теории вероятности и математической статистики;
- Понимание ключевых маркетинговых и продуктовых метрик (LTV, ROI, ROAS, ARPU, ARPPU);
- Опыт работы с BI инструментами (мы работаем с Tableau);
- Умение быстро, грамотно и качественно составлять отчеты;
- Умение ясно и четко излагать свои мысли.
Будет плюсом:
- Опыт работы с ClickHouse;
- Опыт работы в геймдев;
- Техническое, математическое или экономическое образование;
- Критическое, бизнесовое и продуктовое мышление;
- Любовь к играм, в том числе казуальным.
Что мы предлагаем:
- Оплата труда по рынку (определяем по результатам технического собеседования);
- Социальный пакет (ДМС, days-off, sick-days);
- Возможность влиять на продукт и процессы;
- Удаленная работа из любой точки мира;
- Гибкий график работы, без тайм-трекера, главное - результат.
- Демократичная, почти семейная атмосфера в команде.
➡️ Контакт: @hr_happygames
Вакансия: Product Game Analyst
Компания: Happy Games studio
Проект: игра Рецепт счастья
Формат: удаленка
Занятость: полная
ЗП: от 250 тыс рублей и выше (по компетенциям)
Грейд: middle/senior
Happy Games Studio — занимаемся разработкой казуальных free-to-play игр.
С 2016 года создаем новые проекты, экспериментируем и развиваемся.
Мы — сплоченная команда, где каждый может принимать решения и нести ответственность за свою работу.
Мы не только любим создавать игры, но и с удовольствием играем в них сами.
Задачи:
- Анализ удачности игровых апдейтов;
- Формулировка требований на сбор и хранение данных;
- Визуализация результатов анализа;
- AB-тестирование;
- Формирование маркетинговых и иных ключевых метрик продуктов;
- Создание статистических и экономических моделей поведения пользователей;
- Оптимизация и совершенствование алгоритма прогноза LTV;
- Поиск решений для увеличения удержания и монетизации проекта;
- Разбор и решение проблемных случаев;
- Ad-hoc аналитика;
Наши ожидания:
- Глубокое знание SQL;
- Опыт работы с с аналитическими библиотеками Python и Jupiter notebook;
- Отличное знание теории вероятности и математической статистики;
- Понимание ключевых маркетинговых и продуктовых метрик (LTV, ROI, ROAS, ARPU, ARPPU);
- Опыт работы с BI инструментами (мы работаем с Tableau);
- Умение быстро, грамотно и качественно составлять отчеты;
- Умение ясно и четко излагать свои мысли.
Будет плюсом:
- Опыт работы с ClickHouse;
- Опыт работы в геймдев;
- Техническое, математическое или экономическое образование;
- Критическое, бизнесовое и продуктовое мышление;
- Любовь к играм, в том числе казуальным.
Что мы предлагаем:
- Оплата труда по рынку (определяем по результатам технического собеседования);
- Социальный пакет (ДМС, days-off, sick-days);
- Возможность влиять на продукт и процессы;
- Удаленная работа из любой точки мира;
- Гибкий график работы, без тайм-трекера, главное - результат.
- Демократичная, почти семейная атмосфера в команде.
Please open Telegram to view this post
VIEW IN TELEGRAM
LinkedIn
LinkedIn Login, Sign in | LinkedIn
Login to LinkedIn to keep in touch with people you know, share ideas, and build your career.
❤1
Forwarded from Bul IT
SQL Analyst (Middle+)
📍 Локация: РФ
💼 Формат: удалёнка (фулл-тайм)
💰 Ставка: 280 000–300 000 ₽
📅 Старт: ASAP или в течение месяца
⏳ Проект: банковский проект (инвесты, аналитика)
📃 Оформление: ИП / самозанятость
📌 Что делать:
— Разработка SQL-запросов и аналитических витрин
— Работа с хранилищами данных (PostgreSQL, Oracle, MS SQL, Greenplum, Vertica)
— Участие в ETL процессах (Airflow, Informatica Power Center)
— Построение отчётности и визуализаций (PowerBI, Tableau)
— Работа с Hadoop и большими объёмами данных
— Оптимизация SQL-запросов, построение моделей данных
— Участие в улучшении аналитической инфраструктуры банка
💻 Требования:
✅ 2+ года опыта работы с SQL и DWH
✅ Опыт построения SQL-запросов и аналитических витрин
✅ Знание PostgreSQL, Oracle, MS SQL, Greenplum, Vertica
✅ Опыт работы с ETL (Airflow, Informatica Power Center)
✅ Навыки работы с Hadoop и большими данными
✅ Умение работать с BI-инструментами: PowerBI, Tableau
✅ Умение писать оптимизированный SQL, знание PL/SQL
🌟 Будет плюсом:
➕ Опыт в банках или финтехе
➕ Опыт в ETL/BI системах в инвестиционных продуктах
➕ Знание Python или скриптов для автоматизации ETL
📩 Пиши в личку @skeldafn с кодом BD-1005, расскажу детали и отправим на проект.
#sql #bi #bank #etl #airflow #tableau #powerbi #удаленно #middle #vacancy
📍 Локация: РФ
💼 Формат: удалёнка (фулл-тайм)
💰 Ставка: 280 000–300 000 ₽
📅 Старт: ASAP или в течение месяца
⏳ Проект: банковский проект (инвесты, аналитика)
📃 Оформление: ИП / самозанятость
📌 Что делать:
— Разработка SQL-запросов и аналитических витрин
— Работа с хранилищами данных (PostgreSQL, Oracle, MS SQL, Greenplum, Vertica)
— Участие в ETL процессах (Airflow, Informatica Power Center)
— Построение отчётности и визуализаций (PowerBI, Tableau)
— Работа с Hadoop и большими объёмами данных
— Оптимизация SQL-запросов, построение моделей данных
— Участие в улучшении аналитической инфраструктуры банка
💻 Требования:
✅ 2+ года опыта работы с SQL и DWH
✅ Опыт построения SQL-запросов и аналитических витрин
✅ Знание PostgreSQL, Oracle, MS SQL, Greenplum, Vertica
✅ Опыт работы с ETL (Airflow, Informatica Power Center)
✅ Навыки работы с Hadoop и большими данными
✅ Умение работать с BI-инструментами: PowerBI, Tableau
✅ Умение писать оптимизированный SQL, знание PL/SQL
🌟 Будет плюсом:
➕ Опыт в банках или финтехе
➕ Опыт в ETL/BI системах в инвестиционных продуктах
➕ Знание Python или скриптов для автоматизации ETL
📩 Пиши в личку @skeldafn с кодом BD-1005, расскажу детали и отправим на проект.
#sql #bi #bank #etl #airflow #tableau #powerbi #удаленно #middle #vacancy
Forwarded from Daryana Gudzenko
#вакансия #vacancy #job #senior #data #DB #DBA #database #engineer #architect #administrator #blockchain #crypto #fulltime #удаленка #Match_Systems
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
❤2
Forwarded from GigaDev — разработка GigaChat
Вакансия: Deep Learning Engineer, ASR 🎧
Ищем инженера-исследователя в ML команду распознавания речи (ASR)
Мы развиваем технологии распознавания речи во всей экосистеме Сбера: от умных устройств и видео-конференций до телефонного канала и B2B-продаж
Задачи
Недавно мы выложили в open-source SSL модель GigaAM (GitHub, arXiv), а ее улучшенная версия GigaAM Max уже доступна в @smartspeech_sber_bot и умных устройствах.
Следующая амбициозная цель — донести то же качество до всех поверхностей: от высоконагруженных кол-центров до компактных CPU-моделей.
Поэтому основными задачами будут исследование методов онлайн-дистилляции, обучение потоковых моделей, ансамблирование моделей в продакшене, эксперименты с новыми архитектурами и многое другое!
Требования
- python: модульный код, ООП, concurrency, pep, тесты
- хорошее знание алгоритмов и структур данных
- понимание методов оценки качества ML-систем
- глубокие теоретические знания в DL + опыт отладки/обучения (крайне желателен multi-gpu)
- знание современных подходов в NLP/Speech
- pytorch + способность разобраться во фреймворках (lightning, NeMo, fairseq, huggingface)
- docker: сборка образов для обучения/тестирования моделей
- linux, git
Будет плюсом
- знание C++
- опыт оптимизации нейросетей для инференса
- опыт работы с crowdsource-разметкой
- базовое знание цифровой обработки сигналов
Условия
- конкурентная зарплата
- еженедельные встречи с разборами статей
- возможность преподавать на курсах по речевым технологиям (МФТИ, МГУ и другие площадки)
- возможность менторить стажеров в исследовательских проектах
- сильный отдел специалистов (от низкоуровневых алгоритмов улучшения качества звука до оптимизации инференса на CUDA). Выпускники ШАД, МФТИ, ВШЭ, Сколтех, МГУ, ex-Yandex
- молодая дружная команда: собираемся в барах, на завтраках и других активностях
- гибкий график работы, удаленка по всей России
- ДМС, зал в офисе, участие и выступления на конференциях
По вопросам и откликам — пишите @georgygospodinov
Ищем инженера-исследователя в ML команду распознавания речи (ASR)
Мы развиваем технологии распознавания речи во всей экосистеме Сбера: от умных устройств и видео-конференций до телефонного канала и B2B-продаж
Задачи
Недавно мы выложили в open-source SSL модель GigaAM (GitHub, arXiv), а ее улучшенная версия GigaAM Max уже доступна в @smartspeech_sber_bot и умных устройствах.
Следующая амбициозная цель — донести то же качество до всех поверхностей: от высоконагруженных кол-центров до компактных CPU-моделей.
Поэтому основными задачами будут исследование методов онлайн-дистилляции, обучение потоковых моделей, ансамблирование моделей в продакшене, эксперименты с новыми архитектурами и многое другое!
Требования
- python: модульный код, ООП, concurrency, pep, тесты
- хорошее знание алгоритмов и структур данных
- понимание методов оценки качества ML-систем
- глубокие теоретические знания в DL + опыт отладки/обучения (крайне желателен multi-gpu)
- знание современных подходов в NLP/Speech
- pytorch + способность разобраться во фреймворках (lightning, NeMo, fairseq, huggingface)
- docker: сборка образов для обучения/тестирования моделей
- linux, git
Будет плюсом
- знание C++
- опыт оптимизации нейросетей для инференса
- опыт работы с crowdsource-разметкой
- базовое знание цифровой обработки сигналов
Условия
- конкурентная зарплата
- еженедельные встречи с разборами статей
- возможность преподавать на курсах по речевым технологиям (МФТИ, МГУ и другие площадки)
- возможность менторить стажеров в исследовательских проектах
- сильный отдел специалистов (от низкоуровневых алгоритмов улучшения качества звука до оптимизации инференса на CUDA). Выпускники ШАД, МФТИ, ВШЭ, Сколтех, МГУ, ex-Yandex
- молодая дружная команда: собираемся в барах, на завтраках и других активностях
- гибкий график работы, удаленка по всей России
- ДМС, зал в офисе, участие и выступления на конференциях
По вопросам и откликам — пишите @georgygospodinov
❤3
Forwarded from Veronika
#вакансия #dataengineer #remote #fulltime #HFT #senior #Python #SQL
🚀 Горячая вакансия Data Engineer в HFT-проект🚀
КА: luckyhunter
Формат работы: remote
Занятость: полная занятость
Вилка: 4000-8000 usd gross (в зависимости от опыта и локации, в которой вы находитесь)
Мы ищем Data Engineer для создания и поддержки основной инфраструктуры данных торговой платформы. Вам предстоит работать с высоконагруженными системами обработки данных, обеспечивать надежность и прозрачность инфраструктуры, а также готовить систему к внедрению новых проектов в области машинного обучения.
Почему это круто:🔥
🔹 Компания заняла заметную долю рынка — до 5% торгового оборота на крупнейших криптобиржах.
🔹 Реальное влияние на мировые финансы — и алгоритмы делают рынок стабильнее и эффективнее.
🔹 Яркая команда, которая горит технологиями и сложными задачками (есть люди из Google, Bloomberg)
🎯 Что предстоит делать:
Разработка, мониторинг и масштабирование надежных дата-пайплайнов для аналитики и ML.
Обеспечение стабильности и отказоустойчивости потоков данных, включая загрузку в хранилище.
Внедрение стандартов качества данных, наблюдаемости и governance.
Сотрудничество с техническими и бизнес-командами для соответствия систем требованиям.
Оптимизация производительности SQL-запросов, workflow и инфраструктуры.
Кого ищем:
🚀 Must Have:
Опыт работы в сфере Data Engineering или backend-инфраструктуры от 5 лет;
Свободное владение Python и SQL;
Практический опыт с ClickHouse (особенно с MergeTree) или аналогами;
Знакомство с инструментами оркестрации потоков данных: Argo Workflows, Apache Airflow, Kubeflow;
Понимание архитектуры Kafka — топики, партиции, продюсеры и консьюмеры;
Опыт работы с CI/CD пайплайнами (GitLab CI, ArgoCD, GitHub Actions);
Навыки работы с системами мониторинга и BI-инструментами, такими как Grafana;
Хорошее знание английского языка от уровня B2.
🌟 Будет плюсом:
Опыт работы с AWS (S3, EKS, RDS);
Знание Kubernetes и Helm для деплоя и масштабирования;
Опыт поддержки ML-инфраструктуры, включая feature pipelines и workflow для подготовки обучающих данных.
💰 Что в оффере:
🔹 ?
🔹 Удалёнка
🔹 Релокация в Дубай – рай для криптанов ( по желанию)
🔹 Гибкий график
🔹 Топовые workations с командой
🔹 Возможность заработать на инвестициях в корпоративный фонд
📩 Резюме приносите в
тг: @veronika_vlasovets
Буду рада ответить на интересующие вас вопросы и рассказать про детали😊
🚀 Горячая вакансия Data Engineer в HFT-проект🚀
КА: luckyhunter
Формат работы: remote
Занятость: полная занятость
Вилка: 4000-8000 usd gross (в зависимости от опыта и локации, в которой вы находитесь)
Мы ищем Data Engineer для создания и поддержки основной инфраструктуры данных торговой платформы. Вам предстоит работать с высоконагруженными системами обработки данных, обеспечивать надежность и прозрачность инфраструктуры, а также готовить систему к внедрению новых проектов в области машинного обучения.
Почему это круто:🔥
🔹 Компания заняла заметную долю рынка — до 5% торгового оборота на крупнейших криптобиржах.
🔹 Реальное влияние на мировые финансы — и алгоритмы делают рынок стабильнее и эффективнее.
🔹 Яркая команда, которая горит технологиями и сложными задачками (есть люди из Google, Bloomberg)
🎯 Что предстоит делать:
Разработка, мониторинг и масштабирование надежных дата-пайплайнов для аналитики и ML.
Обеспечение стабильности и отказоустойчивости потоков данных, включая загрузку в хранилище.
Внедрение стандартов качества данных, наблюдаемости и governance.
Сотрудничество с техническими и бизнес-командами для соответствия систем требованиям.
Оптимизация производительности SQL-запросов, workflow и инфраструктуры.
Кого ищем:
🚀 Must Have:
Опыт работы в сфере Data Engineering или backend-инфраструктуры от 5 лет;
Свободное владение Python и SQL;
Практический опыт с ClickHouse (особенно с MergeTree) или аналогами;
Знакомство с инструментами оркестрации потоков данных: Argo Workflows, Apache Airflow, Kubeflow;
Понимание архитектуры Kafka — топики, партиции, продюсеры и консьюмеры;
Опыт работы с CI/CD пайплайнами (GitLab CI, ArgoCD, GitHub Actions);
Навыки работы с системами мониторинга и BI-инструментами, такими как Grafana;
Хорошее знание английского языка от уровня B2.
🌟 Будет плюсом:
Опыт работы с AWS (S3, EKS, RDS);
Знание Kubernetes и Helm для деплоя и масштабирования;
Опыт поддержки ML-инфраструктуры, включая feature pipelines и workflow для подготовки обучающих данных.
💰 Что в оффере:
🔹 ?
🔹 Удалёнка
🔹 Релокация в Дубай – рай для криптанов ( по желанию)
🔹 Гибкий график
🔹 Топовые workations с командой
🔹 Возможность заработать на инвестициях в корпоративный фонд
📩 Резюме приносите в
тг: @veronika_vlasovets
Буду рада ответить на интересующие вас вопросы и рассказать про детали😊
❤6
Forwarded from Дарья | HR
#вакансия #job #РФ #удаленно #гибрид #администраторбазданных #DBA #SQL #MSSQL #1C #CRM #ClickHouse
Администратор баз данных / DBA 🍷
Компания: Simple group - один из ведущих импортеров вина и других напитков в России, национальный дистрибьютор и ритейлер с собственной сетью винотек SimpleWine.
Формат: гибрид (Москва) или удаленка (РФ).
Занятость: полная.
▪Зона ответственности:
– Администрирование баз данных 1С:Предприятие на базе MS SQL Server, а также поддержка смежных систем (Navision BC, CRM).
– Оптимизация производительности и обеспечение отказоустойчивости.
– Регулярный мониторинг состояния СУБД, управление индексами, анализ логов и планирование ресурсов.
– Управление резервным копированием, восстановлением и безопасностью данных, аудит прав доступа.
– Автоматизация рутинных задач и интеграция процессов в CI/CD.
– Поддержка команд разработки.
– Планирование и проведение обновлений, миграций и масштабирования.
▪Необходимые компетенции:
– Опыт работы в роли DBA уровня senior/senior+ от 3-х лет.
– Глубокие знания MS SQL Server.
– Опыт работы с базами данных 1С:Предприятие - обязательно, с Navision BC и CRM-системами - как преимущество.
– Умение работать с ClickHouse будет плюсом.
▪Мы предлагаем:
– Оформление в аккредитованную ИТ-компанию.
– Программу ДМС со стоматологией.
– Корпоративные скидки на товары компании, партнёрские программы.
– Развитую корпоративную культуру: быстрый оффер, подарки, винные дегустации.
– Wine tech: фокус на прорывные проекты в винном ритейле с т.зр. технологий, поощрение инициатив, возможности внутреннего и внешнего обучения.
📩 Отправляй резюме – @ds_fedorova , [email protected]
Администратор баз данных / DBA 🍷
Компания: Simple group - один из ведущих импортеров вина и других напитков в России, национальный дистрибьютор и ритейлер с собственной сетью винотек SimpleWine.
Формат: гибрид (Москва) или удаленка (РФ).
Занятость: полная.
▪Зона ответственности:
– Администрирование баз данных 1С:Предприятие на базе MS SQL Server, а также поддержка смежных систем (Navision BC, CRM).
– Оптимизация производительности и обеспечение отказоустойчивости.
– Регулярный мониторинг состояния СУБД, управление индексами, анализ логов и планирование ресурсов.
– Управление резервным копированием, восстановлением и безопасностью данных, аудит прав доступа.
– Автоматизация рутинных задач и интеграция процессов в CI/CD.
– Поддержка команд разработки.
– Планирование и проведение обновлений, миграций и масштабирования.
▪Необходимые компетенции:
– Опыт работы в роли DBA уровня senior/senior+ от 3-х лет.
– Глубокие знания MS SQL Server.
– Опыт работы с базами данных 1С:Предприятие - обязательно, с Navision BC и CRM-системами - как преимущество.
– Умение работать с ClickHouse будет плюсом.
▪Мы предлагаем:
– Оформление в аккредитованную ИТ-компанию.
– Программу ДМС со стоматологией.
– Корпоративные скидки на товары компании, партнёрские программы.
– Развитую корпоративную культуру: быстрый оффер, подарки, винные дегустации.
– Wine tech: фокус на прорывные проекты в винном ритейле с т.зр. технологий, поощрение инициатив, возможности внутреннего и внешнего обучения.
📩 Отправляй резюме – @ds_fedorova , [email protected]
❤1
Forwarded from Jin Yu ᶠʳᵒᵐ ᵗʰᵉ ᶠᵃᴵᴵ 🥟🥝
#Вакансия #удаленно #devops #remote #middle #data
⠀
Вакансия: Инженер эксплуатации сервисов данных (mid+)
Компания: СберЗдоровье
Формат работы: удаленно на территории РФ
Вилка: 250 000 — 340 000 ₽/мес на руки
⠀
СберЗдоровье - аккредитованная IT-компания, крупнейшая в России Digital Health платформа, объединяющая различные сервисы цифровой медицины.
Сервис начал свою работу в 2012 году под брендом DocDoc. Мы помогли миллионам людей получить помощь и продолжаем повышать качество медицинских услуг.
Об IT в цифрах:
-3 бизнес-направления;
- 23+ команды;
- 320+ IT специалистов (devops, manual/auto QA, web/mobile devs, backend devs, аналитики, архитекторы и др.) из 40+ городов.
Стек технологий:
Greenplum, ClickHouse, Trino, Apache Iceberg
Yandex Cloud, SberCloud
Kubernetes, Argo CD
Debezium, Kafka
Dagster/Airflow
Airbyte
В нашей команде тебе предстоит проектировать инфраструктуру, которая станет основой для работы с данными в масштабах всей компании.
Если ты любишь сложные вызовы, хочешь влиять на архитектурные решения и расти в сильной команде экспертов – будем рады познакомиться!
Обязанности:
- Миграция инфраструктуры данных из Yandex Cloud в SberCloud
- Развертывание и поддержка Trino + Iceberg, Kafka Connect, Debezium и тп
- Поддержка и развитие оркестрации (Dagster/Airflow в Kubernetes)
- Автоматизация развертывания сервисов (Argo CD, Docker)
Что важно уметь:
- Опыт работы с платформой данных
- Опыт работы в Kubernetes (развертывание сервисов, troubleshooting)
- Умение работать с IaC-подходами и git-воркфлоу
- Опыт настойки мониторинга и логирования
Будет плюсом:
- Настройка Kafka Connect
- Настройка и оптимизация кастомных метрик для Debezium/Kafka
- Опыт с ML-стеком (DVC, MLflow, SeldonCore, LangChain, n8n, kubeflow)
Что тебе может дать СберЗдоровье:
-Сильную команду профессионалов, увлеченных своим делом;
-Возможность развития в команде ведущей MedTech-компании России.
-Полный рабочий день, удаленный график;
-Если захочется у нас есть уютный офис в БЦ Technopark Plaza с панорамным видом на город;
-Медицинская программа, включающая телемедицинские консультации, очные приёмы в клиниках, психологов, стоматологию, лабораторные и инструментальные диагностики;
-Оплачиваемые курсы английского языка;
-Бесплатные занятия спортом: сквош, футбол, беговой клуб;
-Компенсация спортивного абонемента;
-СберУниверситет и оплата профильного обучения и курсов
Приятное дополнение:
-Всегда поддержим, если ты захочешь посетить профильные конференции, и, тем более, выступить на них.
-Мы общаемся на “ты”, не любим бюрократию и всегда помогаем друг другу.
Контакт для связи: @irina_comm
⠀
Вакансия: Инженер эксплуатации сервисов данных (mid+)
Компания: СберЗдоровье
Формат работы: удаленно на территории РФ
Вилка: 250 000 — 340 000 ₽/мес на руки
⠀
СберЗдоровье - аккредитованная IT-компания, крупнейшая в России Digital Health платформа, объединяющая различные сервисы цифровой медицины.
Сервис начал свою работу в 2012 году под брендом DocDoc. Мы помогли миллионам людей получить помощь и продолжаем повышать качество медицинских услуг.
Об IT в цифрах:
-3 бизнес-направления;
- 23+ команды;
- 320+ IT специалистов (devops, manual/auto QA, web/mobile devs, backend devs, аналитики, архитекторы и др.) из 40+ городов.
Стек технологий:
Greenplum, ClickHouse, Trino, Apache Iceberg
Yandex Cloud, SberCloud
Kubernetes, Argo CD
Debezium, Kafka
Dagster/Airflow
Airbyte
В нашей команде тебе предстоит проектировать инфраструктуру, которая станет основой для работы с данными в масштабах всей компании.
Если ты любишь сложные вызовы, хочешь влиять на архитектурные решения и расти в сильной команде экспертов – будем рады познакомиться!
Обязанности:
- Миграция инфраструктуры данных из Yandex Cloud в SberCloud
- Развертывание и поддержка Trino + Iceberg, Kafka Connect, Debezium и тп
- Поддержка и развитие оркестрации (Dagster/Airflow в Kubernetes)
- Автоматизация развертывания сервисов (Argo CD, Docker)
Что важно уметь:
- Опыт работы с платформой данных
- Опыт работы в Kubernetes (развертывание сервисов, troubleshooting)
- Умение работать с IaC-подходами и git-воркфлоу
- Опыт настойки мониторинга и логирования
Будет плюсом:
- Настройка Kafka Connect
- Настройка и оптимизация кастомных метрик для Debezium/Kafka
- Опыт с ML-стеком (DVC, MLflow, SeldonCore, LangChain, n8n, kubeflow)
Что тебе может дать СберЗдоровье:
-Сильную команду профессионалов, увлеченных своим делом;
-Возможность развития в команде ведущей MedTech-компании России.
-Полный рабочий день, удаленный график;
-Если захочется у нас есть уютный офис в БЦ Technopark Plaza с панорамным видом на город;
-Медицинская программа, включающая телемедицинские консультации, очные приёмы в клиниках, психологов, стоматологию, лабораторные и инструментальные диагностики;
-Оплачиваемые курсы английского языка;
-Бесплатные занятия спортом: сквош, футбол, беговой клуб;
-Компенсация спортивного абонемента;
-СберУниверситет и оплата профильного обучения и курсов
Приятное дополнение:
-Всегда поддержим, если ты захочешь посетить профильные конференции, и, тем более, выступить на них.
-Мы общаемся на “ты”, не любим бюрократию и всегда помогаем друг другу.
Контакт для связи: @irina_comm
⚡3❤3
Forwarded from Олег
Инженер данных DWH в Маркет
Яндекс
Senior
Москва / Санкт-Петербург / Минск (гибрид)
Кажется, сегодня тот самый день, когда стоит попробовать свои силы в Яндекс Маркете!
У нас ты сможешь развиваться в дата-инженерии DWH.
Технологически ядро хранилища построено на системах хранения данных YTsaurus и СlickHouse. Разработка процессов ETL идёт на собственном фреймворке, который создан внутри Яндекса. Наше хранилище сейчас самое крупное среди всех подразделений Яндекса — порядка 30 петабайт, и дальше будет только расширяться)
Какие задачи вас ждут
• вести разработку ETL-процессов поставки данных;
• выявлять неэффективность в существующих процессах и оптимизировать их;
• проектировать структуру хранения данных;
• участвовать в развитии фреймворка поставки данных;
• погружаться в данные одной из прикладных бизнес-областей и становиться в них экспертом;
• сопровождать разработанные процессы ETL.
Мы ждем, что вы
• уверенно знаете Python на уровне написания собственного фреймворка или SQL на уровне оптимизации запросов;
• знаете основные алгоритмы и структуры данных, особенно используемые в области работы с большими данными.
Будет плюсом, если вы
• проектировали DWH: слои, модели хранения данных, процессы ETL;
• понимаете принципы работы хотя бы одной технологии распределенной обработки данных: Hadoop, ClickHouse;
• имеете опыт промышленной разработки на одном из языков высокого уровня: Java или C++;
• умеете работать в командной строке систем Unix-like: Linux, macOS.
Что мы предлагаем
• современный офис, в котором есть вся необходимая инфраструктура для комфортной работы и отдыха;
• официальное трудоустройство, компенсация оплаты питания на территории кампуса и в его окрестностях;
• гибкий график: мы не контролируем ваше время, главное — выполнять задачи;
• профессиональная команда, у которой можно многому научиться и перенять опыт;
• культура открытости и взаимопомощи: у нас работают увлечённые люди, небезразличные к тому, что они делают;
• высокая скорость процессов и возможность быстро увидеть свой вклад;
• работа в технологической компании, которая создаёт сервисы, приносящие пользу миллионам людей.
Если это вы, откликайтесь на сайте или пишите @maria_danilyuk ✍️
Яндекс
Senior
Москва / Санкт-Петербург / Минск (гибрид)
Кажется, сегодня тот самый день, когда стоит попробовать свои силы в Яндекс Маркете!
У нас ты сможешь развиваться в дата-инженерии DWH.
Технологически ядро хранилища построено на системах хранения данных YTsaurus и СlickHouse. Разработка процессов ETL идёт на собственном фреймворке, который создан внутри Яндекса. Наше хранилище сейчас самое крупное среди всех подразделений Яндекса — порядка 30 петабайт, и дальше будет только расширяться)
Какие задачи вас ждут
• вести разработку ETL-процессов поставки данных;
• выявлять неэффективность в существующих процессах и оптимизировать их;
• проектировать структуру хранения данных;
• участвовать в развитии фреймворка поставки данных;
• погружаться в данные одной из прикладных бизнес-областей и становиться в них экспертом;
• сопровождать разработанные процессы ETL.
Мы ждем, что вы
• уверенно знаете Python на уровне написания собственного фреймворка или SQL на уровне оптимизации запросов;
• знаете основные алгоритмы и структуры данных, особенно используемые в области работы с большими данными.
Будет плюсом, если вы
• проектировали DWH: слои, модели хранения данных, процессы ETL;
• понимаете принципы работы хотя бы одной технологии распределенной обработки данных: Hadoop, ClickHouse;
• имеете опыт промышленной разработки на одном из языков высокого уровня: Java или C++;
• умеете работать в командной строке систем Unix-like: Linux, macOS.
Что мы предлагаем
• современный офис, в котором есть вся необходимая инфраструктура для комфортной работы и отдыха;
• официальное трудоустройство, компенсация оплаты питания на территории кампуса и в его окрестностях;
• гибкий график: мы не контролируем ваше время, главное — выполнять задачи;
• профессиональная команда, у которой можно многому научиться и перенять опыт;
• культура открытости и взаимопомощи: у нас работают увлечённые люди, небезразличные к тому, что они делают;
• высокая скорость процессов и возможность быстро увидеть свой вклад;
• работа в технологической компании, которая создаёт сервисы, приносящие пользу миллионам людей.
Если это вы, откликайтесь на сайте или пишите @maria_danilyuk ✍️
❤3
Forwarded from Marina Ilinikh_HR
Добрый день!м у вас в канале можно вакансию разместить?
Мы в поисках Senior Data Analyst
Зарплата: 4500$
условия работы: ремоут
Опыт 5+ лет Английский B1
Оплата: ставка $4500 + фиксированные бонусы за выполнение KPI
Задачи:
Полный цикл разработки и программирования регулярных отчетов
Определение гипотезы и способа ее внедрения в бизнес-процесс через +1 отчет Обсуждение с участниками процесса, действительно ли им это нужно и как лучше сделать
PoC и тестирование его с участниками процесса
Выведение в прод, поддержка работоспособности отчета, доработки по обратной связи, декомиссия
Самостоятельное тестирование гипотез и подготовка готовых решений по улучшению процесса
Написание необходимого кода для аналитических экспериментов (скрейпинг, подключение по API etc)
Участие в разработке внутренних продуктов с агоритмической/ИИ/статистической составляющей
Ad-hoc аналитика и расследования кейсов падения прибыли/нештатной работы систем и процессов
Создание системы бизнес-мониторинга и эскалации при аномалиях
Стек
Экспертное знание SQL, опыт работы с датасетами больше миллиарда строк
Уверенное знание Python, включая обработку, визуализацию, исследование данных
Активное использование ИИ в написании запросов и обработке данных
Опыт самостоятельного нахождения инсайтов и улучшения бизнес-процессов
желательно
Опыт руководства командой аналитиков
Track record в соревновательном программировании, победы в олимпиадах
Опыт в нише, где технология была конкурентным преимуществом (HFT/массовый скрейпинг/антифрод/покерные боты etc)
и еще:)
"Хакерское" мышление, поиск неочевидных способов собрать и извлечь данные, готовность к тому, что вылизанных API и детальных ТЗ никогда не будет
Если Вам интересна пишите в тг.
tg: @firysh
Мы в поисках Senior Data Analyst
Зарплата: 4500$
условия работы: ремоут
Опыт 5+ лет Английский B1
Оплата: ставка $4500 + фиксированные бонусы за выполнение KPI
Задачи:
Полный цикл разработки и программирования регулярных отчетов
Определение гипотезы и способа ее внедрения в бизнес-процесс через +1 отчет Обсуждение с участниками процесса, действительно ли им это нужно и как лучше сделать
PoC и тестирование его с участниками процесса
Выведение в прод, поддержка работоспособности отчета, доработки по обратной связи, декомиссия
Самостоятельное тестирование гипотез и подготовка готовых решений по улучшению процесса
Написание необходимого кода для аналитических экспериментов (скрейпинг, подключение по API etc)
Участие в разработке внутренних продуктов с агоритмической/ИИ/статистической составляющей
Ad-hoc аналитика и расследования кейсов падения прибыли/нештатной работы систем и процессов
Создание системы бизнес-мониторинга и эскалации при аномалиях
Стек
Экспертное знание SQL, опыт работы с датасетами больше миллиарда строк
Уверенное знание Python, включая обработку, визуализацию, исследование данных
Активное использование ИИ в написании запросов и обработке данных
Опыт самостоятельного нахождения инсайтов и улучшения бизнес-процессов
желательно
Опыт руководства командой аналитиков
Track record в соревновательном программировании, победы в олимпиадах
Опыт в нише, где технология была конкурентным преимуществом (HFT/массовый скрейпинг/антифрод/покерные боты etc)
и еще:)
"Хакерское" мышление, поиск неочевидных способов собрать и извлечь данные, готовность к тому, что вылизанных API и детальных ТЗ никогда не будет
Если Вам интересна пишите в тг.
tg: @firysh
Forwarded from Kristina Lao-Olivares
#удаленка #remote #вакансия #vacancy #fulltime #middle
#продуктовыйаналитик #productanalyst
#mobile
Продуктовый аналитик (subscription-based mobile App)🙂
✅ Компания:
Gradient-
мобильное приложение для редактирования фото и видео с применением AI
Самое скачиваемое приложение в мире за месяц в 2019, 2020 годах
Best of 2019 среди приложений по версии Apple
✅ Вилка зп: От 300.000 до 350.000 руб. На руки
✅ Локация: Удаленка по миру
✅ Занятость: Полная 5/2 (12-21 Мск)
✅ Условия: Оформление по b2b контракту
✅ Вам предстоит:
-Принимать ключевые продуктовые решения, превращая данные в ценные инсайты, формирующие стратегию
-Сотрудничать с продуктовыми командами для постановки целей, выбора метрик и отслеживания прогресса
-Влиять на развитие функций и экспериментов, опираясь на аналитику
-Создавать динамичные дашборды для визуализации и отслеживания ключевых показателей
✅ Мы ожидаем что у Вас есть опыт:
-От 3 лет опыта работы аналитиком продукта или данных в сфере b2c subscription-based mobile приложений
-Глубокое понимание продуктовых метрик и умение превращать их в конкретные действия
-Умение работать в динамичной среде и быстро достигать ощутимых результатов
-Опыт создания аналитических заметок, отчетов, выстраивания дашбордов
-Отличное знание математики, статистики, подходов к анализу данных и тестированию гипотез
-Уверенное владение продуктами мобильной аналитики (Amplitude, Appmetrica и пр.)
-Интерес к AI и понимание, как его можно использовать для принятия оптимальных продуктовых решений
Будет плюсом:
-Знание SQL, включая написание сложных запросов и самостоятельную работу с данными
-Опыт аналитики User Acquisition (AppsFlyer, Adjust)
Мы предлагаем:
-Удаленная работа по миру
-Увлеченная команда настоящих профи
-Атмосфера стартапа из Кремниевой Долины
-Участие в разработке популярных приложений с большим количеством пользователей
📱 Жду резюме в личные сообщения ❤️ :
@kriskrisych (Кристина)
#продуктовыйаналитик #productanalyst
#mobile
Продуктовый аналитик (subscription-based mobile App)🙂
Gradient-
мобильное приложение для редактирования фото и видео с применением AI
Самое скачиваемое приложение в мире за месяц в 2019, 2020 годах
Best of 2019 среди приложений по версии Apple
-Принимать ключевые продуктовые решения, превращая данные в ценные инсайты, формирующие стратегию
-Сотрудничать с продуктовыми командами для постановки целей, выбора метрик и отслеживания прогресса
-Влиять на развитие функций и экспериментов, опираясь на аналитику
-Создавать динамичные дашборды для визуализации и отслеживания ключевых показателей
-От 3 лет опыта работы аналитиком продукта или данных в сфере b2c subscription-based mobile приложений
-Глубокое понимание продуктовых метрик и умение превращать их в конкретные действия
-Умение работать в динамичной среде и быстро достигать ощутимых результатов
-Опыт создания аналитических заметок, отчетов, выстраивания дашбордов
-Отличное знание математики, статистики, подходов к анализу данных и тестированию гипотез
-Уверенное владение продуктами мобильной аналитики (Amplitude, Appmetrica и пр.)
-Интерес к AI и понимание, как его можно использовать для принятия оптимальных продуктовых решений
Будет плюсом:
-Знание SQL, включая написание сложных запросов и самостоятельную работу с данными
-Опыт аналитики User Acquisition (AppsFlyer, Adjust)
Мы предлагаем:
-Удаленная работа по миру
-Увлеченная команда настоящих профи
-Атмосфера стартапа из Кремниевой Долины
-Участие в разработке популярных приложений с большим количеством пользователей
@kriskrisych (Кристина)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from Константин
#вакансия #vacancy #ищу #job #DevOps #middle #senior #remote #удаленно #Hadoop #Hive #Spark
Компания: "InfoTel"
Город: Москва
Должность: DevOps Engineer
Формат работы: Удаленный, неполная занятость
Зарплата: Обсуждается индивидуально
О нас: мы — IT-компания, разрабатывающая озеро данных для небольшой телекоммуникационной организации. Ищем в команду опытного DevOps Engineer уровня Middle+ для усиления проекта.
Обязанности:
Аудит кластера и помощь с документацией;
Доработка открытых решений из экосистемы Hadoop;
Текущая структура кластера:
Hadoop (с HDFS).
Hive (с Tez).
Что мы ждем от кандидата:
Опыт работы с Hadoop, Hive, Tez;
Знание Python, Java, SQL;
Опыт работы с Linux;
Условия работы:
Неполная занятость с гибким графиком;
Удаленный формат;
Конкурентоспособная зарплата —
обсуждается индивидуально.
Если вы амбициозны, любите новые технологии и хотите стать частью нашей команды, отправьте резюме. Мы ищем талантливых специалистов!
Отправьте резюме в Telegram по адресу @KonstantinAnalyst, или в WhatsApp по номеру +7 932 123 53 15.
Компания: "InfoTel"
Город: Москва
Должность: DevOps Engineer
Формат работы: Удаленный, неполная занятость
Зарплата: Обсуждается индивидуально
О нас: мы — IT-компания, разрабатывающая озеро данных для небольшой телекоммуникационной организации. Ищем в команду опытного DevOps Engineer уровня Middle+ для усиления проекта.
Обязанности:
Аудит кластера и помощь с документацией;
Доработка открытых решений из экосистемы Hadoop;
Текущая структура кластера:
Hadoop (с HDFS).
Hive (с Tez).
Что мы ждем от кандидата:
Опыт работы с Hadoop, Hive, Tez;
Знание Python, Java, SQL;
Опыт работы с Linux;
Условия работы:
Неполная занятость с гибким графиком;
Удаленный формат;
Конкурентоспособная зарплата —
обсуждается индивидуально.
Если вы амбициозны, любите новые технологии и хотите стать частью нашей команды, отправьте резюме. Мы ищем талантливых специалистов!
Отправьте резюме в Telegram по адресу @KonstantinAnalyst, или в WhatsApp по номеру +7 932 123 53 15.
❤1
Forwarded from Anya
Компания HighSky в поиске
Senior Data Engineer
Вилка: 4000-7000$
Мы - динамично развивающийся стартап, решающий различные задачи AI: генерации текста, аудио и видео, также решаем задачи по обогащению данных: сбор данных из соцсетей, видеохостингов и тд. В том числе работаем с задачами, связанными с блокчейном.
Мы осуществляем полный цикл работы над продуктом: от анализа бизнес-задачи до вывода в продакшн полноценного решения, также осуществляем поддержку и мониторинг работающих решений. Находимся в поиске DE
Чем предстоит заниматься:
Проектирование и написание ETL пайплайнов для различных задач машинного обучения и анализа данных
Проектирование и построение внутренней аналитической системы
Скачивание данных с публичных api и парсинг сайтов
Извлечение информации из собранных блокчейн-данных. Построение витрин блокчейн-данных для аналитики
Требования к кандидату:
Уверенное знание Python, SQL
Опыт работы от 3 лет; опыт разработки на Python от 1 года
Опыт работы с различными типами БД (наш стек: Postgres, Clickhouse, Redis,
Понимание принципов работы BI-систем (например, Power BI, Tableau, Superset) и систем мониторинга (Grafana, Datadog) и опыт работы с некоторыми из них
Знание основ System Design
Высшее образование в области компьютерных технологий / статистики / прикладной математики и (или) прикладной информатики / инженерных наук;
Английский язык B2 и выше.
Будет плюсом:
Опыт работы с ML-проектами
Опыт работы с блокчейн-данными
Что мы предлагаем:
Участие в разработке динамично развивающегося продукта, работающего на рынке в реальном времени;
Справедливую заработную плату по результатам собеседования и вашей квалификации в вилке 4-7К$;
Возможность прокачивать свою экспертизу за счет работы с топовыми коллегами и обучения в моменте;
Классный молодой коллектив профессионалов, заряженных на результат. Ценим порядочность, честность и открытость;
Горизонтальную структуру, отсутствие бюрократии и синдромов «больших начальников»;
Контакт: @dybovanya
Senior Data Engineer
Вилка: 4000-7000$
Мы - динамично развивающийся стартап, решающий различные задачи AI: генерации текста, аудио и видео, также решаем задачи по обогащению данных: сбор данных из соцсетей, видеохостингов и тд. В том числе работаем с задачами, связанными с блокчейном.
Мы осуществляем полный цикл работы над продуктом: от анализа бизнес-задачи до вывода в продакшн полноценного решения, также осуществляем поддержку и мониторинг работающих решений. Находимся в поиске DE
Чем предстоит заниматься:
Проектирование и написание ETL пайплайнов для различных задач машинного обучения и анализа данных
Проектирование и построение внутренней аналитической системы
Скачивание данных с публичных api и парсинг сайтов
Извлечение информации из собранных блокчейн-данных. Построение витрин блокчейн-данных для аналитики
Требования к кандидату:
Уверенное знание Python, SQL
Опыт работы от 3 лет; опыт разработки на Python от 1 года
Опыт работы с различными типами БД (наш стек: Postgres, Clickhouse, Redis,
Понимание принципов работы BI-систем (например, Power BI, Tableau, Superset) и систем мониторинга (Grafana, Datadog) и опыт работы с некоторыми из них
Знание основ System Design
Высшее образование в области компьютерных технологий / статистики / прикладной математики и (или) прикладной информатики / инженерных наук;
Английский язык B2 и выше.
Будет плюсом:
Опыт работы с ML-проектами
Опыт работы с блокчейн-данными
Что мы предлагаем:
Участие в разработке динамично развивающегося продукта, работающего на рынке в реальном времени;
Справедливую заработную плату по результатам собеседования и вашей квалификации в вилке 4-7К$;
Возможность прокачивать свою экспертизу за счет работы с топовыми коллегами и обучения в моменте;
Классный молодой коллектив профессионалов, заряженных на результат. Ценим порядочность, честность и открытость;
Горизонтальную структуру, отсутствие бюрократии и синдромов «больших начальников»;
Контакт: @dybovanya
❤8