Forwarded from Anna Kolpak
Data Engineer
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
Forwarded from Sergey Ivanychev
#вакансия #job #vacancy #remote #fulltime #Spark #Python #ClickHouse
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Workable
Senior Data Engineer: Data Infrastructure - Constructor
About usConstructor is the next-generation platform for search and discovery in e-commerce, built to explicitly optimize for metrics like revenue, conversion rate, and profit. Our search engine is entirely invented in-house utilizing transformers and g...
Forwarded from Anton Solomonov
📊 Вакансия: Ищем аналитика в отдел по работе с ключевыми клиентами (e-commerce)
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
Forwarded from Daryana Gudzenko
#вакансия #vacancy #job #senior #data #DB #DBA #database #engineer #architect #administrator #blockchain #crypto #fulltime #удаленка #Match_Systems
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия #Москва
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Forwarded from Bul IT
Ищу Database Administrator
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
Forwarded from Trino и CedrusData
Всем привет! В следующий четверг 26 июня мы проведем очередной онлайн-митап по lakehouse технологиям. В программе два доклада:
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
cedrusdata.timepad.ru
Lakehouse Meetup #4: аналитическая экосистема на основе Trino в Avito, архитектура и возможности CedrusData Catalog / События на…
Обсудим, как за последние два года Avito выстроил аналитическую экосистему вокруг Trino, и рассмотрим внутреннее устройство и возможности CedrusData Catalog — современного бесплатного каталога для lakehouse-платформ.
Митап организован компанией Querify Labs…
Митап организован компанией Querify Labs…
Forwarded from Oleg Ryabov
#вакансия #vacancy #ищу #job # DevOps#middle# senior #remote #удаленно#Hadoop#Hive#Spark
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
Ищу к себе в команду стажера
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
hh.ru
Вакансия Инженер по данным - стажер в Москве, работа в компании РТЛабс
Зарплата: не указана. Москва. Требуемый опыт: 1–3 года. Полная. Дата публикации: 19.06.2025.
Forwarded from Даша
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Forwarded from Никита
Вакансия: Data Engineer Senior
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Forwarded from Лиза Рузанова
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Forwarded from Eva
Вакансия: Продуктовый аналитик на продукт ЛК (web+mobile)
Компания: М2
Чем предстоит заниматься:
- анализировать поведение клиентов в ЛК на платформах web/mobile
- участвовать в генерации гипотез командой ЛК, придумывать способы их оценки и проверки
- взаимодействовать с другими аналитиками (продуктовые, web, bi) и платформой данных, вместе создавать источники данных и разметку
Наш стек:
SQL (Clickhouse/Posgres/Trino), Python, Superset, Firebase, MyTracker, Яндекс.Метрика
Чего мы ждём:
- отличное знание SQL, уверенный Python
- опыт работы в любом инструменте визуализации
- опыт проверки гипотез (АБ, CI)
- опыт аналитики клиентских путей в mobile-first продуктах, в идеале - опыт работы с сырыми данными веба/приложений
- аналитическое мышление, умение видеть за цифрами опыт пользователя
- проактивность, самостоятельность, внимание к деталям
Контакт рекрутера: @isuragin
Компания: М2
Чем предстоит заниматься:
- анализировать поведение клиентов в ЛК на платформах web/mobile
- участвовать в генерации гипотез командой ЛК, придумывать способы их оценки и проверки
- взаимодействовать с другими аналитиками (продуктовые, web, bi) и платформой данных, вместе создавать источники данных и разметку
Наш стек:
SQL (Clickhouse/Posgres/Trino), Python, Superset, Firebase, MyTracker, Яндекс.Метрика
Чего мы ждём:
- отличное знание SQL, уверенный Python
- опыт работы в любом инструменте визуализации
- опыт проверки гипотез (АБ, CI)
- опыт аналитики клиентских путей в mobile-first продуктах, в идеале - опыт работы с сырыми данными веба/приложений
- аналитическое мышление, умение видеть за цифрами опыт пользователя
- проактивность, самостоятельность, внимание к деталям
Контакт рекрутера: @isuragin
tech.m2.ru
m2_tech
мы — команда разработки M2, создаём онлайн-платформу для решения вопросов с недвижимостью
Forwarded from Вячеслав Брыков
Ищем ML-инженера (Middle/Senior) | Part-time, Remote
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
Forwarded from Никита
Вакансия: Data-аналитик / BI-разработчик (Middle)
Компания: LIAN
Занятость: полная
Оформление: ИП/СЗ
ЗП: то 200 до 250тыс
Локация и гражданство: РФ
Формат: удаленка по РФ
Обязанности:
- Разработка и поддержка BI-отчетности (Visiology BI, Power BI, SSRS)
- Сбор и анализ требований к аналитическим витринам и отчетам
- Подготовка спецификаций и технических описаний (включая S2T-документацию)
- Проведение обследований и интервью с заказчиками, согласование требований
- Реверс-инжиниринг существующих legacy-отчетов
- Участие в согласовании функциональных спецификаций
- Анализ данных и формулирование обоснованных выводов
- Постановка уточняющих вопросов для точного понимания задач
Требования:
- Опыт работы в роли data-аналитика от 3 лет
- Отличное знание SQL и опыт работы с GreenPlum и/или PostgreSQL
- Опыт проектирования отчетных показателей и построения витрин данных
- Уверенное владение инструментом Visiology BI (ПРАКТИЧЕСКИЙ опыт)
- Навыки подготовки и согласования документации
- Опыт взаимодействия с бизнес-заказчиками, включая сбор и уточнение требований
- Умение работать с неструктурированной информацией, анализировать и систематизировать её
- Опыт анализа и реконструкции существующих BI-отчетов
Для отклика пишите в личные сообщения @yanggilla
прикрепляйте сразу CV
Компания: LIAN
Занятость: полная
Оформление: ИП/СЗ
ЗП: то 200 до 250тыс
Локация и гражданство: РФ
Формат: удаленка по РФ
Обязанности:
- Разработка и поддержка BI-отчетности (Visiology BI, Power BI, SSRS)
- Сбор и анализ требований к аналитическим витринам и отчетам
- Подготовка спецификаций и технических описаний (включая S2T-документацию)
- Проведение обследований и интервью с заказчиками, согласование требований
- Реверс-инжиниринг существующих legacy-отчетов
- Участие в согласовании функциональных спецификаций
- Анализ данных и формулирование обоснованных выводов
- Постановка уточняющих вопросов для точного понимания задач
Требования:
- Опыт работы в роли data-аналитика от 3 лет
- Отличное знание SQL и опыт работы с GreenPlum и/или PostgreSQL
- Опыт проектирования отчетных показателей и построения витрин данных
- Уверенное владение инструментом Visiology BI (ПРАКТИЧЕСКИЙ опыт)
- Навыки подготовки и согласования документации
- Опыт взаимодействия с бизнес-заказчиками, включая сбор и уточнение требований
- Умение работать с неструктурированной информацией, анализировать и систематизировать её
- Опыт анализа и реконструкции существующих BI-отчетов
Для отклика пишите в личные сообщения @yanggilla
прикрепляйте сразу CV
Forwarded from Kristina OZHEGOVA
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kristina Samko
#вакансия #vacancy #job #clickhouse #dataengineer #analyticsengineer #датаинженер #gamedev #datajob
Позиция: Analytics Data Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагман, QuizzLand, собрал 150+ млн установок и входит в топ-игр в категории Trivia.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.
Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.
В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.
Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Позиция: Analytics Data Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагман, QuizzLand, собрал 150+ млн установок и входит в топ-игр в категории Trivia.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.
Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.
В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.
Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Telegram
Kristina Samko
Forwarded from Irina Rizhkovskaya
#вакансия #удаленка #productanalyst #gamedev #casualgames
Вакансия: Product Game Analyst
Компания: Happy Games studio
Проект: игра Рецепт счастья
Формат: удаленка
Занятость: полная
ЗП: от 250 тыс рублей и выше (по компетенциям)
Грейд: middle/senior
Happy Games Studio — занимаемся разработкой казуальных free-to-play игр.
С 2016 года создаем новые проекты, экспериментируем и развиваемся.
Мы — сплоченная команда, где каждый может принимать решения и нести ответственность за свою работу.
Мы не только любим создавать игры, но и с удовольствием играем в них сами.
Задачи:
- Анализ удачности игровых апдейтов;
- Формулировка требований на сбор и хранение данных;
- Визуализация результатов анализа;
- AB-тестирование;
- Формирование маркетинговых и иных ключевых метрик продуктов;
- Создание статистических и экономических моделей поведения пользователей;
- Оптимизация и совершенствование алгоритма прогноза LTV;
- Поиск решений для увеличения удержания и монетизации проекта;
- Разбор и решение проблемных случаев;
- Ad-hoc аналитика;
Наши ожидания:
- Глубокое знание SQL;
- Опыт работы с с аналитическими библиотеками Python и Jupiter notebook;
- Отличное знание теории вероятности и математической статистики;
- Понимание ключевых маркетинговых и продуктовых метрик (LTV, ROI, ROAS, ARPU, ARPPU);
- Опыт работы с BI инструментами (мы работаем с Tableau);
- Умение быстро, грамотно и качественно составлять отчеты;
- Умение ясно и четко излагать свои мысли.
Будет плюсом:
- Опыт работы с ClickHouse;
- Опыт работы в геймдев;
- Техническое, математическое или экономическое образование;
- Критическое, бизнесовое и продуктовое мышление;
- Любовь к играм, в том числе казуальным.
Что мы предлагаем:
- Оплата труда по рынку (определяем по результатам технического собеседования);
- Социальный пакет (ДМС, days-off, sick-days);
- Возможность влиять на продукт и процессы;
- Удаленная работа из любой точки мира;
- Гибкий график работы, без тайм-трекера, главное - результат.
- Демократичная, почти семейная атмосфера в команде.
➡️ Контакт: @hr_happygames
Вакансия: Product Game Analyst
Компания: Happy Games studio
Проект: игра Рецепт счастья
Формат: удаленка
Занятость: полная
ЗП: от 250 тыс рублей и выше (по компетенциям)
Грейд: middle/senior
Happy Games Studio — занимаемся разработкой казуальных free-to-play игр.
С 2016 года создаем новые проекты, экспериментируем и развиваемся.
Мы — сплоченная команда, где каждый может принимать решения и нести ответственность за свою работу.
Мы не только любим создавать игры, но и с удовольствием играем в них сами.
Задачи:
- Анализ удачности игровых апдейтов;
- Формулировка требований на сбор и хранение данных;
- Визуализация результатов анализа;
- AB-тестирование;
- Формирование маркетинговых и иных ключевых метрик продуктов;
- Создание статистических и экономических моделей поведения пользователей;
- Оптимизация и совершенствование алгоритма прогноза LTV;
- Поиск решений для увеличения удержания и монетизации проекта;
- Разбор и решение проблемных случаев;
- Ad-hoc аналитика;
Наши ожидания:
- Глубокое знание SQL;
- Опыт работы с с аналитическими библиотеками Python и Jupiter notebook;
- Отличное знание теории вероятности и математической статистики;
- Понимание ключевых маркетинговых и продуктовых метрик (LTV, ROI, ROAS, ARPU, ARPPU);
- Опыт работы с BI инструментами (мы работаем с Tableau);
- Умение быстро, грамотно и качественно составлять отчеты;
- Умение ясно и четко излагать свои мысли.
Будет плюсом:
- Опыт работы с ClickHouse;
- Опыт работы в геймдев;
- Техническое, математическое или экономическое образование;
- Критическое, бизнесовое и продуктовое мышление;
- Любовь к играм, в том числе казуальным.
Что мы предлагаем:
- Оплата труда по рынку (определяем по результатам технического собеседования);
- Социальный пакет (ДМС, days-off, sick-days);
- Возможность влиять на продукт и процессы;
- Удаленная работа из любой точки мира;
- Гибкий график работы, без тайм-трекера, главное - результат.
- Демократичная, почти семейная атмосфера в команде.
Please open Telegram to view this post
VIEW IN TELEGRAM
LinkedIn
LinkedIn Login, Sign in | LinkedIn
Login to LinkedIn to keep in touch with people you know, share ideas, and build your career.
Forwarded from Bul IT
SQL Analyst (Middle+)
📍 Локация: РФ
💼 Формат: удалёнка (фулл-тайм)
💰 Ставка: 280 000–300 000 ₽
📅 Старт: ASAP или в течение месяца
⏳ Проект: банковский проект (инвесты, аналитика)
📃 Оформление: ИП / самозанятость
📌 Что делать:
— Разработка SQL-запросов и аналитических витрин
— Работа с хранилищами данных (PostgreSQL, Oracle, MS SQL, Greenplum, Vertica)
— Участие в ETL процессах (Airflow, Informatica Power Center)
— Построение отчётности и визуализаций (PowerBI, Tableau)
— Работа с Hadoop и большими объёмами данных
— Оптимизация SQL-запросов, построение моделей данных
— Участие в улучшении аналитической инфраструктуры банка
💻 Требования:
✅ 2+ года опыта работы с SQL и DWH
✅ Опыт построения SQL-запросов и аналитических витрин
✅ Знание PostgreSQL, Oracle, MS SQL, Greenplum, Vertica
✅ Опыт работы с ETL (Airflow, Informatica Power Center)
✅ Навыки работы с Hadoop и большими данными
✅ Умение работать с BI-инструментами: PowerBI, Tableau
✅ Умение писать оптимизированный SQL, знание PL/SQL
🌟 Будет плюсом:
➕ Опыт в банках или финтехе
➕ Опыт в ETL/BI системах в инвестиционных продуктах
➕ Знание Python или скриптов для автоматизации ETL
📩 Пиши в личку @skeldafn с кодом BD-1005, расскажу детали и отправим на проект.
#sql #bi #bank #etl #airflow #tableau #powerbi #удаленно #middle #vacancy
📍 Локация: РФ
💼 Формат: удалёнка (фулл-тайм)
💰 Ставка: 280 000–300 000 ₽
📅 Старт: ASAP или в течение месяца
⏳ Проект: банковский проект (инвесты, аналитика)
📃 Оформление: ИП / самозанятость
📌 Что делать:
— Разработка SQL-запросов и аналитических витрин
— Работа с хранилищами данных (PostgreSQL, Oracle, MS SQL, Greenplum, Vertica)
— Участие в ETL процессах (Airflow, Informatica Power Center)
— Построение отчётности и визуализаций (PowerBI, Tableau)
— Работа с Hadoop и большими объёмами данных
— Оптимизация SQL-запросов, построение моделей данных
— Участие в улучшении аналитической инфраструктуры банка
💻 Требования:
✅ 2+ года опыта работы с SQL и DWH
✅ Опыт построения SQL-запросов и аналитических витрин
✅ Знание PostgreSQL, Oracle, MS SQL, Greenplum, Vertica
✅ Опыт работы с ETL (Airflow, Informatica Power Center)
✅ Навыки работы с Hadoop и большими данными
✅ Умение работать с BI-инструментами: PowerBI, Tableau
✅ Умение писать оптимизированный SQL, знание PL/SQL
🌟 Будет плюсом:
➕ Опыт в банках или финтехе
➕ Опыт в ETL/BI системах в инвестиционных продуктах
➕ Знание Python или скриптов для автоматизации ETL
📩 Пиши в личку @skeldafn с кодом BD-1005, расскажу детали и отправим на проект.
#sql #bi #bank #etl #airflow #tableau #powerbi #удаленно #middle #vacancy