Forwarded from Анастасия Патрикеева
#вакансия #удаленка #фуллтайм
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
Forwarded from Bogdan Glebov
Привет, чат! Нахожусь в поиске DE к себе в команду.
Вакансия: Data Engineer (#de #middle #senior)
🏙️ https://ibcrealestate.ru
Формат работы: гибрид (Москва, м. Добрынинская/Павелецкая)
Подробнее про вакансию, задачи, пожелания к кандидатам и плюшки
Со всеми вопросами можно в личку (@BogdanGlebov)
О нашей компании
Мы - IBC Real Estate, лидирующая компания на рынке профессиональных консалтинговых услуг в сфере коммерческой недвижимости.
О нашем департаменте
Цель департамента - развитие цифровых сервисов, как для внутренних процессов, так и для предоставления клиентам Компании. Основа нашего подхода - Data driven, использование данных для принятия взвешенных и оперативных управленческих решений.
О команде анализа данных
Сегодня мы агрегируем данные из внешних и корпоративных систем в Хранилище, создаём регулярную отчётность и исследовательские продукты на его базе, оптимизируем бизнес-процессы, в т.ч. за счёт tg ботов.
У нас небольшая, но квалифицированная команда, функции регламентированы и распределены (SA/DE/BI).
Следующий шаг - создание ML-инструментов для предиктивной аналитики и автоматизации бизнес-процессов, на первых этапах на базе StreamLit, далее как часть основых ахритектурных решений.
Наш стек
🛢️ DWH - PostgreSQL, ClickHouse
📊 BI/Reporting/Monitoring - Power BI, Streamlit, DataLens
🎻 Оркестрация/ETL/ML - Airflow, Python, SQL
♾️ Deploy/Docs - GitLab, Docker, Openmetadata, Wiki.js
📎 Также пригодится опыт работы с linux, kafka, drawio, tg ботами, s3
Вакансия: Data Engineer (#de #middle #senior)
🏙️ https://ibcrealestate.ru
Формат работы: гибрид (Москва, м. Добрынинская/Павелецкая)
Подробнее про вакансию, задачи, пожелания к кандидатам и плюшки
Со всеми вопросами можно в личку (@BogdanGlebov)
О нашей компании
Мы - IBC Real Estate, лидирующая компания на рынке профессиональных консалтинговых услуг в сфере коммерческой недвижимости.
О нашем департаменте
Цель департамента - развитие цифровых сервисов, как для внутренних процессов, так и для предоставления клиентам Компании. Основа нашего подхода - Data driven, использование данных для принятия взвешенных и оперативных управленческих решений.
О команде анализа данных
Сегодня мы агрегируем данные из внешних и корпоративных систем в Хранилище, создаём регулярную отчётность и исследовательские продукты на его базе, оптимизируем бизнес-процессы, в т.ч. за счёт tg ботов.
У нас небольшая, но квалифицированная команда, функции регламентированы и распределены (SA/DE/BI).
Следующий шаг - создание ML-инструментов для предиктивной аналитики и автоматизации бизнес-процессов, на первых этапах на базе StreamLit, далее как часть основых ахритектурных решений.
Наш стек
🛢️ DWH - PostgreSQL, ClickHouse
📊 BI/Reporting/Monitoring - Power BI, Streamlit, DataLens
🎻 Оркестрация/ETL/ML - Airflow, Python, SQL
♾️ Deploy/Docs - GitLab, Docker, Openmetadata, Wiki.js
📎 Также пригодится опыт работы с linux, kafka, drawio, tg ботами, s3
ibcrealestate.ru
Консалтинговая компания IBC Real Estate
Консалтинговая компания IBC Real Estate, мы представляем широкий спектр услуг на рынке недвижимости. Обладаем международным опытом, высокой компетенцией. Звонит...
Forwarded from Anna Kolpak
Data Engineer
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
Компания: HaaS
Зп: от 3000$
Формат: офис, гибрид
Крупная финтех-компания в поисках Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать: @haas_mari
Forwarded from Sergey Ivanychev
#вакансия #job #vacancy #remote #fulltime #Spark #Python #ClickHouse
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Вакансия: Senior Data Engineer (Data Infrastructure Team)
Компания: Constructor.io (~300 человек)
Финансы: 90 000–110 000 $ в год + опционы
Локация: полная удалёнка
О компании
Мы делаем платформу, которая предоставляет API для поиска, навигации и рекомендаций для американского и европейского e-commerce. Наш движок, разработанный полностью внутри компании использует трансформеры, собственный обратный индекс и генеративные LLM. Он создан для экстремальных масштабов (более 1 миллиарда запросов в день) и показывает лучшие результаты на рынке, не проиграв ни одного A/B-теста конкурентам. Мы помогаем крупнейшим e-commerce компаниям мира, таким как Sephora, улучшать их выручку и конверсию.
О команде
Data Infrastructure Team — это одна из двух команд, разрабатывающих платформу данных и сфокусированная на низкоуровневых задачах. Платформа данных ежедневно принимает около терабайт сжатых событий и хранит несколько петабайт данных.
Мы отвечаем за оркестрацию пайплайнов, а также за инфраструктуру внутренней и внешней аналитики (ClickHouse, Lambda, BI, Cube.js). Также в нашу зону ответственности входят сбор и обработка логов в реальном времени (включая data compliance) и базовые сервисы, такие как Kubernetes, Ray и observability для всей компании.
Требования
Мы ищем Senior Data Engineer с опытом от 4 лет, который:
* Хорошо владеет письменным и устным английским (интервью будет проходить на нём).
* Любит работать над широким спектром задач: дата-инжиниринг, инфраструктура, оптимизация производительности, решение проблем пользователей.
* Отлично умеет и любит программировать (желательно на Python).
* Разбирается в облачной инфраструктуре (мы используем AWS), любит заниматься инфраструктурными вопросами и знаком с подходом Infrastructure-as-Code (IaC).
* Отлично знает принципы обработки больших данных, системный дизайн и основы Computer Science.
* Имеет опыт работы с OLTP- и OLAP-базами данных.
* Проактивен, общителен и решителен.
Примеры проектов
* Реализовать обработку событий между регионами в реальном времени с записью в несколько хранилищ.
* Развернуть OpenMetadata в Kubernetes для наших пайплайнов.
* Спроектировать таблицы в ClickHouse под OpenTelemetry для логов всех наших сервисов и придумать, как удобно визуализировать их в Grafana.
* Разработать библиотеку с общими подходами к Infrastructure-as-Code для использования другими командами.
* Придумать CDC механизм для сохранения обновлений каталога в SCD2 Delta таблице
Податься и почитать более подробно тут: https://apply.workable.com/j/C6407C4CB5
По вопросам (не присылайте свои резюме, пожалуйста!): @ivanychev
Workable
Senior Data Engineer: Data Infrastructure - Constructor
About usConstructor is the next-generation platform for search and discovery in e-commerce, built to explicitly optimize for metrics like revenue, conversion rate, and profit. Our search engine is entirely invented in-house utilizing transformers and g...
Forwarded from Anton Solomonov
📊 Вакансия: Ищем аналитика в отдел по работе с ключевыми клиентами (e-commerce)
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
💻 Гибрид / удалёнка | Москва | до 110 000 ₽ gross
В команду крупной международной компании ищем внимательного и проактивного аналитика, который хочет развиваться в e-commerce и хорошо чувствует себя в Excel и Power BI.
Что нужно будет делать:
— Составлять и анализировать планы поставок
— Следить за KPI, находить отклонения и предлагать, как улучшить
— Обеспечивать выполнение клиентских отгрузок
— Контролировать запасы на складах по регионам
— Работать с данными, готовить отчёты, делиться инсайтами
— Общаться с продажами, логистикой и маркетингом — без бюрократии, по делу
— Участвовать в развитии процессов планирования и снижении рисков потерь продаж
Что важно:
— Продвинутый уровень Excel: Power Query, Power Pivot, DAX
— Опыт работы с кубами
— Уверенное владение Power BI
— Внимательность, гибкость, инициатива и умение работать в команде
Что предлагаем:
— Работа в крупной иностранной компании
— Оформление через агентство с перспективой перехода в штат при стабильных результатах и открытии вакансии
— Гибкий формат работы: офис, гибрид или полностью удалённо
— Оформление по ТК РФ
— График 5/2, с 9 до 18
— Компенсация питания: 300 ₽ в день
— Заработная плата: до 110 000 ₽ gross
📩 Готовы обсудить детали и посмотреть резюме — пиши в телеграмм @Pavlova_team 🙌
Forwarded from Daryana Gudzenko
#вакансия #vacancy #job #senior #data #DB #DBA #database #engineer #architect #administrator #blockchain #crypto #fulltime #удаленка #Match_Systems
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Вакансия: Senior Database Administrator
Форма занятости: удаленная/в офисе (с перспективой релокации)
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплатная вилка: от 3000$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Задачи:
- Поддержка HA PostgreSQL кластеров;
- Проектирование архитектурных решений и доработка существующих;
- Мониторинг, резервное копирование и тестирование резервных копий, анализ производительности;
- Взаимодействие с командами разработки — консультирование и помощь в оптимизации.
Требования:
- Уверенные знания SQL;
- Понимание физической логики исполнения запросов к БД (планы запросов);
- Опыт проектирования БД;
- Опыт работы с нагруженными БД, опыт решения проблем производительности;
- Общее понимание технологий Blockchain;
- Будет плюсом знания и опыт работы с СlickHouse.
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Для связи : @daryana_bye
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия #Москва
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид (офис в Москве, БЦ "Атлантик")
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Forwarded from Bul IT
Ищу Database Administrator
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
💼 Стек: Oracle Database 12c/19c Enterprise Edition, PostgreSQL 9.4.12
📍 Локация: СНГ (удалёнка или гибрид — уточним)
🧑💻 Компания: Cranch
💻 Задачи: администрирование Oracle и PostgreSQL, настройка резервного копирования, мониторинг, производительность, поддержка отказоустойчивости
💰 Ставка: от 200 000 ₽/мес (можно обсуждать выше, если сильный опыт в PostgreSQL)
⏱ Занятость: фултайм
🧾 Оформление: через самозанятые/ИП
Если есть опыт глубоко в Oracle и нормальный уровень PostgreSQL — откликайтесь!
Пишите в личку @skeldafn и скидывай свое резюме
Forwarded from Trino и CedrusData
Всем привет! В следующий четверг 26 июня мы проведем очередной онлайн-митап по lakehouse технологиям. В программе два доклада:
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
Trino в Авито спустя два года: от движка к аналитической экосистеме, Дмитрий Рейман, Авито
Как Авито построил lakehouse-платформу на основе Trino, которая обрабатывает до 1 ПБ данных в день и обслуживает 300 пользователей
CedrusData Catalog — Современный каталог для lakehouse-платформ, Владимир Озеров, Кверифай Лабс
Архитектура и возможности CedrusData Catalog — бесплатного каталога Iceberg для российского рынка. Ролевая модель доступа, обслуживание таблиц Iceberg, time-travel, ускорение аналитических запросов.
Регистрация: https://cedrusdata.timepad.ru/event/3426242/
cedrusdata.timepad.ru
Lakehouse Meetup #4: аналитическая экосистема на основе Trino в Avito, архитектура и возможности CedrusData Catalog / События на…
Обсудим, как за последние два года Avito выстроил аналитическую экосистему вокруг Trino, и рассмотрим внутреннее устройство и возможности CedrusData Catalog — современного бесплатного каталога для lakehouse-платформ.
Митап организован компанией Querify Labs…
Митап организован компанией Querify Labs…
Forwarded from Oleg Ryabov
#вакансия #vacancy #ищу #job # DevOps#middle# senior #remote #удаленно#Hadoop#Hive#Spark
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
Компания: Sotex
Локация: Москва
Должность: DevOps Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду DevOps Engineer преимущественно Middle+ уровня, для усиления команды проекта.
Обязанности:
Аудит кластера и помощь в документировании;
Участие в доработке Open source решений из экосистемы Hadoop.
Текущая структура кластера:
1) Hadoop ( с HDFS)
2) Hive (+ tez)
3) Yarn
4) zookeeper
5) PySpark pyspark 3.5
6) Spark 3.5
7) Scala 2.12
8) jdk-8u191-linux-x64
9) Airflow
10) Python 3
11) PostgreSQL
12) ClickHouse
13) ntp, сервер для синхронизации времени между серверами.
Чего ждём от кандидата:
Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79858527774
Ищу к себе в команду стажера
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
Платформа данных Госуслуг
Описание вакансии и записаться на собес:
https://hh.ru/vacancy/121856708
hh.ru
Вакансия Инженер по данным - стажер в Москве, работа в компании РТЛабс
Зарплата: не указана. Москва. Требуемый опыт: 1–3 года. Полная. Дата публикации: 19.06.2025.
Forwarded from Даша
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Forwarded from Никита
Вакансия: Data Engineer Senior
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Forwarded from Лиза Рузанова
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Alexandra Kononenko
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Вакансия: Data Engineer
Компания: ГК Рост
Опыт работы: 3–6 лет
График: 5/2, 8 часовой рабочий день
Формат работы: гибрид в Москве или удаленка в РФ
О продукте: лидер российского рынка овощей защищенного грунта
Численность сотрудников холдинга – более 12, 500 человек.
Чем предстоит заниматься:
- Анализом систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
- Разработкой и поддержкой ETL/ELT процессов из различных источников (Airflow).
- Собирать, анализировать, формализировать требования к разрабатываемым решениям (модели данных, витрин данных для аналитики)
- Разработкой и поддержкой моделей и витрин данных (DBT)
- Обеспечивать качества данных (чистота, точность, целостность, полнота).
- Формировать техническую документацию (ELT/ELT процессы и алгоритмы)
- Улучшением архитектуры данных в компании, внедрение новых технологий обработки и хранения данных.
- Описанием объектов данных в дата-каталоге, поддержка актуального состояния.
Требования к кандидатам:
- Опыт проектирования, разработки, запуска ETL процессов (Airflow)
- Опыт проектирования, разработки баз данных OLTP, OLAP (MS SQL)
- Знания SQL (на уровне сложных запросов, оконных функций и оптимизации запросов), Python
- Навыки разработки с использованием GitLab, настройки CI/CD пайплайнов
- Понимание работы Bi инструментов (Power Bi)
Наш стек: MS SQL, SSAS, Power Bi; Airflow, Dbt, GitLab, Docker, Linux
Языки: SQL, Python
Мы предлагаем:
- Официальное оформление: ООО "УК ""РОСТ"
- График работы: 40 часов в неделю, 10:00 - 19:00 или 09.00-18.00, Пн-Пт (возможен гибридный формат работы)
- Комфортабельное рабочее место, корпоративная мобильная связь
- Добровольное мед. страхование
- Конкурентоспособная заработная плата
- Возможность обучения и развития за счет компании
- Отпуск продолжительностью 28 календарных дней
- Место работы: м. Киевская, БЦ Атлантик, (Можайский вал, 8Д)
Контакт: @AlexandraKononenko
Forwarded from Eva
Вакансия: Продуктовый аналитик на продукт ЛК (web+mobile)
Компания: М2
Чем предстоит заниматься:
- анализировать поведение клиентов в ЛК на платформах web/mobile
- участвовать в генерации гипотез командой ЛК, придумывать способы их оценки и проверки
- взаимодействовать с другими аналитиками (продуктовые, web, bi) и платформой данных, вместе создавать источники данных и разметку
Наш стек:
SQL (Clickhouse/Posgres/Trino), Python, Superset, Firebase, MyTracker, Яндекс.Метрика
Чего мы ждём:
- отличное знание SQL, уверенный Python
- опыт работы в любом инструменте визуализации
- опыт проверки гипотез (АБ, CI)
- опыт аналитики клиентских путей в mobile-first продуктах, в идеале - опыт работы с сырыми данными веба/приложений
- аналитическое мышление, умение видеть за цифрами опыт пользователя
- проактивность, самостоятельность, внимание к деталям
Контакт рекрутера: @isuragin
Компания: М2
Чем предстоит заниматься:
- анализировать поведение клиентов в ЛК на платформах web/mobile
- участвовать в генерации гипотез командой ЛК, придумывать способы их оценки и проверки
- взаимодействовать с другими аналитиками (продуктовые, web, bi) и платформой данных, вместе создавать источники данных и разметку
Наш стек:
SQL (Clickhouse/Posgres/Trino), Python, Superset, Firebase, MyTracker, Яндекс.Метрика
Чего мы ждём:
- отличное знание SQL, уверенный Python
- опыт работы в любом инструменте визуализации
- опыт проверки гипотез (АБ, CI)
- опыт аналитики клиентских путей в mobile-first продуктах, в идеале - опыт работы с сырыми данными веба/приложений
- аналитическое мышление, умение видеть за цифрами опыт пользователя
- проактивность, самостоятельность, внимание к деталям
Контакт рекрутера: @isuragin
tech.m2.ru
m2_tech
мы — команда разработки M2, создаём онлайн-платформу для решения вопросов с недвижимостью
Forwarded from Вячеслав Брыков
Ищем ML-инженера (Middle/Senior) | Part-time, Remote
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
Forwarded from Никита
Вакансия: Data-аналитик / BI-разработчик (Middle)
Компания: LIAN
Занятость: полная
Оформление: ИП/СЗ
ЗП: то 200 до 250тыс
Локация и гражданство: РФ
Формат: удаленка по РФ
Обязанности:
- Разработка и поддержка BI-отчетности (Visiology BI, Power BI, SSRS)
- Сбор и анализ требований к аналитическим витринам и отчетам
- Подготовка спецификаций и технических описаний (включая S2T-документацию)
- Проведение обследований и интервью с заказчиками, согласование требований
- Реверс-инжиниринг существующих legacy-отчетов
- Участие в согласовании функциональных спецификаций
- Анализ данных и формулирование обоснованных выводов
- Постановка уточняющих вопросов для точного понимания задач
Требования:
- Опыт работы в роли data-аналитика от 3 лет
- Отличное знание SQL и опыт работы с GreenPlum и/или PostgreSQL
- Опыт проектирования отчетных показателей и построения витрин данных
- Уверенное владение инструментом Visiology BI (ПРАКТИЧЕСКИЙ опыт)
- Навыки подготовки и согласования документации
- Опыт взаимодействия с бизнес-заказчиками, включая сбор и уточнение требований
- Умение работать с неструктурированной информацией, анализировать и систематизировать её
- Опыт анализа и реконструкции существующих BI-отчетов
Для отклика пишите в личные сообщения @yanggilla
прикрепляйте сразу CV
Компания: LIAN
Занятость: полная
Оформление: ИП/СЗ
ЗП: то 200 до 250тыс
Локация и гражданство: РФ
Формат: удаленка по РФ
Обязанности:
- Разработка и поддержка BI-отчетности (Visiology BI, Power BI, SSRS)
- Сбор и анализ требований к аналитическим витринам и отчетам
- Подготовка спецификаций и технических описаний (включая S2T-документацию)
- Проведение обследований и интервью с заказчиками, согласование требований
- Реверс-инжиниринг существующих legacy-отчетов
- Участие в согласовании функциональных спецификаций
- Анализ данных и формулирование обоснованных выводов
- Постановка уточняющих вопросов для точного понимания задач
Требования:
- Опыт работы в роли data-аналитика от 3 лет
- Отличное знание SQL и опыт работы с GreenPlum и/или PostgreSQL
- Опыт проектирования отчетных показателей и построения витрин данных
- Уверенное владение инструментом Visiology BI (ПРАКТИЧЕСКИЙ опыт)
- Навыки подготовки и согласования документации
- Опыт взаимодействия с бизнес-заказчиками, включая сбор и уточнение требований
- Умение работать с неструктурированной информацией, анализировать и систематизировать её
- Опыт анализа и реконструкции существующих BI-отчетов
Для отклика пишите в личные сообщения @yanggilla
прикрепляйте сразу CV
Forwarded from Kristina OZHEGOVA
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kristina Samko
#вакансия #vacancy #job #clickhouse #dataengineer #analyticsengineer #датаинженер #gamedev #datajob
Позиция: Analytics Data Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагман, QuizzLand, собрал 150+ млн установок и входит в топ-игр в категории Trivia.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.
Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.
В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.
Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Позиция: Analytics Data Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000
О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагман, QuizzLand, собрал 150+ млн установок и входит в топ-игр в категории Trivia.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.
Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.
В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.
Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.
Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.
📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Telegram
Kristina Samko