Forwarded from Андрей
💰 до 290 тыс. ₽ на руки
📍 Удалённо из РФ или офис в Москве
О проекте:
Мы развиваем Data Lake, движок Trino и инструменты для аналитики, BI и ML. Занимаемся batch и streaming загрузками, создаём стандарты, чтобы вся команда могла наполнять озеро данных.
Задачи:
— Миграция с Yandex Cloud в cloud.ru
— Миграция DAG’ов в новый репозиторий Airflow под новые стандарты
— Разработка ETL (Airflow, Python, Spark, S3, ClickHouse, Greenplum)
— Развитие Trino и автоматизация процессов
— Миграция сотен ТБ данных в новый S3, отказ от Dataproc в пользу Spark Operator
Что нужно:
✔️ Уверенный SQL и Python
✔️ Опыт с Airflow
✔️ Базовое понимание архитектуры распределённых аналитических систем (например, Greenplum, ClickHouse, Trino)
🍩 Что ещё приятного у нас есть:
— ДМС с первого месяца
— Бонусы для сотрудников экосистемы Сбера
— Корпоративные бонусы и Best Benefits
— Электронная библиотека MyBook, спорт в группе компаний ecom.tech
📩 Хочешь заниматься Data Lake с нами? Пиши @da_mrv
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
debridge.finance
deBridge is the bridge that moves at lightspeed, enabling blazingly fast bridge transfers between Ethereum, Solana, and all major chains with deepest liquidity and guaranteed rates.
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
Компания: https://debridge.finance
⏱ Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.
✅ Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.
📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer
Для вопросов: @zlata_deBridge
debridge.finance
deBridge is the bridge that moves at lightspeed, enabling blazingly fast bridge transfers between Ethereum, Solana, and all major chains with deepest liquidity and guaranteed rates.
Forwarded from Bul
🥇 Разработчик БД / PostgreSQL админ
Грейд: от Middle+
Опыт: от 4–5 лет
Локация: РФ
Таймзона: МСК
Ставка: 200–250 тыс. ₽
📦 Проект: финтех, длительный
🚀 Старт: ASAP
🧑💻 Формат: удалёнка, фуллтайм
📌 Задачи:
— Поддержка промышленных и тестовых БД PostgreSQL (развёртывание, настройка, обновления, резервное копирование)
— Оптимизация СУБД и SQL-запросов
— Устранение инцидентов по доступности и производительности
— Автоматизация с помощью shell/ansible
— Настройка мониторинга (Grafana, ELK и т.п.)
— Взаимодействие с разработкой и QA
💻 Требования:
— 3+ года администрирования PostgreSQL
— Опыт с Ansible
— Опыт с Grafana / ELK / мониторингом
— Linux/Unix на уровне администратора
— Будет плюсом: Jenkins, Atlassian (Jira, Bitbucket, Confluence)
📩 Резюме — в личку: @skeldafn
Если ты сильный PostgreSQL-админ — это может быть твой проект!
Грейд: от Middle+
Опыт: от 4–5 лет
Локация: РФ
Таймзона: МСК
Ставка: 200–250 тыс. ₽
📦 Проект: финтех, длительный
🚀 Старт: ASAP
🧑💻 Формат: удалёнка, фуллтайм
📌 Задачи:
— Поддержка промышленных и тестовых БД PostgreSQL (развёртывание, настройка, обновления, резервное копирование)
— Оптимизация СУБД и SQL-запросов
— Устранение инцидентов по доступности и производительности
— Автоматизация с помощью shell/ansible
— Настройка мониторинга (Grafana, ELK и т.п.)
— Взаимодействие с разработкой и QA
💻 Требования:
— 3+ года администрирования PostgreSQL
— Опыт с Ansible
— Опыт с Grafana / ELK / мониторингом
— Linux/Unix на уровне администратора
— Будет плюсом: Jenkins, Atlassian (Jira, Bitbucket, Confluence)
📩 Резюме — в личку: @skeldafn
Если ты сильный PostgreSQL-админ — это может быть твой проект!
Telegram
Bul IT
HR в IT 👨💻 - https://www.tg-me.com/itfrombul
Forwarded from Авито HR
Команда хранилища данных Авито в поиске дата-инженера:
➡️ Data Engineer в команду Integration
Вам предстоит анализировать рост нагрузки на хранилище данных, искать узкие места и способы оптимизации хранения и использования данных, гарантировать работу пользователей при отключении одного ДЦ с минимальным влиянием на отклик, а также оптимизировать работу аналитических баз данных под характер нагрузки и объём трафика.
Что вас ждёт:
- интересные и важные задачи на очень крупном проекте
- передовые технологии и подходы, возможность пробовать новое
- опытные и заинтересованные коллеги, готовые оказать поддержку
- возможность приносить пользу миллионам пользователей, реализуя решения, основанные на данных
- личный бюджет на обучение, который можно тратить на книги, курсы и конференции
- забота о здоровье: с первого дня у вас будет ДМС со стоматологией, в офисе терапевт и массажист
- возможность работать удалённо и по желанию посещать комфортный офис в Москве или Санкт-Петербурге.
Оставляйте отклики по ссылке!
➡️ Data Engineer в команду Integration
Вам предстоит анализировать рост нагрузки на хранилище данных, искать узкие места и способы оптимизации хранения и использования данных, гарантировать работу пользователей при отключении одного ДЦ с минимальным влиянием на отклик, а также оптимизировать работу аналитических баз данных под характер нагрузки и объём трафика.
Что вас ждёт:
- интересные и важные задачи на очень крупном проекте
- передовые технологии и подходы, возможность пробовать новое
- опытные и заинтересованные коллеги, готовые оказать поддержку
- возможность приносить пользу миллионам пользователей, реализуя решения, основанные на данных
- личный бюджет на обучение, который можно тратить на книги, курсы и конференции
- забота о здоровье: с первого дня у вас будет ДМС со стоматологией, в офисе терапевт и массажист
- возможность работать удалённо и по желанию посещать комфортный офис в Москве или Санкт-Петербурге.
Оставляйте отклики по ссылке!
Forwarded from Артем Золотов
В IT-отделе компании Procter & Gamble открыта вакансия Intern Data Analyst.
Наш стек:
- Azure
- Python
- Power BI
Мы предлагаем:
- Заработная плата 100 000 руб до вычета налогов
- Гибкий график работы и возможность удаленной работы (гибридный - режим: 2 дня в офисе в неделю)
- Ежемесячная компенсация расходов на питание в размере 5 000 р. до вычета налогов
- Доступ к образовательным ресурсам Procter & Gamble
Узнать подробнее о вакансии и откликнуться можно по ссылке.
Наш стек:
- Azure
- Python
- Power BI
Мы предлагаем:
- Заработная плата 100 000 руб до вычета налогов
- Гибкий график работы и возможность удаленной работы (гибридный - режим: 2 дня в офисе в неделю)
- Ежемесячная компенсация расходов на питание в размере 5 000 р. до вычета налогов
- Доступ к образовательным ресурсам Procter & Gamble
Узнать подробнее о вакансии и откликнуться можно по ссылке.
Forwarded from Varvara
Открыта вакансия в международную шиппинговую компанию.
Role Description
This is a full-time position as an Analytics Engineer, responsible for managing the full data lifecycle, from engineering robust data pipelines to analyzing and visualizing data for real-time decision-making. You will bridge business and technical teams, ensuring data is accurate, accessible, and actionable.
________________________________________
Responsibilities
Front-End (Analytical) Responsibilities:
• Analyze shipping data (e.g., transportation costs, carrier performance, delivery times).
• Prepare reports and dashboards that summarize findings, highlight trends, and support strategic decisions.
• Develop and maintain KPIs dashboards to monitor shipping and operational performance.
• Collaborate with logistics managers and stakeholders to gather requirements and define data-driven solutions.
• Present insights to management and make actionable recommendations to optimize shipping operations.
Back-End (Technical/Data Engineering) Responsibilities:
• Design, develop, and maintain data pipelines to collect, clean, and transform data from multiple systems.
• Manage databases and ensure data consistency, integrity, and scalability.
• Automate data extraction and transformation processes using SQL, Python, or similar tools.
• Build and maintain data architecture and infrastructure in collaboration with IT/DevOps teams.
• Develop APIs or system integrations for seamless data flow between platforms.
• Ensure data governance, security, and privacy standards are met.
________________________________________
Qualifications
• Master’s or Ph.D. in Data Science, Computer Science, Statistics, Econometrics, or related field.
• 2+ years of experience in both data analytics and data engineering roles.
• Strong knowledge of SQL and relational databases (e.g., PostgreSQL, MS SQL Server).
• Proficient in Python for data processing and automation.
• Hands-on experience with Power BI (dashboard development).
• Experience with data pipeline design (ETL/ELT), including tools and frameworks.
• Familiarity with cloud platforms (e.g., Azure, AWS, or GCP) is a plus.
• Knowledge of machine learning for tabular data is desirable.
• Excellent analytical and problem-solving skills.
• Strong communication skills, especially for conveying analytical results to non-technical stakeholders.
________________________________________
What We Offer
• Official employment in our Moscow office.
• Office-based work: Monday to Friday, 09:00–18:00, near Shabolovskaya metro station.
• Competitive market salary.
• Corporate phone with SIM card and laptop provided.
• Medical coverage for employee.
• Occasional international business travel.
Писать по вакансии можно в ТГ @evseeeeva или WhatsApp +79313446826
Варвара
Role Description
This is a full-time position as an Analytics Engineer, responsible for managing the full data lifecycle, from engineering robust data pipelines to analyzing and visualizing data for real-time decision-making. You will bridge business and technical teams, ensuring data is accurate, accessible, and actionable.
________________________________________
Responsibilities
Front-End (Analytical) Responsibilities:
• Analyze shipping data (e.g., transportation costs, carrier performance, delivery times).
• Prepare reports and dashboards that summarize findings, highlight trends, and support strategic decisions.
• Develop and maintain KPIs dashboards to monitor shipping and operational performance.
• Collaborate with logistics managers and stakeholders to gather requirements and define data-driven solutions.
• Present insights to management and make actionable recommendations to optimize shipping operations.
Back-End (Technical/Data Engineering) Responsibilities:
• Design, develop, and maintain data pipelines to collect, clean, and transform data from multiple systems.
• Manage databases and ensure data consistency, integrity, and scalability.
• Automate data extraction and transformation processes using SQL, Python, or similar tools.
• Build and maintain data architecture and infrastructure in collaboration with IT/DevOps teams.
• Develop APIs or system integrations for seamless data flow between platforms.
• Ensure data governance, security, and privacy standards are met.
________________________________________
Qualifications
• Master’s or Ph.D. in Data Science, Computer Science, Statistics, Econometrics, or related field.
• 2+ years of experience in both data analytics and data engineering roles.
• Strong knowledge of SQL and relational databases (e.g., PostgreSQL, MS SQL Server).
• Proficient in Python for data processing and automation.
• Hands-on experience with Power BI (dashboard development).
• Experience with data pipeline design (ETL/ELT), including tools and frameworks.
• Familiarity with cloud platforms (e.g., Azure, AWS, or GCP) is a plus.
• Knowledge of machine learning for tabular data is desirable.
• Excellent analytical and problem-solving skills.
• Strong communication skills, especially for conveying analytical results to non-technical stakeholders.
________________________________________
What We Offer
• Official employment in our Moscow office.
• Office-based work: Monday to Friday, 09:00–18:00, near Shabolovskaya metro station.
• Competitive market salary.
• Corporate phone with SIM card and laptop provided.
• Medical coverage for employee.
• Occasional international business travel.
Писать по вакансии можно в ТГ @evseeeeva или WhatsApp +79313446826
Варвара
Forwarded from Bul
🧱 Senior Data Engineer
Проект: англоязычный, работа с данными, масштабирование, визуализация
Формат: удалёнка, фулл-тайм
Грейд: Senior
Старт: ASAP
Ставка: 180.000-250.000 руб (обсуждается от стека)
Таймзона: МСК ±2–3 часа
Локация: РФ, РБ, Казахстан (но могут рассмотреть и другие)
Гражданство: любое
Язык: английский разговорный обязателен
📌 Технологии и задачи:
— Построение и поддержка ETL/ELT-пайплайнов
— Работа с SQL и NoSQL БД, проектирование моделей данных
— Сбор требований, описание решений, архитектура
— Разработка облачной инфраструктуры на AWS через CDK (Python)
— Реализация проверок качества данных
— Поддержка и развитие визуализаций
— Работа с Docker / Kubernetes, безопасностью и DevOps-практиками
— Поддержка аналитических запросов, внедрение best practices
— Документирование всех компонентов
✅ Требования:
— 5+ лет в роли Data Engineer
— Уверенные навыки в ETL/SQL/NoSQL
— Опыт работы в облаке (желательно AWS и CDK)
— Знание английского языка на уровне разговорного общения
— Опыт в интернациональных проектах будет плюсом
📩 Подавай резюме @skeldafn
Проект: англоязычный, работа с данными, масштабирование, визуализация
Формат: удалёнка, фулл-тайм
Грейд: Senior
Старт: ASAP
Ставка: 180.000-250.000 руб (обсуждается от стека)
Таймзона: МСК ±2–3 часа
Локация: РФ, РБ, Казахстан (но могут рассмотреть и другие)
Гражданство: любое
Язык: английский разговорный обязателен
📌 Технологии и задачи:
— Построение и поддержка ETL/ELT-пайплайнов
— Работа с SQL и NoSQL БД, проектирование моделей данных
— Сбор требований, описание решений, архитектура
— Разработка облачной инфраструктуры на AWS через CDK (Python)
— Реализация проверок качества данных
— Поддержка и развитие визуализаций
— Работа с Docker / Kubernetes, безопасностью и DevOps-практиками
— Поддержка аналитических запросов, внедрение best practices
— Документирование всех компонентов
✅ Требования:
— 5+ лет в роли Data Engineer
— Уверенные навыки в ETL/SQL/NoSQL
— Опыт работы в облаке (желательно AWS и CDK)
— Знание английского языка на уровне разговорного общения
— Опыт в интернациональных проектах будет плюсом
📩 Подавай резюме @skeldafn
Data jobs feed pinned «Вышел! Вышел ! https://www.databricks.com/blog/introducing-apache-spark-40»
Forwarded from Valentina
#вакансия
Группа компаний Excdev
Data engineer (DWH)
Удаленный формат работы
График с 10.00 до 19.00 по московскому времени.
Возможность работать из любой точки мира.
Вилка:от 200 до 330 тысяч рублей.
Чем предстоит заниматься:
• Разработка и поддержка решений для управления основными данными (MDM).
• Интеграция данных из различных источников и обеспечение их консистентности и целостности.
• Разработка ETL процессов для обработки и нормализации данных.
• Создание и поддержка системы качества данных, управление их дублированием.
• Интеграция с Kafka для обеспечения надежной передачи и синхронизации данных.
• Разработка и поддержка процессов парсинга данных из интернета и их интеграции в MDM.
• Работа с метаданными, управление ими и их обновление.
• Тесное взаимодействие с командами DWH и BI для обеспечения корректного использования данных.
Наши ожидания от кандидата:
• Высшее математическое или техническое образование;
• Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных
• в сфере веб и/или мобильных продуктов;
• Опыт работы с MDM решениями и понимание принципов управления основными данными.
• Опыт разработки ETL процессов и работы с инструментами ETL.
• Глубокие знания SQL и опыт работы с реляционными базами данных.
• Опыт работы с Apache Kafka для интеграции и синхронизации данных.
• Навыки парсинга данных из интернета и их нормализации.
• Опыт работы с инструментами управления качеством данных и их дублированием.
• Опыт работы с метаданными и их управлением.
Резюме:@VLT_recruiter
Группа компаний Excdev
Data engineer (DWH)
Удаленный формат работы
График с 10.00 до 19.00 по московскому времени.
Возможность работать из любой точки мира.
Вилка:от 200 до 330 тысяч рублей.
Чем предстоит заниматься:
• Разработка и поддержка решений для управления основными данными (MDM).
• Интеграция данных из различных источников и обеспечение их консистентности и целостности.
• Разработка ETL процессов для обработки и нормализации данных.
• Создание и поддержка системы качества данных, управление их дублированием.
• Интеграция с Kafka для обеспечения надежной передачи и синхронизации данных.
• Разработка и поддержка процессов парсинга данных из интернета и их интеграции в MDM.
• Работа с метаданными, управление ими и их обновление.
• Тесное взаимодействие с командами DWH и BI для обеспечения корректного использования данных.
Наши ожидания от кандидата:
• Высшее математическое или техническое образование;
• Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных
• в сфере веб и/или мобильных продуктов;
• Опыт работы с MDM решениями и понимание принципов управления основными данными.
• Опыт разработки ETL процессов и работы с инструментами ETL.
• Глубокие знания SQL и опыт работы с реляционными базами данных.
• Опыт работы с Apache Kafka для интеграции и синхронизации данных.
• Навыки парсинга данных из интернета и их нормализации.
• Опыт работы с инструментами управления качеством данных и их дублированием.
• Опыт работы с метаданными и их управлением.
Резюме:@VLT_recruiter
Forwarded from Kristina OZHEGOVA
Вы получите:
— гибкий онлайн-формат и диплом гособразца;
— актуальные специализации: аналитика, разработка, DevOps, кибербезопасность, менеджмент;
— сильную теоретическую базу от преподавателей МФТИ, НИЯУ МИФИ и ИТМО;
— практические знания и опыт от экспертов Яндекса.
Прокачивайте скилы у сильнейших IT-экспертов рынка — выбирайте свою программу и отправляйте заявку >>
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Никита
Вакансия: Data Engineer или Embedded Software EngineerКомпания: LIAN
Формат: аутстафф
Занятость: полная
Локация: РФ
ЗП: от 300 до 387 тыс
Оформление: ИП/СЗ
Проект, связанный с обработкой экстремально быстрых данных (до 10 млн замеров/сек) на очень слабом железе (1 ядро ARM, 1 ГБ RAM) с глубоким математическим пониманием.
Задачи:
- Разрабатывать и математически оптимизировать алгоритмы обработки сверхбыстрых сигналов со станков на слабом устройстве.
- Интегрировать устройство с контроллерами Siemens/ABB/etc через пром. протоколы (MQTT в первую очередь).
- Разрабатывать и деплоить оптимизированные ML-модели для обнаружения аномалий прямо на устройстве.
- Создавать эффективные пайплайны сжатия и передачи данных (edge -> cloud, минимизируя объемы).
- Решать сложные задачи синхронизации разночастотных данных и выявления "цифровых отпечатков" процессов.
Требования:
- Глубокое понимание цифровой обработки сигналов (DSP), интерполяции, статистики, синхронизации временных рядов. Способность придумывать алгоритмы вместо грубой интерполяции.
- Опыт выжимания максимума из слабого железа (микрооптимизации C++/Python, управление памятью, снижение нагрузки на CPU/RAM). Опыт работы с ARM.
- Понимание проблем и решений для работы с потоками данных в наносекундных интервалах (агрегация, сжатие без потерь критической информации, баланс размер пакета/задержка).
- Обязательное знание MQTT. Опыт с OPC UA, Modbus — огромный - Основные языки: Python (основная логика, ML), C++ (критичные по производительности компоненты, оптимизация под ARM), Java (для интеграции с некоторыми промышленными системами).
- Английский уровня B2 для общения с командой клиента и чтением документации
Для отклика пишите в личные сообщение @yanggilla
Формат: аутстафф
Занятость: полная
Локация: РФ
ЗП: от 300 до 387 тыс
Оформление: ИП/СЗ
Проект, связанный с обработкой экстремально быстрых данных (до 10 млн замеров/сек) на очень слабом железе (1 ядро ARM, 1 ГБ RAM) с глубоким математическим пониманием.
Задачи:
- Разрабатывать и математически оптимизировать алгоритмы обработки сверхбыстрых сигналов со станков на слабом устройстве.
- Интегрировать устройство с контроллерами Siemens/ABB/etc через пром. протоколы (MQTT в первую очередь).
- Разрабатывать и деплоить оптимизированные ML-модели для обнаружения аномалий прямо на устройстве.
- Создавать эффективные пайплайны сжатия и передачи данных (edge -> cloud, минимизируя объемы).
- Решать сложные задачи синхронизации разночастотных данных и выявления "цифровых отпечатков" процессов.
Требования:
- Глубокое понимание цифровой обработки сигналов (DSP), интерполяции, статистики, синхронизации временных рядов. Способность придумывать алгоритмы вместо грубой интерполяции.
- Опыт выжимания максимума из слабого железа (микрооптимизации C++/Python, управление памятью, снижение нагрузки на CPU/RAM). Опыт работы с ARM.
- Понимание проблем и решений для работы с потоками данных в наносекундных интервалах (агрегация, сжатие без потерь критической информации, баланс размер пакета/задержка).
- Обязательное знание MQTT. Опыт с OPC UA, Modbus — огромный - Основные языки: Python (основная логика, ML), C++ (критичные по производительности компоненты, оптимизация под ARM), Java (для интеграции с некоторыми промышленными системами).
- Английский уровня B2 для общения с командой клиента и чтением документации
Для отклика пишите в личные сообщение @yanggilla
Forwarded from AZ asisstants
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSu
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSu
Forwarded from Екатерина Базова
StarRocks meetup
Всем привет.
Рады пригласить вас на первый онлайн митап по восходящей звезде аналитических баз данных StarRocks 19 июня в 19:00МСК. Митап состоится онлайн, регистрация по ссылке.
Сообщество пользователей подготовило 2 доклада, охватывающие весь спектр задач - от типичного dwh небольшой компании до использования lakehouse движка поверх S3 и открытых форматов. От часовых витрин до bi безумия из сотен тысяч запросов. Мы постараемся ответить - жив ли еще опенсорс, есть ли альтернатива кликхаузу, гринпламу или трино. А если вдруг что-то забудем, то после докладов приглашаем вас на сессию вопросов и ответов в zoom к докладчикам 👍
Всем привет.
Рады пригласить вас на первый онлайн митап по восходящей звезде аналитических баз данных StarRocks 19 июня в 19:00МСК. Митап состоится онлайн, регистрация по ссылке.
Сообщество пользователей подготовило 2 доклада, охватывающие весь спектр задач - от типичного dwh небольшой компании до использования lakehouse движка поверх S3 и открытых форматов. От часовых витрин до bi безумия из сотен тысяч запросов. Мы постараемся ответить - жив ли еще опенсорс, есть ли альтернатива кликхаузу, гринпламу или трино. А если вдруг что-то забудем, то после докладов приглашаем вас на сессию вопросов и ответов в zoom к докладчикам 👍
Forwarded from Bul IT
🔹 BD-1002 — Senior Data Engineer / ClickHouse
💼 Грейд: Senior
📍 Локация: РФ / РБ
🕒 Формат: фулл-тайм, удалёнка
🕘 Тайм-зона: МСК
📅 Старт: 30 июня
📆 Срок: от 3 месяцев с продлением
💰 Ставка: 280.000–350.000 ₽
📌 Проект
Крупный ритейл-проект — российская сеть розничных магазинов. Команда ищет сильного Data Engineer для оптимизации и работы с ClickHouse. Старт ASAP, задачи технически насыщенные и с хорошим бюджетом.
💻 Задачи
— Работа с ClickHouse: движки, сортировки, фильтры
— Оптимизация по скорости и памяти
— Агрегации, группировки, партиционирование
— Работа со словарями и большими объёмами данных
🔧 Технологии и требования
— ClickHouse (движки, партиции, словари, оптимизация)
— SQL, Python будет плюсом
— Опыт от 2 лет на позиции Data Engineer
— Уверенное владение инструментами анализа и трансформации данных
📎 Отличный шанс для инженеров, кто хочет копать глубоко в ClickHouse и заниматься реальной оптимизацией на бою.
💬 Пиши в лс @skeldafn с пометкой и кодом вакансии
📌 Код вакансии: BD-1002
#вакансии #dataengineer #clickhouse #bigdata #удалённо #fulltime #senior
💼 Грейд: Senior
📍 Локация: РФ / РБ
🕒 Формат: фулл-тайм, удалёнка
🕘 Тайм-зона: МСК
📅 Старт: 30 июня
📆 Срок: от 3 месяцев с продлением
💰 Ставка: 280.000–350.000 ₽
📌 Проект
Крупный ритейл-проект — российская сеть розничных магазинов. Команда ищет сильного Data Engineer для оптимизации и работы с ClickHouse. Старт ASAP, задачи технически насыщенные и с хорошим бюджетом.
💻 Задачи
— Работа с ClickHouse: движки, сортировки, фильтры
— Оптимизация по скорости и памяти
— Агрегации, группировки, партиционирование
— Работа со словарями и большими объёмами данных
🔧 Технологии и требования
— ClickHouse (движки, партиции, словари, оптимизация)
— SQL, Python будет плюсом
— Опыт от 2 лет на позиции Data Engineer
— Уверенное владение инструментами анализа и трансформации данных
📎 Отличный шанс для инженеров, кто хочет копать глубоко в ClickHouse и заниматься реальной оптимизацией на бою.
💬 Пиши в лс @skeldafn с пометкой и кодом вакансии
📌 Код вакансии: BD-1002
#вакансии #dataengineer #clickhouse #bigdata #удалённо #fulltime #senior
Forwarded from Darya PepsiCo
Добрый день!
Подскажите можно ли опубликовать данную позицию?
Senior Data Engineer в E-commerce data tech команду PepsiCo
Data tech - молодая и быстро растущая команда, главный ИТ партнёр функции электронной коммерции во внедрении качественных data решений и развитии культуры управления данными для эффективного роста в онлайн-канале.
Функционал:
• Проектирование и разработка архитектуры и стандартов управления данными
• Разработка и внедрение процессов для поддержания качества данных (проверки, очистка и стандартизация)
• Оптимизация процессов загрузки, обработки и анализа для повышения скорости и эффективности бизнеса
• Взаимодействие с командами аналитиков, data science и коллегами из глобальной команды
Мы ждем:
• Опыт работы в области обработки данных и разработки ETL-пайплайнов.
• Глубокий опыт работы с Spark.
• Опыт работы c облачными платформами будет преимуществом: Microsoft Azure, Amazon Web Services (AWS), Google Cloud (GCP).
• Умение эффективно работать в кросс-функциональной команде.
• Желание развиваться и отслеживать тренды в области обработки данных.
График гибридный
Подробнее: ссылка на https://hh.ru/vacancy/120419563
Контакт для связи @Darya_PEP
Подскажите можно ли опубликовать данную позицию?
Senior Data Engineer в E-commerce data tech команду PepsiCo
Data tech - молодая и быстро растущая команда, главный ИТ партнёр функции электронной коммерции во внедрении качественных data решений и развитии культуры управления данными для эффективного роста в онлайн-канале.
Функционал:
• Проектирование и разработка архитектуры и стандартов управления данными
• Разработка и внедрение процессов для поддержания качества данных (проверки, очистка и стандартизация)
• Оптимизация процессов загрузки, обработки и анализа для повышения скорости и эффективности бизнеса
• Взаимодействие с командами аналитиков, data science и коллегами из глобальной команды
Мы ждем:
• Опыт работы в области обработки данных и разработки ETL-пайплайнов.
• Глубокий опыт работы с Spark.
• Опыт работы c облачными платформами будет преимуществом: Microsoft Azure, Amazon Web Services (AWS), Google Cloud (GCP).
• Умение эффективно работать в кросс-функциональной команде.
• Желание развиваться и отслеживать тренды в области обработки данных.
График гибридный
Подробнее: ссылка на https://hh.ru/vacancy/120419563
Контакт для связи @Darya_PEP
Forwarded from V.
• Мы активно развивающийся HFT-фонд с месячным объемом торгов свыше $1 млрд
• Мы работаем над открытием юридического лица с возможностью получения ВНЖ/резидентских виз в другой стране
• Планируем развитие других направлений: от mid freq до арбитража и портфельного управления как на крипте, так и на классических рынках. Поэтому, если вам интересны смежные направления - смело пишите, будем рады пообщаться
• Работать в команде под руководством ML-лида c огромным доказанным опытом в трейдинге
• Разрабатывать ML-модели для предсказания динамики изменения цен на ключевых биржах
• Поиск закономерностей в больших массивах данных, выявление неэффективностей на биржах для оптимизации стратегий
• Тестирование и валидация гипотез, выдвигаемых ML-лидом (уникальная возможность очень быстро перенять индустриальные фишки от эксперта)
• Студент старших курсов или недавний выпускник топовых вузов (Сколтех, МФТИ, МГУ, ВШЭ и пр.)
•Опыт работы в ML от 1 года Junior / 3-х лет (Middle) / 5-и лет (Senior).
• Сильная математическая подготовка с опытом программирования (в идеале промышленной разработки) на C++, Python
• Опыт работы с библиотеками ML: scikit-learn, TensorFlow, PyTorch, XGBoost.
• Будет плюсом на собеседовании:
- Опыт разработки сложных DL-моделей
- Наличие дополнительных курсов по Data Science (в идеале, ШАД)
- Успешное выступление на соревнованиях по ML/DS
- Успешное выступление на олимпиадах (математика, физика, программирование)
• Испытательный срок 3 месяца
• Доход от 3000 до 6000 $ (исходя из опыта и по результатам прохождения этапов интервью) + бонус по результатам работы компании (до 12 месячных окладов)
• Гибкий график с возможностью удаленного режима работы
• Работа в команде профессионалов с опытом в крупнейших российских и международных компаниях
• Готовы предложить % от выручки самым сильным и замотивированным кандидатам
• Оплата в крипте/USD/рублях/пр. в зависимости от предпочтений и итоговой локации
писать и присылать свои CV на @osivii
Please open Telegram to view this post
VIEW IN TELEGRAM