Telegram Web Link
Forwarded from Ольга Осипова
#Вакансия #job #Аналитик #Remote #Data #SQL #Python
🔎 Вакансия: Product Data Analyst (SQL + Python)

💰 ЗП: 3000-3500$ (до вычета)
🌍 Формат: Full time, удаленно из любой точки мира
📍 Локация компании: Сербия
📌Компания CyberYozh - разработка ПО, обучающих материалов и решений для защиты данных в сети

📋 Основные задачи:
- Анализировать данные проектов для выявления ключевых показателей и трендов
- Настраивать систему получения и обработки данных (SQL, API)
- Выявлять аномалии и готовить аналитические отчёты
- Работать с дашбордами (Looker Studio, GA, Яндекс Метрика)
- Проверять гипотезы и A/B-тесты

🛠 Требования:
- Опыт написания оптимизированных SQL-запросов (PostgreSQL, MySQL)​
- Владение Python для анализа данных (pandas, numpy) и автоматизации процессов
- Опыт работы с API и автоматизацией отчётности
- Навыки настройки аналитических систем и построения дашбордов
- Умение работать с метриками, когортами, retention, LTV

🎯 Мы предлагаем:
- Гибкий график и удаленную работу из любой точки мира
- Долгосрочный проект и своевременные выплаты.
- 28 дней оплачиваемого отпуска.
- Минимум бюрократии.
- Регулярные performance review с возможностью роста з/п.
- Сильная команда и здоровая рабочая атмосфера.

📩 Контакт для связи: @hr_olga_osipova
Forwarded from Darya Mardan
#вакансия #vacancy #job #senior #hybrid #poland #warsaw #bigdataengineer

Vacancy: Big Data Engineer
Location: Poland
Format: Hybrid
Type of Contract: B2B
Salary: 8000$ gross

Orca Security is a leading cloud infrastructure security platform. If you like working with cutting-edge tech and solving real security challenges, this might be your perfect match!

Key Responsibilities:
- Design, develop, and maintain scalable and robust data pipelines for processing large datasets
- Optimize ETL/ELT workflows to ensure high performance, scalability, and efficiency
- Work with structured and unstructured data from multiple sources (e.g., logs, events, databases, APIs, and streams)


Requirements:
- 5+ years of experience in designing and developing data pipelines for big data processing
- Expertise in Python, Scala, or Java for data engineering tasks
- Proficiency with big data technologies like Apache Spark, Flink, Kafka, or Hadoop
- Experience with stream processing frameworks (Kafka Streams, Apache Flink, or Spark Streaming)
- Experience working with cloud platforms such as AWS, GCP, or Azure (e.g., S3, Athena, Redshift, BigQuery, Databricks)

More information on our website.
📩 For inquiries, contact me on Telegram: @seele_99
Forwarded from Bul
📊 Power BI Developer (Middle/Senior)

📍 Удалёнка | Фуллтайм
💰 Ставка от 200–250 тыс.₽ (вилка обсуждается)

Нужен тот, кто:
Строил дашборды на Power BI с нуля
Работал с DAX, Power Query, SQL (в том числе объединения/агрегации)
Понимает Data Quality и бизнес-задачи (не просто визуалка ради визуалки)

Будет плюсом:
Опыт с Azure, RLS, CI/CD
Участие в внедрении BI-решений в больших компаниях

📩 Пиши: @skeldafn
Forwarded from Kristina OZHEGOVA
Запускаем карьеру тестировщика онлайн в «Открытых школах» Т1
✉️ Отправьте заявку до 19 мая!

На бесплатном интенсиве вы: изучите теорию, разработаете сценарии функционального и интеграционного тестирования, погрузитесь в клиент-серверную и микросервисную архитектуру.

Почему нужно участвовать:
🔘 подготовка к стажировке и практика на реальных кейсах — по четыре часа в неделю онлайн;
🔘 шанс остаться в команде Т1 и работать над крутыми проектами из любого города страны;
🔘 знакомство с процессом найма и оформление резюме для успешного прохождения интервью;
🔘 погружение в бигтех — узнаете, как устроена одна из крупнейших компаний отрасли.

👥 Успейте зарегистрироваться до 19 мая: https://clck.ru/3M6V6f
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from Liz Kostina
Enfint is seeking a Senior Data Engineer #vacancy #вакансия

🗺Dubai (ON-SITE, FULL-TIME!!!)

Important

• ONSITE Position in Dubai (4 days per week work from office)
• Strong command of English language (both verbal and written)

Essential Qualifications

• 5+ years of previous commercial experience as a leader in a data-driven role
• 2+ years of hands-on experience building data pipelines in production and ability to work across structured, semi-structured and unstructured data
• 2+ years of experience in ML pipeline for streaming/batch workflow

Essential Knowledge & Skills

• Ability to write clean, maintainable, and robust code in Python
• Understanding and expertise of software engineering concepts and best practices
• Knowledge of testing frameworks and libraries
• Experience with analytics (descriptive, predictive, EDA), feature engineer, algorithms, anomaly detection, data quality assessment and python visualization libraries - e.g. matplotlib, seaborn or other
• Comfortable with notebook and source code development - Jupyter, Pycharm/VScode
• Hands-on experience of technologies like Python, Spark/Pyspark, Hadoop/MapReduce/HIVE, Pandas etc.
• Familiarity with query languages and database technologies, CI/CD, testing and validation of data and software
• Tech stack and activities that you would use and preform on a daily basis:

o Python
o Spark (PySpark)
o Jupyter
o SQL and No-SQL DBMS
o Git (as source code versioning and CI/CD)
o Exploratory Data Analysis (EDA)
o Imputation Techniques,
o Data Linking / Cleansing
o Feature Engineering
o Apache Airflow/ Genkins scheduling and automation

Nice to have

• Fluent in Russian

Benefits

• Opportunity to work on cutting-edge technologies in a highly innovative environment
• Dynamic and friendly work environment
• Company assistance with relocation expenses (if needed)
• Сomfortable office in the convenient location (Dubai)
• Medical insurance

If interested, please send your CV to:
https://www.tg-me.com/Liz_Kostina
Please open Telegram to view this post
VIEW IN TELEGRAM
11
Forwarded from Алина
Ищем Data Engineer с опытом построения финансовой и/или казначейской отчётности.
Проект в направлении казначейства: расчёт фондирования банковских продуктов, работа с источниками данных, документацией и отчётностью.
📌 Что предстоит делать:
— Внедрение алгоритмов фондирования (самостоятельно и через постановку задач)
— SQL-реализация расчётов
— Интеграция новых источников данных
— Документирование бизнес-логики и сопровождение решений до продакшена
🛠 Что важно:
— Опыт в роли дата-инженера от 3 лет
— Обязателен опыт в финансах или казначействе
— Отличное знание SQL
— Опыт написания процедур и DAG'ов
— Навыки тестирования и работы с документацией
💼 Оформление: в штат IT-компании Outlines Tech
📍 Формат: удалённо по РФ
💰 До 365 000 ₽ gross
🎁 ДМС, отгулы, компенсация обучения и подписок

Пишите в личку, если интересно или знаете подходящего кандидата — @linnnnnnnna 😊
Forwarded from Svetlana Nefedova
Мы ищем талантливого Data Engineer, который поможет нам обрабатывать и анализировать данные, чтобы улучшить наши выставочные мероприятия и бизнес-процессы.

Обязанности
• Разработка и поддержка архитектуры данных для обработки больших объемов информации.
• Создание и оптимизация ETL-процессов для интеграции данных из различных источников.
• Обеспечение качества данных и их доступности для аналитических команд.
• Внедрение и поддержка инструментов для мониторинга и управления данными.
• Сотрудничество с командами аналитиков и разработчиков для улучшения бизнес-процессов.

Требования
• Опыт работы от 3 до 6 лет в области обработки данных.
• Знание языков программирования Python или Java.
• Опыт работы с системами управления базами данных (SQL, NoSQL).
• Понимание принципов построения ETL-процессов и работы с большими данными.
• Умение работать в команде и эффективно коммуницировать с коллегами.
• Разговорный Английский язык - не ниже уровня B2.

Что мы предлагаем:
• Стабильная работа в компании с 30-летней историей.
• Работа в команде профессионалов, которые всегда поддержат.
• Использование передовых международных и российских практик.
• Гибридный формат работы, гибкое начало дня.
• Постоянные тренинги, выстроенная система адаптации и наставничества.
• Активная корпоративная жизнь.
• Конкурентный уровень заработной платы.
• ДМС со стоматологией и психологической поддержкой, страхование жизни и выездов за рубеж.
• 100% оплачиваемый больничный (до 14 дней).
• Корпоративные курсы английского и китайского языков. Отликаться: [email protected]
Forwarded from Bul
Приветствую, можете опубликовать еще одну вакансию?

🧠 Data-инженер (Middle+/Senior)
Проект: разработка витрин данных (EDW) для перехода на целевые источники
Загрузка: полная, фуллтайм
🌍 Локация: любая
🛂 Гражданство: любое
🕰 Тайм-зона: МСК
💸 Ставка: от 200 до 250 тыс. руб/мес на руки (зависит от грейда и локации)

📌 Задачи:
— Разработка и доработка кода аналитического хранилища данных
— Создание и сопровождение документации, стандартизация подходов
— Настройка процессов релизов и обновлений
— Оптимизация SQL-запросов и структуры БД
— Code review коллег и устранение ошибок
— Соблюдение сроков и оперативное реагирование на инциденты

Требования:
— 3+ года в роли Data Engineer
— Опыт разработки ELT-процессов
— Глубокое знание SQL и одного из PL (PL/SQL, PL/pgSQL и т.п.)
— Опыт работы с Git (GitLab/Bitbucket)
— Опыт с реляционными БД (Postgres, Oracle, MySQL и др.)
— Опыт с распределёнными СУБД (Hadoop, Greenplum)
— Понимание HDFS и форматов хранения
— Базовые знания Java, Groovy, Python

📩 Заинтересовало? Жду ваше резюме в личке — @skeldafn
1🤩1
Forwarded from Андрей
🎉 Middle Data Engineer в Data Lake Купера
💰 до 290 тыс. ₽ на руки
📍 Удалённо из РФ или офис в Москве

О проекте:
Мы развиваем Data Lake, движок Trino и инструменты для аналитики, BI и ML. Занимаемся batch и streaming загрузками, создаём стандарты, чтобы вся команда могла наполнять озеро данных.

Задачи:
— Миграция с Yandex Cloud в cloud.ru
— Миграция DAG’ов в новый репозиторий Airflow под новые стандарты
— Разработка ETL (Airflow, Python, Spark, S3, ClickHouse, Greenplum)
— Развитие Trino и автоматизация процессов
— Миграция сотен ТБ данных в новый S3, отказ от Dataproc в пользу Spark Operator

Что нужно:
✔️ Уверенный SQL и Python
✔️ Опыт с Airflow
✔️ Базовое понимание архитектуры распределённых аналитических систем (например, Greenplum, ClickHouse, Trino)
💫 Плюсом будет опыт с: Trino, Iceberg, Kafka, PostgreSQL, Scala, Spark, Kafka Connect, Parquet, Kubernetes

🍩 Что ещё приятного у нас есть:
— ДМС с первого месяца
— Бонусы для сотрудников экосистемы Сбера
— Корпоративные бонусы и Best Benefits
— Электронная библиотека MyBook, спорт в группе компаний ecom.tech

📩 Хочешь заниматься Data Lake с нами? Пиши @da_mrv
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥1
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)

📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.

Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.


📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer

Для вопросов:
@zlata_deBridge
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)

📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.

Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.


📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer

Для вопросов:
@zlata_deBridge
1
Forwarded from Bul
🥇 Разработчик БД / PostgreSQL админ
Грейд: от Middle+
Опыт: от 4–5 лет
Локация: РФ
Таймзона: МСК
Ставка: 200–250 тыс. ₽

📦 Проект: финтех, длительный
🚀 Старт: ASAP
🧑‍💻 Формат: удалёнка, фуллтайм

📌 Задачи:
— Поддержка промышленных и тестовых БД PostgreSQL (развёртывание, настройка, обновления, резервное копирование)
— Оптимизация СУБД и SQL-запросов
— Устранение инцидентов по доступности и производительности
— Автоматизация с помощью shell/ansible
— Настройка мониторинга (Grafana, ELK и т.п.)
— Взаимодействие с разработкой и QA

💻 Требования:
— 3+ года администрирования PostgreSQL
— Опыт с Ansible
— Опыт с Grafana / ELK / мониторингом
— Linux/Unix на уровне администратора
— Будет плюсом: Jenkins, Atlassian (Jira, Bitbucket, Confluence)

📩 Резюме — в личку: @skeldafn
Если ты сильный PostgreSQL-админ — это может быть твой проект!
1
Forwarded from Авито HR
Команда хранилища данных Авито в поиске дата-инженера:

➡️ Data Engineer в команду Integration

Вам предстоит анализировать рост нагрузки на хранилище данных, искать узкие места и способы оптимизации хранения и использования данных, гарантировать работу пользователей при отключении одного ДЦ с минимальным влиянием на отклик, а также оптимизировать работу аналитических баз данных под характер нагрузки и объём трафика.

Что вас ждёт:

- интересные и важные задачи на очень крупном проекте
- передовые технологии и подходы, возможность пробовать новое
- опытные и заинтересованные коллеги, готовые оказать поддержку
- возможность приносить пользу миллионам пользователей, реализуя решения, основанные на данных
- личный бюджет на обучение, который можно тратить на книги, курсы и конференции
- забота о здоровье: с первого дня у вас будет ДМС со стоматологией, в офисе терапевт и массажист
- возможность работать удалённо и по желанию посещать комфортный офис в Москве или Санкт-Петербурге.

Оставляйте отклики по ссылке!
Forwarded from Артем Золотов
В IT-отделе компании Procter & Gamble открыта вакансия Intern Data Analyst.

Наш стек:
- Azure
- Python
- Power BI

Мы предлагаем:
- Заработная плата 100 000 руб до вычета налогов
- Гибкий график работы и возможность удаленной работы (гибридный - режим: 2 дня в офисе в неделю)
- Ежемесячная компенсация расходов на питание в размере 5 000 р. до вычета налогов
- Доступ к образовательным ресурсам Procter & Gamble

Узнать подробнее о вакансии и откликнуться можно по ссылке.
🤩5🥰2
Forwarded from Varvara
Открыта вакансия в международную шиппинговую компанию.


Role Description
This is a full-time position as an Analytics Engineer, responsible for managing the full data lifecycle, from engineering robust data pipelines to analyzing and visualizing data for real-time decision-making. You will bridge business and technical teams, ensuring data is accurate, accessible, and actionable.
________________________________________
Responsibilities
Front-End (Analytical) Responsibilities:
• Analyze shipping data (e.g., transportation costs, carrier performance, delivery times).
• Prepare reports and dashboards that summarize findings, highlight trends, and support strategic decisions.
• Develop and maintain KPIs dashboards to monitor shipping and operational performance.
• Collaborate with logistics managers and stakeholders to gather requirements and define data-driven solutions.
• Present insights to management and make actionable recommendations to optimize shipping operations.
Back-End (Technical/Data Engineering) Responsibilities:
• Design, develop, and maintain data pipelines to collect, clean, and transform data from multiple systems.
• Manage databases and ensure data consistency, integrity, and scalability.
• Automate data extraction and transformation processes using SQL, Python, or similar tools.
• Build and maintain data architecture and infrastructure in collaboration with IT/DevOps teams.
• Develop APIs or system integrations for seamless data flow between platforms.
• Ensure data governance, security, and privacy standards are met.
________________________________________
Qualifications
• Master’s or Ph.D. in Data Science, Computer Science, Statistics, Econometrics, or related field.
• 2+ years of experience in both data analytics and data engineering roles.
• Strong knowledge of SQL and relational databases (e.g., PostgreSQL, MS SQL Server).
• Proficient in Python for data processing and automation.
• Hands-on experience with Power BI (dashboard development).
• Experience with data pipeline design (ETL/ELT), including tools and frameworks.
• Familiarity with cloud platforms (e.g., Azure, AWS, or GCP) is a plus.
• Knowledge of machine learning for tabular data is desirable.
• Excellent analytical and problem-solving skills.
• Strong communication skills, especially for conveying analytical results to non-technical stakeholders.
________________________________________
What We Offer
• Official employment in our Moscow office.
• Office-based work: Monday to Friday, 09:00–18:00, near Shabolovskaya metro station.
• Competitive market salary.
• Corporate phone with SIM card and laptop provided.
• Medical coverage for employee.
• Occasional international business travel.

Писать по вакансии можно в ТГ @evseeeeva или WhatsApp +79313446826
Варвара
3
Forwarded from Bul
🧱 Senior Data Engineer
Проект: англоязычный, работа с данными, масштабирование, визуализация
Формат: удалёнка, фулл-тайм
Грейд: Senior
Старт: ASAP
Ставка: 180.000-250.000 руб (обсуждается от стека)
Таймзона: МСК ±2–3 часа
Локация: РФ, РБ, Казахстан (но могут рассмотреть и другие)
Гражданство: любое
Язык: английский разговорный обязателен

📌 Технологии и задачи:
— Построение и поддержка ETL/ELT-пайплайнов
— Работа с SQL и NoSQL БД, проектирование моделей данных
— Сбор требований, описание решений, архитектура
Разработка облачной инфраструктуры на AWS через CDK (Python)
Реализация проверок качества данных
— Поддержка и развитие визуализаций
— Работа с Docker / Kubernetes, безопасностью и DevOps-практиками
Поддержка аналитических запросов, внедрение best practices
— Документирование всех компонентов

Требования:
— 5+ лет в роли Data Engineer
— Уверенные навыки в ETL/SQL/NoSQL
— Опыт работы в облаке (желательно AWS и CDK)
— Знание английского языка на уровне разговорного общения
— Опыт в интернациональных проектах будет плюсом

📩 Подавай резюме @skeldafn
🤩2222🔥1
Data jobs feed pinned «Вышел! Вышел ! https://www.databricks.com/blog/introducing-apache-spark-40»
Forwarded from Valentina
#вакансия
Группа компаний Excdev
Data engineer (DWH)
Удаленный формат работы
График с 10.00 до 19.00 по московскому времени.
Возможность работать из любой точки мира.
Вилка:от 200 до 330 тысяч рублей.


Чем предстоит заниматься:
• Разработка и поддержка решений для управления основными данными (MDM).
• Интеграция данных из различных источников и обеспечение их консистентности и целостности.
• Разработка ETL процессов для обработки и нормализации данных.
• Создание и поддержка системы качества данных, управление их дублированием.
• Интеграция с Kafka для обеспечения надежной передачи и синхронизации данных.
• Разработка и поддержка процессов парсинга данных из интернета и их интеграции в MDM.
• Работа с метаданными, управление ими и их обновление.
• Тесное взаимодействие с командами DWH и BI для обеспечения корректного использования данных.

Наши ожидания от кандидата:
• Высшее математическое или техническое образование;
• Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных
• в сфере веб и/или мобильных продуктов;
• Опыт работы с MDM решениями и понимание принципов управления основными данными.
• Опыт разработки ETL процессов и работы с инструментами ETL.
• Глубокие знания SQL и опыт работы с реляционными базами данных.
• Опыт работы с Apache Kafka для интеграции и синхронизации данных.
• Навыки парсинга данных из интернета и их нормализации.
• Опыт работы с инструментами управления качеством данных и их дублированием.
• Опыт работы с метаданными и их управлением.

Резюме:@VLT_recruiter
1
2025/07/13 22:32:25
Back to Top
HTML Embed Code: