Telegram Web Link
Forwarded from Андрей
🎉 Middle Data Engineer в Data Lake Купера
💰 до 290 тыс. ₽ на руки
📍 Удалённо из РФ или офис в Москве

О проекте:
Мы развиваем Data Lake, движок Trino и инструменты для аналитики, BI и ML. Занимаемся batch и streaming загрузками, создаём стандарты, чтобы вся команда могла наполнять озеро данных.

Задачи:
— Миграция с Yandex Cloud в cloud.ru
— Миграция DAG’ов в новый репозиторий Airflow под новые стандарты
— Разработка ETL (Airflow, Python, Spark, S3, ClickHouse, Greenplum)
— Развитие Trino и автоматизация процессов
— Миграция сотен ТБ данных в новый S3, отказ от Dataproc в пользу Spark Operator

Что нужно:
✔️ Уверенный SQL и Python
✔️ Опыт с Airflow
✔️ Базовое понимание архитектуры распределённых аналитических систем (например, Greenplum, ClickHouse, Trino)
💫 Плюсом будет опыт с: Trino, Iceberg, Kafka, PostgreSQL, Scala, Spark, Kafka Connect, Parquet, Kubernetes

🍩 Что ещё приятного у нас есть:
— ДМС с первого месяца
— Бонусы для сотрудников экосистемы Сбера
— Корпоративные бонусы и Best Benefits
— Электронная библиотека MyBook, спорт в группе компаний ecom.tech

📩 Хочешь заниматься Data Lake с нами? Пиши @da_mrv
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)

📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.

Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.


📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer

Для вопросов:
@zlata_deBridge
Forwarded from Zlata | deBridge
🧠 Data-инженер (Middle+/Senior)
Компания: https://debridge.finance
Загрузка: полная, фуллтайм
🌍 Локация: remote
🛂 Гражданство: any
🕰 Тайм-зона: CET
💸 Ставка: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)

📌 Задачи:
• Data Pipeline Development: Design, build, and maintain scalable data pipelines processing large volumes of blockchain and off-chain data.
• Data Modeling & Warehousing: Create well-structured data marts and tables for internal stakeholders in analytics, product, and engineering.
• Blockchain Data Parsing: Extract and process on-chain data from various networks (Solana, L1/L2 chains, etc.).
• Query Optimization: Write and tune complex SQL and NoSQL queries for performance and clarity.
• API Development: Build and support APIs to deliver data to internal systems and external partners.
• Data Quality Assurance: Write tests, implement validation logic, and monitor pipelines to ensure data integrity.
• Incident Resolution: Investigate and fix issues in data flows and reports, working closely with the team to maintain operational reliability.

Требования:
Experience Level: Middle to Senior Data Engineer (individual contributor)
Must-Have Skills:
• 3+ years of experience in data engineering or backend development.
• Solid understanding of blockchain fundamentals and experience working with on-chain data.
• Proficiency in TypeScript, with clean, efficient, and maintainable code.
• Strong knowledge of SQL (complex queries, performance tuning) and basic experience with NoSQLdatabases (e.g., MongoDB).
• Familiarity with ETL/ELT concepts and modern data orchestration tools.
• Basic knowledge of analytics, statistics, and how data is used for decision-making.
Nice-to-Have Skills:
• Experience building backend or API services in TypeScript.
• Familiarity with Temporal for orchestrating asynchronous workflows.
• Hands-on experience with tools like ClickHouse, PostgreSQL, MongoDB, or Kafka.
• Understanding of CI/CD pipelines and best practices in data governance.


📩 Для отклика: https://debridge.peopleforce.io/careers/v/121382-data-engineer

Для вопросов:
@zlata_deBridge
Forwarded from Bul
🥇 Разработчик БД / PostgreSQL админ
Грейд: от Middle+
Опыт: от 4–5 лет
Локация: РФ
Таймзона: МСК
Ставка: 200–250 тыс. ₽

📦 Проект: финтех, длительный
🚀 Старт: ASAP
🧑‍💻 Формат: удалёнка, фуллтайм

📌 Задачи:
— Поддержка промышленных и тестовых БД PostgreSQL (развёртывание, настройка, обновления, резервное копирование)
— Оптимизация СУБД и SQL-запросов
— Устранение инцидентов по доступности и производительности
— Автоматизация с помощью shell/ansible
— Настройка мониторинга (Grafana, ELK и т.п.)
— Взаимодействие с разработкой и QA

💻 Требования:
— 3+ года администрирования PostgreSQL
— Опыт с Ansible
— Опыт с Grafana / ELK / мониторингом
— Linux/Unix на уровне администратора
— Будет плюсом: Jenkins, Atlassian (Jira, Bitbucket, Confluence)

📩 Резюме — в личку: @skeldafn
Если ты сильный PostgreSQL-админ — это может быть твой проект!
Forwarded from Авито HR
Команда хранилища данных Авито в поиске дата-инженера:

➡️ Data Engineer в команду Integration

Вам предстоит анализировать рост нагрузки на хранилище данных, искать узкие места и способы оптимизации хранения и использования данных, гарантировать работу пользователей при отключении одного ДЦ с минимальным влиянием на отклик, а также оптимизировать работу аналитических баз данных под характер нагрузки и объём трафика.

Что вас ждёт:

- интересные и важные задачи на очень крупном проекте
- передовые технологии и подходы, возможность пробовать новое
- опытные и заинтересованные коллеги, готовые оказать поддержку
- возможность приносить пользу миллионам пользователей, реализуя решения, основанные на данных
- личный бюджет на обучение, который можно тратить на книги, курсы и конференции
- забота о здоровье: с первого дня у вас будет ДМС со стоматологией, в офисе терапевт и массажист
- возможность работать удалённо и по желанию посещать комфортный офис в Москве или Санкт-Петербурге.

Оставляйте отклики по ссылке!
Forwarded from Артем Золотов
В IT-отделе компании Procter & Gamble открыта вакансия Intern Data Analyst.

Наш стек:
- Azure
- Python
- Power BI

Мы предлагаем:
- Заработная плата 100 000 руб до вычета налогов
- Гибкий график работы и возможность удаленной работы (гибридный - режим: 2 дня в офисе в неделю)
- Ежемесячная компенсация расходов на питание в размере 5 000 р. до вычета налогов
- Доступ к образовательным ресурсам Procter & Gamble

Узнать подробнее о вакансии и откликнуться можно по ссылке.
Forwarded from Varvara
Открыта вакансия в международную шиппинговую компанию.


Role Description
This is a full-time position as an Analytics Engineer, responsible for managing the full data lifecycle, from engineering robust data pipelines to analyzing and visualizing data for real-time decision-making. You will bridge business and technical teams, ensuring data is accurate, accessible, and actionable.
________________________________________
Responsibilities
Front-End (Analytical) Responsibilities:
• Analyze shipping data (e.g., transportation costs, carrier performance, delivery times).
• Prepare reports and dashboards that summarize findings, highlight trends, and support strategic decisions.
• Develop and maintain KPIs dashboards to monitor shipping and operational performance.
• Collaborate with logistics managers and stakeholders to gather requirements and define data-driven solutions.
• Present insights to management and make actionable recommendations to optimize shipping operations.
Back-End (Technical/Data Engineering) Responsibilities:
• Design, develop, and maintain data pipelines to collect, clean, and transform data from multiple systems.
• Manage databases and ensure data consistency, integrity, and scalability.
• Automate data extraction and transformation processes using SQL, Python, or similar tools.
• Build and maintain data architecture and infrastructure in collaboration with IT/DevOps teams.
• Develop APIs or system integrations for seamless data flow between platforms.
• Ensure data governance, security, and privacy standards are met.
________________________________________
Qualifications
• Master’s or Ph.D. in Data Science, Computer Science, Statistics, Econometrics, or related field.
• 2+ years of experience in both data analytics and data engineering roles.
• Strong knowledge of SQL and relational databases (e.g., PostgreSQL, MS SQL Server).
• Proficient in Python for data processing and automation.
• Hands-on experience with Power BI (dashboard development).
• Experience with data pipeline design (ETL/ELT), including tools and frameworks.
• Familiarity with cloud platforms (e.g., Azure, AWS, or GCP) is a plus.
• Knowledge of machine learning for tabular data is desirable.
• Excellent analytical and problem-solving skills.
• Strong communication skills, especially for conveying analytical results to non-technical stakeholders.
________________________________________
What We Offer
• Official employment in our Moscow office.
• Office-based work: Monday to Friday, 09:00–18:00, near Shabolovskaya metro station.
• Competitive market salary.
• Corporate phone with SIM card and laptop provided.
• Medical coverage for employee.
• Occasional international business travel.

Писать по вакансии можно в ТГ @evseeeeva или WhatsApp +79313446826
Варвара
Forwarded from Bul
🧱 Senior Data Engineer
Проект: англоязычный, работа с данными, масштабирование, визуализация
Формат: удалёнка, фулл-тайм
Грейд: Senior
Старт: ASAP
Ставка: 180.000-250.000 руб (обсуждается от стека)
Таймзона: МСК ±2–3 часа
Локация: РФ, РБ, Казахстан (но могут рассмотреть и другие)
Гражданство: любое
Язык: английский разговорный обязателен

📌 Технологии и задачи:
— Построение и поддержка ETL/ELT-пайплайнов
— Работа с SQL и NoSQL БД, проектирование моделей данных
— Сбор требований, описание решений, архитектура
Разработка облачной инфраструктуры на AWS через CDK (Python)
Реализация проверок качества данных
— Поддержка и развитие визуализаций
— Работа с Docker / Kubernetes, безопасностью и DevOps-практиками
Поддержка аналитических запросов, внедрение best practices
— Документирование всех компонентов

Требования:
— 5+ лет в роли Data Engineer
— Уверенные навыки в ETL/SQL/NoSQL
— Опыт работы в облаке (желательно AWS и CDK)
— Знание английского языка на уровне разговорного общения
— Опыт в интернациональных проектах будет плюсом

📩 Подавай резюме @skeldafn
Data jobs feed pinned «Вышел! Вышел ! https://www.databricks.com/blog/introducing-apache-spark-40»
Forwarded from Valentina
#вакансия
Группа компаний Excdev
Data engineer (DWH)
Удаленный формат работы
График с 10.00 до 19.00 по московскому времени.
Возможность работать из любой точки мира.
Вилка:от 200 до 330 тысяч рублей.


Чем предстоит заниматься:
• Разработка и поддержка решений для управления основными данными (MDM).
• Интеграция данных из различных источников и обеспечение их консистентности и целостности.
• Разработка ETL процессов для обработки и нормализации данных.
• Создание и поддержка системы качества данных, управление их дублированием.
• Интеграция с Kafka для обеспечения надежной передачи и синхронизации данных.
• Разработка и поддержка процессов парсинга данных из интернета и их интеграции в MDM.
• Работа с метаданными, управление ими и их обновление.
• Тесное взаимодействие с командами DWH и BI для обеспечения корректного использования данных.

Наши ожидания от кандидата:
• Высшее математическое или техническое образование;
• Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных
• в сфере веб и/или мобильных продуктов;
• Опыт работы с MDM решениями и понимание принципов управления основными данными.
• Опыт разработки ETL процессов и работы с инструментами ETL.
• Глубокие знания SQL и опыт работы с реляционными базами данных.
• Опыт работы с Apache Kafka для интеграции и синхронизации данных.
• Навыки парсинга данных из интернета и их нормализации.
• Опыт работы с инструментами управления качеством данных и их дублированием.
• Опыт работы с метаданными и их управлением.

Резюме:@VLT_recruiter
Forwarded from Kristina OZHEGOVA
🎓 Онлайн-магистратура для IT-специалистов от Яндекса и ведущих технических вузов — учитесь без отрыва от работы со всеми студенческими бонусами: доступ к кампусу, практика на реальных кейсах, диплом магистра, а для парней – отсрочка от армии.

Вы получите:
— гибкий онлайн-формат и диплом гособразца;
актуальные специализации: аналитика, разработка, DevOps, кибербезопасность, менеджмент;
— сильную теоретическую базу от преподавателей МФТИ, НИЯУ МИФИ и ИТМО;
— практические знания и опыт от экспертов Яндекса.

Прокачивайте скилы у сильнейших IT-экспертов рынка — выбирайте свою программу и отправляйте заявку >>
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Никита
Вакансия: Data Engineer или Embedded Software EngineerКомпания: LIAN
Формат: аутстафф
Занятость: полная
Локация: РФ
ЗП: от 300 до 387 тыс
Оформление: ИП/СЗ

Проект, связанный с обработкой экстремально быстрых данных (до 10 млн замеров/сек) на очень слабом железе (1 ядро ARM, 1 ГБ RAM) с глубоким математическим пониманием.

Задачи:
- Разрабатывать и математически оптимизировать алгоритмы обработки сверхбыстрых сигналов со станков на слабом устройстве.
- Интегрировать устройство с контроллерами Siemens/ABB/etc через пром. протоколы (MQTT в первую очередь).
- Разрабатывать и деплоить оптимизированные ML-модели для обнаружения аномалий прямо на устройстве.
- Создавать эффективные пайплайны сжатия и передачи данных (edge -> cloud, минимизируя объемы).
- Решать сложные задачи синхронизации разночастотных данных и выявления "цифровых отпечатков" процессов.


Требования:
- Глубокое понимание цифровой обработки сигналов (DSP), интерполяции, статистики, синхронизации временных рядов. Способность придумывать алгоритмы вместо грубой интерполяции.
- Опыт выжимания максимума из слабого железа (микрооптимизации C++/Python, управление памятью, снижение нагрузки на CPU/RAM). Опыт работы с ARM.
- Понимание проблем и решений для работы с потоками данных в наносекундных интервалах (агрегация, сжатие без потерь критической информации, баланс размер пакета/задержка).
- Обязательное знание MQTT. Опыт с OPC UA, Modbus — огромный - Основные языки: Python (основная логика, ML), C++ (критичные по производительности компоненты, оптимизация под ARM), Java (для интеграции с некоторыми промышленными системами).
- Английский уровня B2 для общения с командой клиента и чтением документации

Для отклика пишите в личные сообщение @yanggilla
Forwarded from AZ asisstants
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$

📌О проекте:

Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках

Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем

❓️Кого мы ищем?

Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.

✅️Обязанности:

▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников

▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез

▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов

▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча

✅️Требования:

🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно

🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями

🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше

❌️Что мы НЕ рассматриваем:

– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности

➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)

✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде


❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSu
Forwarded from Екатерина Базова
StarRocks meetup

Всем привет.
Рады пригласить вас на первый онлайн митап по восходящей звезде аналитических баз данных StarRocks 19 июня в 19:00МСК. Митап состоится онлайн, регистрация по ссылке.

Сообщество пользователей подготовило 2 доклада, охватывающие весь спектр задач - от типичного dwh небольшой компании до использования lakehouse движка поверх S3 и открытых форматов. От часовых витрин до bi безумия из сотен тысяч запросов. Мы постараемся ответить - жив ли еще опенсорс, есть ли альтернатива кликхаузу, гринпламу или трино. А если вдруг что-то забудем, то после докладов приглашаем вас на сессию вопросов и ответов в zoom к докладчикам 👍
Forwarded from Bul IT
🔹 BD-1002 — Senior Data Engineer / ClickHouse
💼 Грейд: Senior
📍 Локация: РФ / РБ
🕒 Формат: фулл-тайм, удалёнка
🕘 Тайм-зона: МСК
📅 Старт: 30 июня
📆 Срок: от 3 месяцев с продлением
💰 Ставка: 280.000–350.000 ₽

📌 Проект
Крупный ритейл-проект — российская сеть розничных магазинов. Команда ищет сильного Data Engineer для оптимизации и работы с ClickHouse. Старт ASAP, задачи технически насыщенные и с хорошим бюджетом.

💻 Задачи
— Работа с ClickHouse: движки, сортировки, фильтры
— Оптимизация по скорости и памяти
— Агрегации, группировки, партиционирование
— Работа со словарями и большими объёмами данных

🔧 Технологии и требования
— ClickHouse (движки, партиции, словари, оптимизация)
— SQL, Python будет плюсом
— Опыт от 2 лет на позиции Data Engineer
— Уверенное владение инструментами анализа и трансформации данных

📎 Отличный шанс для инженеров, кто хочет копать глубоко в ClickHouse и заниматься реальной оптимизацией на бою.

💬 Пиши в лс @skeldafn с пометкой и кодом вакансии

📌 Код вакансии: BD-1002

#вакансии #dataengineer #clickhouse #bigdata #удалённо #fulltime #senior
Forwarded from Darya PepsiCo
Добрый день!
Подскажите можно ли опубликовать данную позицию?


Senior Data Engineer в E-commerce data tech команду PepsiCo

Data tech - молодая и быстро растущая команда, главный ИТ партнёр функции электронной коммерции во внедрении качественных data решений и развитии культуры управления данными для эффективного роста в онлайн-канале.

Функционал:
• Проектирование и разработка архитектуры и стандартов управления данными
• Разработка и внедрение процессов для поддержания качества данных (проверки, очистка и стандартизация)
• Оптимизация процессов загрузки, обработки и анализа для повышения скорости и эффективности бизнеса
• Взаимодействие с командами аналитиков, data science и коллегами из глобальной команды

Мы ждем:
• Опыт работы в области обработки данных и разработки ETL-пайплайнов.
• Глубокий опыт работы с Spark.
• Опыт работы c облачными платформами будет преимуществом: Microsoft Azure, Amazon Web Services (AWS), Google Cloud (GCP).
• Умение эффективно работать в кросс-функциональной команде.
• Желание развиваться и отслеживать тренды в области обработки данных.

График гибридный
Подробнее: ссылка на https://hh.ru/vacancy/120419563
Контакт для связи @Darya_PEP
Forwarded from V.
♥️♥️♥️ ♥️♥️
Мы активно развивающийся HFT-фонд с месячным объемом торгов свыше $1 млрд
• Мы работаем над открытием юридического лица с возможностью получения ВНЖ/резидентских виз в другой стране
Планируем развитие других направлений: от mid freq до арбитража и портфельного управления как на крипте, так и на классических рынках. Поэтому, если вам интересны смежные направления - смело пишите, будем рады пообщаться

💼♥️♥️♥️ ♥️♥️♥️♥️♥️♥️
• Работать в команде под руководством ML-лида c огромным доказанным опытом в трейдинге
• Разрабатывать ML-модели для предсказания динамики изменения цен на ключевых биржах
• Поиск закономерностей в больших массивах данных, выявление неэффективностей на биржах для оптимизации стратегий
• Тестирование и валидация гипотез, выдвигаемых ML-лидом (уникальная возможность очень быстро перенять индустриальные фишки от эксперта)

🔎♥️♥️ ♥️♥️♥️♥️
• Студент старших курсов или недавний выпускник топовых вузов (Сколтех, МФТИ, МГУ, ВШЭ и пр.)
Опыт работы в ML от 1 года Junior / 3-х лет (Middle) / 5-и лет (Senior).
• Сильная математическая подготовка с опытом программирования (в идеале промышленной разработки) на C++, Python
Опыт работы с библиотеками ML: scikit-learn, TensorFlow, PyTorch, XGBoost.

• Будет плюсом на собеседовании:
- Опыт разработки сложных DL-моделей
- Наличие дополнительных курсов по Data Science (в идеале, ШАД)
- Успешное выступление на соревнованиях по ML/DS
- Успешное выступление на олимпиадах (математика, физика, программирование)

🏆♥️♥️
♥️♥️♥️♥️♥️♥️♥️♥️♥️♥️
• Испытательный срок 3 месяца
Доход от 3000 до 6000 $ (исходя из опыта и по результатам прохождения этапов интервью) + бонус по результатам работы компании (до 12 месячных окладов)
Гибкий график с возможностью удаленного режима работы
Работа в команде профессионалов с опытом в крупнейших российских и международных компаниях
Готовы предложить % от выручки самым сильным и замотивированным кандидатам
Оплата в крипте/USD/рублях/пр. в зависимости от предпочтений и итоговой локации

♥️♥️ ♥️♥️♥️♥️♥️♥️♥️♥️♥️
писать и присылать свои CV на @osivii 📱
Please open Telegram to view this post
VIEW IN TELEGRAM
Data jobs feed pinned Deleted message
2025/06/27 20:29:26
Back to Top
HTML Embed Code: