🔥 Вакансия: Data Engineer (финтех, удаленно) 🔥
🚀 О компании: Бонанза Крип
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках.
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем.
💼 Обязанности:
- Настройка пайплайнов обработки исторических данных по изменению цен в трейдинге и сигналов
- Построение view для аналитики и фротенда
- Оптимизация SQL запросов
- Организация архитектуры строения данных
🛠 Требования:
- ETL + ELT обработка данных
- Основы DevOps процессов
- Опыт с Google Cloud
- Отличные знания SQL, умение оптимизировать запросы к БД, строить индексы
- Понимание Data Lake и Data Warehouse
- Опыт работы хотя бы с 2 из 3 инструментов: Apache Airflow, Clickhouse, snowflake
- Опыт работы с Time Series Data
- Умение настраивать аналитику
- Релевантный опыт от 4-5 лет
✅ Условия:
- Полная занятость, удалённая работа
- Конкурентная зарплата, оплата в USDT или по договоренности
- Работа в часовом поясе UTC+0 ±3 часа (для удобства коммуникации в команде)
📩 Контакт: @azasisstants
🚀 О компании: Бонанза Крип
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках.
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем.
💼 Обязанности:
- Настройка пайплайнов обработки исторических данных по изменению цен в трейдинге и сигналов
- Построение view для аналитики и фротенда
- Оптимизация SQL запросов
- Организация архитектуры строения данных
🛠 Требования:
- ETL + ELT обработка данных
- Основы DevOps процессов
- Опыт с Google Cloud
- Отличные знания SQL, умение оптимизировать запросы к БД, строить индексы
- Понимание Data Lake и Data Warehouse
- Опыт работы хотя бы с 2 из 3 инструментов: Apache Airflow, Clickhouse, snowflake
- Опыт работы с Time Series Data
- Умение настраивать аналитику
- Релевантный опыт от 4-5 лет
✅ Условия:
- Полная занятость, удалённая работа
- Конкурентная зарплата, оплата в USDT или по договоренности
- Работа в часовом поясе UTC+0 ±3 часа (для удобства коммуникации в команде)
📩 Контакт: @azasisstants
#вакансии #datascientist #LeadDS #LeadML #SeniorML #SeniorLLM #LeadLLM #AI #ИИ
Друзья, всем привет!
Ищем техлида, автора и преподавателя лекций, семинаров и задач на практический курс по основам продукта и бизнеса для действующих DS.
О нас:
Standard Data – проектируем и реализуем образовательные решения под заказ крупных компаний в сфере ИИ, дата-инжиниринга и веб-разработки.
Кого ищем:
Техлида, автора и преподавателя лекций, семинаров и задач, которым интересно сделать качественный образовательный продукт, решающий задачи нашей аудитории).
Мы ожидаем от вас глубокой экспертизы в ML и LLM.
И опыт работы на позиции Leadа DS – не менее 3 лет. Плюсом будут знания в области жизненного цикла продукта, тонкостей общения с заказчиком.
Что нужно делать:
• Разработка актуальной программы курса, ревью материалов - роль техлида курса.
• Разработка материалов: лекции, семинары, ДЗ, проекты - роль автора.
• Проводить занятия, обычно по выбранным (2-4) темам из всего курса. Занятия в формате вебинаров 2 раза в неделю по 2 часа - роль преподавателя.
• Прямо сейчас мы на стадии старта разработки курса, поэтому наиболее актуальна именно разработка материалов. Далее, примерно через 3 месяца уже проведение занятий (и далее продолжаем развивать этот курс).
Что мы предлагаем:
• За разработку комплекта материалов к одной теме: лекция, семинар, тест, ДЗ – 40т.р.-70т.р.
• Бонусное вознаграждение Техлида по итогам перформанса курса.
• Сумма оплаты возможна и больше, всё зависит от опыта, публикаций и результатов собеседования.
• За проведение одного двухчасового занятия – 15т.р.-30т.р. в зависимости от вашего опыта.
Ждем тебя в нашей команде, пишите в тг, или сразу кидайте резюме: www.tg-me.com/KaterinkaGl
Друзья, всем привет!
Ищем техлида, автора и преподавателя лекций, семинаров и задач на практический курс по основам продукта и бизнеса для действующих DS.
О нас:
Standard Data – проектируем и реализуем образовательные решения под заказ крупных компаний в сфере ИИ, дата-инжиниринга и веб-разработки.
Кого ищем:
Техлида, автора и преподавателя лекций, семинаров и задач, которым интересно сделать качественный образовательный продукт, решающий задачи нашей аудитории).
Мы ожидаем от вас глубокой экспертизы в ML и LLM.
И опыт работы на позиции Leadа DS – не менее 3 лет. Плюсом будут знания в области жизненного цикла продукта, тонкостей общения с заказчиком.
Что нужно делать:
• Разработка актуальной программы курса, ревью материалов - роль техлида курса.
• Разработка материалов: лекции, семинары, ДЗ, проекты - роль автора.
• Проводить занятия, обычно по выбранным (2-4) темам из всего курса. Занятия в формате вебинаров 2 раза в неделю по 2 часа - роль преподавателя.
• Прямо сейчас мы на стадии старта разработки курса, поэтому наиболее актуальна именно разработка материалов. Далее, примерно через 3 месяца уже проведение занятий (и далее продолжаем развивать этот курс).
Что мы предлагаем:
• За разработку комплекта материалов к одной теме: лекция, семинар, тест, ДЗ – 40т.р.-70т.р.
• Бонусное вознаграждение Техлида по итогам перформанса курса.
• Сумма оплаты возможна и больше, всё зависит от опыта, публикаций и результатов собеседования.
• За проведение одного двухчасового занятия – 15т.р.-30т.р. в зависимости от вашего опыта.
Ждем тебя в нашей команде, пишите в тг, или сразу кидайте резюме: www.tg-me.com/KaterinkaGl
#вакансия #удалённо #job #remote #parttime #преподаватель #руководитель #DataOps #BigData
Время делиться знаниями!
OTUS ищет руководителя (автора) онлайн-курса DataOps
Мы расширяем команду экспертов (уже более 650 человек) и ищем опытных практикующих специалистов, которым интересно делиться знаниями.
Преподавательский опыт не обязателен — наши методисты помогут вам освоить практики преподавания.
Руководитель - это эксперт, который играет ключевую роль на курсе - разрабатывает программу курса, ведёт часть занятий, работает в команде с преподавателями, методистом и продюсером курса.
Условия:
✅ гибкий график, легко совмещать с основной работой, занятия в вечернее время с 20:00 до 21:30, дни на выбор;
✅ темы занятий на выбор;
✅ от 3000 руб. за проведение одного вебинара (полтора часа), плюс отдельно оплачивается разработка программы курса, разработка материалов (презентации) к 1 занятию, проведение открытых уроков и другие активности.
Еще вы сможете:
✅ внести свой вклад в развитие IT;
✅ структурировать свой опыт и знания;
✅ развивать личный бренд;
✅ проходить наши курсы со скидкой/бесплатно;
Обсудить подробнее: @HR_Nikita
Время делиться знаниями!
OTUS ищет руководителя (автора) онлайн-курса DataOps
Мы расширяем команду экспертов (уже более 650 человек) и ищем опытных практикующих специалистов, которым интересно делиться знаниями.
Преподавательский опыт не обязателен — наши методисты помогут вам освоить практики преподавания.
Руководитель - это эксперт, который играет ключевую роль на курсе - разрабатывает программу курса, ведёт часть занятий, работает в команде с преподавателями, методистом и продюсером курса.
Условия:
✅ гибкий график, легко совмещать с основной работой, занятия в вечернее время с 20:00 до 21:30, дни на выбор;
✅ темы занятий на выбор;
✅ от 3000 руб. за проведение одного вебинара (полтора часа), плюс отдельно оплачивается разработка программы курса, разработка материалов (презентации) к 1 занятию, проведение открытых уроков и другие активности.
Еще вы сможете:
✅ внести свой вклад в развитие IT;
✅ структурировать свой опыт и знания;
✅ развивать личный бренд;
✅ проходить наши курсы со скидкой/бесплатно;
Обсудить подробнее: @HR_Nikita
Вакансия: Middle ML Developer
О нас: Сколтех, Центр прикладного ИИ.
Мы занимаемся разработкой передовых решений для нефтегазовой отрасли на основе LLMs и графовых БД. Вам предстоит участвовать в разработке системы для автоматического проектирования нефтяных и газовых месторождений (дообучение мультимодальных LLMs для анализа чертежей, построение графов знаний из нормативных документов с помощью KuzuDB, и т. д.).
Также мы проводим исследования в области объединения LLMs и графов знаний и участвуем в конференциях уровня А*.
Формат: full-time, удаленно.
Требования к разработчику:
✅ знание библиотек PyTorch, Transformers;
✅ опыт работы с большими языковыми моделями;
✅ креативность, нестандартный подход к решению задач.
Мы предлагаем:
🔥 удаленный график работы;
🔥 конкурентный уровень ЗП;
🔥 возможность обмена опытом с востребованной сфере с более опытными специалистами.
Контакты для связи: @dmitrij_euseew
О нас: Сколтех, Центр прикладного ИИ.
Мы занимаемся разработкой передовых решений для нефтегазовой отрасли на основе LLMs и графовых БД. Вам предстоит участвовать в разработке системы для автоматического проектирования нефтяных и газовых месторождений (дообучение мультимодальных LLMs для анализа чертежей, построение графов знаний из нормативных документов с помощью KuzuDB, и т. д.).
Также мы проводим исследования в области объединения LLMs и графов знаний и участвуем в конференциях уровня А*.
Формат: full-time, удаленно.
Требования к разработчику:
✅ знание библиотек PyTorch, Transformers;
✅ опыт работы с большими языковыми моделями;
✅ креативность, нестандартный подход к решению задач.
Мы предлагаем:
🔥 удаленный график работы;
🔥 конкурентный уровень ЗП;
🔥 возможность обмена опытом с востребованной сфере с более опытными специалистами.
Контакты для связи: @dmitrij_euseew
#Вакансия #DBA #Senior #Удаленка
Вакансия: Senior DBA (ClickHouse)
Компания: deeplay (аккредитованная IT-компания)
Формат работы: Удаленно, также есть офисы в Санкт-Петербурге, Омске и Новосибирске. Рассматриваем кандидатов не только из РФ.
Занятость: Полная
Зарплата: От 300K
🚀 О проекте
У нас более 200ТБ данных, около 150 схем и 2000 таблиц, а также 200+ активных пользователей. Вся инфраструктура работает на едином ClickHouse-кластере, который обслуживает сотни пользователей и хранит огромные объемы информации
Сейчас мы решаем ключевые вызовы:
– Noisy neighbor – влияние отдельных пользователей на производительность кластера
– Проблемы с масштабируемостью, бэкапами, обновлениями и безопасностью
– Отсутствие четких SLA и гарантий по доступности и производительности
Цель проекта – создать надежный, доступный и управляемый multi-tenant ClickHouse, который обеспечит гибкость, масштабируемость и стабильность для будущих задач
🎯 Что предстоит делать
– Устанавливать, настраивать и поддерживать высоконагруженные кластеры ClickHouse
– Конфигурировать систему для обеспечения высокой производительности и отказоустойчивости
– Оптимизировать запросы и структуру таблиц
– Мониторить и анализировать производительность, выявлять и устранять узкие места
– Проектировать и поддерживать инфраструктуру
🛠 Что важно для нас
– Опыт настройки и администрирования ClickHouse-кластеров, понимание архитектуры и принципов работы колоночных баз
– Опыт оптимизации сложных SQL-запросов
– Знание методов индексации, сжатия данных, работы с распределенными системами
– Умение работать с большими объемами данных (24/7 доступность)
– Опыт интеграции ClickHouse с Kafka, ETL-инструментами, BI-платформами
– Навыки работы с инструментами мониторинга (Prometheus, VictoriaMetrics, Grafana)
– Знание Linux и опыт работы с автоматизацией (Bash, Python, Ansible)
– Опыт с PostgreSQL, MySQL, облачными решениями (AWS, GCP, Azure), контейнеризацией (Docker, Kubernetes)
💼 Что предлагаем
– Полная удаленная работа с гибким началом рабочего дня
– Оклад + компенсация затрат на здоровье, спорт и обучение
– Ежегодные performance review и планирование развития
– Официальное трудоустройство, больничные и отпуска по ТК РФ
📩Контакт для откликов – @venkkaya
Вакансия: Senior DBA (ClickHouse)
Компания: deeplay (аккредитованная IT-компания)
Формат работы: Удаленно, также есть офисы в Санкт-Петербурге, Омске и Новосибирске. Рассматриваем кандидатов не только из РФ.
Занятость: Полная
Зарплата: От 300K
🚀 О проекте
У нас более 200ТБ данных, около 150 схем и 2000 таблиц, а также 200+ активных пользователей. Вся инфраструктура работает на едином ClickHouse-кластере, который обслуживает сотни пользователей и хранит огромные объемы информации
Сейчас мы решаем ключевые вызовы:
– Noisy neighbor – влияние отдельных пользователей на производительность кластера
– Проблемы с масштабируемостью, бэкапами, обновлениями и безопасностью
– Отсутствие четких SLA и гарантий по доступности и производительности
Цель проекта – создать надежный, доступный и управляемый multi-tenant ClickHouse, который обеспечит гибкость, масштабируемость и стабильность для будущих задач
🎯 Что предстоит делать
– Устанавливать, настраивать и поддерживать высоконагруженные кластеры ClickHouse
– Конфигурировать систему для обеспечения высокой производительности и отказоустойчивости
– Оптимизировать запросы и структуру таблиц
– Мониторить и анализировать производительность, выявлять и устранять узкие места
– Проектировать и поддерживать инфраструктуру
🛠 Что важно для нас
– Опыт настройки и администрирования ClickHouse-кластеров, понимание архитектуры и принципов работы колоночных баз
– Опыт оптимизации сложных SQL-запросов
– Знание методов индексации, сжатия данных, работы с распределенными системами
– Умение работать с большими объемами данных (24/7 доступность)
– Опыт интеграции ClickHouse с Kafka, ETL-инструментами, BI-платформами
– Навыки работы с инструментами мониторинга (Prometheus, VictoriaMetrics, Grafana)
– Знание Linux и опыт работы с автоматизацией (Bash, Python, Ansible)
– Опыт с PostgreSQL, MySQL, облачными решениями (AWS, GCP, Azure), контейнеризацией (Docker, Kubernetes)
💼 Что предлагаем
– Полная удаленная работа с гибким началом рабочего дня
– Оклад + компенсация затрат на здоровье, спорт и обучение
– Ежегодные performance review и планирование развития
– Официальное трудоустройство, больничные и отпуска по ТК РФ
📩Контакт для откликов – @venkkaya
Вакансия: ML/DS-инженер (Network Fingerprinting & Anomaly Detection)
Немного о нас: мы строим систему, которая по низкоуровневым сетевым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
• Используется ли VPN/прокси?
• Подделан ли User-Agent (например, заявлена Windows, а на деле Linux)?
• Какая реальная ОС клиента, исходя из сетевых особенностей?
Собираем логи (JSON с отпечатками) и хотим обучить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), которая в реальном времени будет давать предсказания по REST API.
---
## Что делать:
1. Анализ данных (EDA) и фича-инжиниринг
- Изучать сырые логи (TLS, TCP/IP, HTTP2, JA3) и выделять нетривиальные признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.).
- При необходимости помочь улучшить сбор данных.
2. Разработка и обучение моделей
- Выбирать и тюнить алгоритмы: XGBoost, Random Forest, нейронные сети и т.д.
- Настраивать процесс обучения и валидации (train/test split, кросс-валидация, гиперпараметры).
- Оценивать метрики (Accuracy, Precision/Recall, F1, ROC-AUC) и предлагать способы улучшения.
3. Построение ML-сервиса
- Оборачивать модель в сервис (REST API/gRPC) для интеграции.
- Настраивать окружение (Docker, CI/CD).
- Продумывать MLOps: сбор новых данных, мониторинг качества, переобучение.
4. Детект VPN/прокси и аномалий
- Выявлять прокси/VPN по набору признаков (TTL, JA3, IP-блеклисты и т.д.).
- Анализировать несоответствия между User-Agent и реальной ОС (TCP/IP флаги, JA3, HTTP2).
- Разрабатывать систему порогов (threshold) или вероятностных оценок (score).
5. (Опционально) Автоматизация и масштабирование
- По желанию помогать с инфраструктурой.
- Участвовать в обсуждении архитектуры приложения.
---
## Требования:
1. ML и статистика
- Понимание классических алгоритмов (деревья решений, бустинги) и навыки тюнинга.
- Приветствуется опыт с PyTorch/TensorFlow.
2. Инструменты Data Science
- Python: pandas, numpy, scikit-learn, XGBoost/LightGBM.
- Умение делать EDA, визуализации (matplotlib, seaborn и т.п.) и строить надёжные фичи из «грязных» данных..
3. Сетевые протоколы (желательно, но можно прокачаться)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3-сигнатур.
- Базовые знания HTTP/2.
4. DevOps / MLOps
- Docker, Git, Linux; будет плюсом опыт с CI/CD.
5. Дополнительно
- Опыт наставничества в DS.
- Понимание безопасности, VPN/прокси.
- Сильная математическая база (статистика, матан, вероятности).
---
## Условия работы:
- Удалённая работа (полная или частичная занятость — обсуждается).
- Небольшая команда (сети/бэкенд + ML).
- Задачи ведутся в трекере, созвоны/стендапы по необходимости.
Финансовая часть:
- Вилка 100–250 тыс. руб. в месяц (зависит от опыта).
- Возможны выплаты в USDT.
- Дополнительный бонус: доступ к лицензии [Cursor․com] (актуальные модели, например, Sonnet 3.5).
---
## Что получаете:
- Глубокий опыт в сетевых отпечатках, работа с уникальными данными.
- Полную свободу выбора инструментов (главное — результат).
- Поддержку по инфраструктуре и сбору сетевых данных.
- Интересные челленджи в ML + Security.
---
## Как откликнуться:
- Напишите о себе в личку и прикрепите резюме/портфолио (GitHub/Kaggle).
- Поделитесь примером ML-проекта, где вы делали пайплайн обучения/деплоя.
- Расскажите, какой у вас опыт в сетевых протоколах или безопасности (VPN, прокси).
Контакт: https://www.tg-me.com/Siemons8
Немного о нас: мы строим систему, которая по низкоуровневым сетевым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
• Используется ли VPN/прокси?
• Подделан ли User-Agent (например, заявлена Windows, а на деле Linux)?
• Какая реальная ОС клиента, исходя из сетевых особенностей?
Собираем логи (JSON с отпечатками) и хотим обучить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), которая в реальном времени будет давать предсказания по REST API.
---
## Что делать:
1. Анализ данных (EDA) и фича-инжиниринг
- Изучать сырые логи (TLS, TCP/IP, HTTP2, JA3) и выделять нетривиальные признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.).
- При необходимости помочь улучшить сбор данных.
2. Разработка и обучение моделей
- Выбирать и тюнить алгоритмы: XGBoost, Random Forest, нейронные сети и т.д.
- Настраивать процесс обучения и валидации (train/test split, кросс-валидация, гиперпараметры).
- Оценивать метрики (Accuracy, Precision/Recall, F1, ROC-AUC) и предлагать способы улучшения.
3. Построение ML-сервиса
- Оборачивать модель в сервис (REST API/gRPC) для интеграции.
- Настраивать окружение (Docker, CI/CD).
- Продумывать MLOps: сбор новых данных, мониторинг качества, переобучение.
4. Детект VPN/прокси и аномалий
- Выявлять прокси/VPN по набору признаков (TTL, JA3, IP-блеклисты и т.д.).
- Анализировать несоответствия между User-Agent и реальной ОС (TCP/IP флаги, JA3, HTTP2).
- Разрабатывать систему порогов (threshold) или вероятностных оценок (score).
5. (Опционально) Автоматизация и масштабирование
- По желанию помогать с инфраструктурой.
- Участвовать в обсуждении архитектуры приложения.
---
## Требования:
1. ML и статистика
- Понимание классических алгоритмов (деревья решений, бустинги) и навыки тюнинга.
- Приветствуется опыт с PyTorch/TensorFlow.
2. Инструменты Data Science
- Python: pandas, numpy, scikit-learn, XGBoost/LightGBM.
- Умение делать EDA, визуализации (matplotlib, seaborn и т.п.) и строить надёжные фичи из «грязных» данных..
3. Сетевые протоколы (желательно, но можно прокачаться)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3-сигнатур.
- Базовые знания HTTP/2.
4. DevOps / MLOps
- Docker, Git, Linux; будет плюсом опыт с CI/CD.
5. Дополнительно
- Опыт наставничества в DS.
- Понимание безопасности, VPN/прокси.
- Сильная математическая база (статистика, матан, вероятности).
---
## Условия работы:
- Удалённая работа (полная или частичная занятость — обсуждается).
- Небольшая команда (сети/бэкенд + ML).
- Задачи ведутся в трекере, созвоны/стендапы по необходимости.
Финансовая часть:
- Вилка 100–250 тыс. руб. в месяц (зависит от опыта).
- Возможны выплаты в USDT.
- Дополнительный бонус: доступ к лицензии [Cursor․com] (актуальные модели, например, Sonnet 3.5).
---
## Что получаете:
- Глубокий опыт в сетевых отпечатках, работа с уникальными данными.
- Полную свободу выбора инструментов (главное — результат).
- Поддержку по инфраструктуре и сбору сетевых данных.
- Интересные челленджи в ML + Security.
---
## Как откликнуться:
- Напишите о себе в личку и прикрепите резюме/портфолио (GitHub/Kaggle).
- Поделитесь примером ML-проекта, где вы делали пайплайн обучения/деплоя.
- Расскажите, какой у вас опыт в сетевых протоколах или безопасности (VPN, прокси).
Контакт: https://www.tg-me.com/Siemons8
Data Engineer
Локация: Удалённо в РФ
Компания: Центр Орбита
ЗП: обсуждается на собеседовании
Занятость: Проектная
Мы в «Центр Орбита» ищем Data Engineer уровня Senior на временный проект
Длительность проекта: 6 мес., возможно продление.
Масштабный технологический проект с глубокой экспертизой в цифровизации бизнеса. Ключевые отрасли: государственный сектор, FinTech, HR Tech, коммуникации и медиа, услуги, рынок недвижимости, travel. Нам доверяют крупнейшие компании РФ, среди них: Т1, ВТБ, Иннотех, Альфа-банк, ОИС и другие. Более 6 лет мы ведем собственную продуктовую и заказную разработку высокоэффективных цифровых решений.
Наш основной стек:
Apache Spark, Apache Airflow, Apache Kafka, Apache Flink, Yandex Cloud, Python, SQL, Linux, Docker, K8S.
Основные задачи:
• Работа над проектом в крупном ретейле;
• Разработка и поддержка ETL-процессов;
• Работа с потоковыми данными;
• Оркестрация задач;
• Работа с облачной инфраструктурой;
• Анализ и оптимизация запросов.
Резюме отправлять: @Gillthunder
Локация: Удалённо в РФ
Компания: Центр Орбита
ЗП: обсуждается на собеседовании
Занятость: Проектная
Мы в «Центр Орбита» ищем Data Engineer уровня Senior на временный проект
Длительность проекта: 6 мес., возможно продление.
Масштабный технологический проект с глубокой экспертизой в цифровизации бизнеса. Ключевые отрасли: государственный сектор, FinTech, HR Tech, коммуникации и медиа, услуги, рынок недвижимости, travel. Нам доверяют крупнейшие компании РФ, среди них: Т1, ВТБ, Иннотех, Альфа-банк, ОИС и другие. Более 6 лет мы ведем собственную продуктовую и заказную разработку высокоэффективных цифровых решений.
Наш основной стек:
Apache Spark, Apache Airflow, Apache Kafka, Apache Flink, Yandex Cloud, Python, SQL, Linux, Docker, K8S.
Основные задачи:
• Работа над проектом в крупном ретейле;
• Разработка и поддержка ETL-процессов;
• Работа с потоковыми данными;
• Оркестрация задач;
• Работа с облачной инфраструктурой;
• Анализ и оптимизация запросов.
Резюме отправлять: @Gillthunder
Аналитик DWH
Грейд: Middle
Название компании: Itvolna tech
Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы
Тема проекта: БОПОС
Зарплата: 302 000 гросс
Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.
Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.
Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.
Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.
Контактные данные: 📱@alarionova_volna
#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle
Грейд: Middle
Название компании: Itvolna tech
Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы
Тема проекта: БОПОС
Зарплата: 302 000 гросс
Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.
Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.
Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.
Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.
Контактные данные: 📱@alarionova_volna
#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle
Вакансия: ML инженер (junior+/middle)
Компания: Social Media Holding
Формат работы: Удаленно
Занятость: Полная
Зарплата: 60-200к
Требования:
• Опыт работы с нейронными сетями
• Умение разрабатывать решения на Python
• Наличие реализованных проектов с ИИ — большой плюс
• Аналитический склад ума и страсть к инновациям
Задачи включают в себя:
1. Создание софта для подбора кандидатов на основе анализа резюме.
2. Автоматизация вывода ключевых пунктов из API документации.
3. Обработка больших объемов изображений с помощью нейросетей.
4. Система составления психологического портрета покупателя по дате рождения и подборка подарков на основе этого.
5. Разработка Deepfake-программ для онлайн трансляций.
Эти задачи решаются с помощью современных инструментов LLM, ChatGPT и других нейронок с GitHub.
На этапе старта вы получаете фиксированный оклад — 60 000 рублей в месяц. За каждую выполненную задачу ваш доход увеличивается на 30 000 рублей, что позволит вам выйти на доход до 200 000 рублей.
После достижения этой суммы, вы получаете задачи, напрямую влияющие на доход компании. Ваш заработок будет расти пропорционально успеху ваших решений.
Если интересует вакансия, присылайте ваше резюме - @ash_nazaret
Компания: Social Media Holding
Формат работы: Удаленно
Занятость: Полная
Зарплата: 60-200к
Требования:
• Опыт работы с нейронными сетями
• Умение разрабатывать решения на Python
• Наличие реализованных проектов с ИИ — большой плюс
• Аналитический склад ума и страсть к инновациям
Задачи включают в себя:
1. Создание софта для подбора кандидатов на основе анализа резюме.
2. Автоматизация вывода ключевых пунктов из API документации.
3. Обработка больших объемов изображений с помощью нейросетей.
4. Система составления психологического портрета покупателя по дате рождения и подборка подарков на основе этого.
5. Разработка Deepfake-программ для онлайн трансляций.
Эти задачи решаются с помощью современных инструментов LLM, ChatGPT и других нейронок с GitHub.
На этапе старта вы получаете фиксированный оклад — 60 000 рублей в месяц. За каждую выполненную задачу ваш доход увеличивается на 30 000 рублей, что позволит вам выйти на доход до 200 000 рублей.
После достижения этой суммы, вы получаете задачи, напрямую влияющие на доход компании. Ваш заработок будет расти пропорционально успеху ваших решений.
Если интересует вакансия, присылайте ваше резюме - @ash_nazaret
#вакансии #datascientist #LLM #LLMresearcher
Друзья, всем привет!
Ищем LLM researcherа для работы над нашим AI-ассистентом
О нас:
Наша команда Standard Data реализует образовательные решения под заказ крупных компаний.
Сейчас мы разрабатываем AI-ассистента для образовательных курсов и ищем LLM researcherа, который будет помогать нам улучшать качество ответов ассистента с помощью экспериментов с языковыми моделями.
Что нужно делать:
• Проводить эксперименты с LLM-моделями (например, ChatGPT) для улучшения работы ассистента.
• Интегрировать результаты исследований в продукт на Python.
• Изучать новые подходы в работе с LLM и внедрять best practices в продукт.
• Анализировать результаты и предлагать решения для повышения качества ответов образовательных AI-ассистентов.
Наши требования:
• Имеешь опыт работы с LLM и готов применить его для ускорения разработки;
• Или учишься на старших курсах технического направления и обладаешь энтузиазмом и стремлением к быстрому обучению;
• Знаешь Python и интересуешься языковыми моделями и машинным обучением;
• Ответственный, инициативный и готов развиваться в сфере LLM;
• Умеешь работать на результат, самостоятельно решать проблемы.
• Понимаешь важность умения структурировано представлять результаты своей работы в команде.
• Имеешь техническое образование (математика/IT).
Наши требования:
• Гибкий график и удаленный формат работы;
• Достойная оплата от 100 до 250 т.р./мес. по результатам собеседования;
• В приоритете full-time, но рассматриваем также part-time;
• Возможность работать над реальным продуктом и развиваться в быстрорастущей сфере.
Контакты: @KaterinkaGl
Друзья, всем привет!
Ищем LLM researcherа для работы над нашим AI-ассистентом
О нас:
Наша команда Standard Data реализует образовательные решения под заказ крупных компаний.
Сейчас мы разрабатываем AI-ассистента для образовательных курсов и ищем LLM researcherа, который будет помогать нам улучшать качество ответов ассистента с помощью экспериментов с языковыми моделями.
Что нужно делать:
• Проводить эксперименты с LLM-моделями (например, ChatGPT) для улучшения работы ассистента.
• Интегрировать результаты исследований в продукт на Python.
• Изучать новые подходы в работе с LLM и внедрять best practices в продукт.
• Анализировать результаты и предлагать решения для повышения качества ответов образовательных AI-ассистентов.
Наши требования:
• Имеешь опыт работы с LLM и готов применить его для ускорения разработки;
• Или учишься на старших курсах технического направления и обладаешь энтузиазмом и стремлением к быстрому обучению;
• Знаешь Python и интересуешься языковыми моделями и машинным обучением;
• Ответственный, инициативный и готов развиваться в сфере LLM;
• Умеешь работать на результат, самостоятельно решать проблемы.
• Понимаешь важность умения структурировано представлять результаты своей работы в команде.
• Имеешь техническое образование (математика/IT).
Наши требования:
• Гибкий график и удаленный формат работы;
• Достойная оплата от 100 до 250 т.р./мес. по результатам собеседования;
• В приоритете full-time, но рассматриваем также part-time;
• Возможность работать над реальным продуктом и развиваться в быстрорастущей сфере.
Контакты: @KaterinkaGl
#вакансия #MLOps #fulltime #Москва #офис #гибрид
MLOps
📍Город: Москва (центр)
Формат работы: офис/гибрид
Занятость: полная
🔷 АНО "ЦИСМ" - аккредитованная IT-компания, работаем по поручению Президента России с октября 2018 года.
Ищем сотрудников для масштабного проекта, связанного с ИИ и машинным обучением.
Задач много, проект интересный, команда сильная.
➡️ Ждем от кандидата
⁃ Опыт работы от 3 лет, в области MLOps от 1 года
⁃ Навыки:
- разворачивания и поддержки ML-инфраструктуры, включая настройку серверов с GPU, платформ оркестрации и контейнеризации
- разработки CI/CD пайплайнов для моделей машинного обучения
- построения систем алертинга и мониторинга, работы по SLA
✅ Задачи
⁃ Построение и развитие вычислительного кластера с GPU в Kubernetes
⁃ Автоматизация процессов сборки, тестирования и деплоя моделей машинного обучения и сервисов
⁃ Работа с движками инференса LLM: vLLM, SGLang для кластеров видеокарт
⁃ Написание пайплайнов CI/CD
⁃ Оптимизация образов Docker и использования GPU-ресурсов
⁃ Обеспечение бесперебойной работы ML-инфраструктуры
⁃ Создание систем алертинга и мониторинга сервисов
🔶Что предлагаем
⁃ З/п - здравая, в рынке. Сумма обсуждается по итогам собеседования, все официально и по ТК РФ
⁃ Команда - профессионалы, искренне любящие свое дело
⁃ Офис в центре Москвы с бесплатной парковкой, гибрид
❗️По всем вопросам к @Veronika_Doronina
MLOps
📍Город: Москва (центр)
Формат работы: офис/гибрид
Занятость: полная
🔷 АНО "ЦИСМ" - аккредитованная IT-компания, работаем по поручению Президента России с октября 2018 года.
Ищем сотрудников для масштабного проекта, связанного с ИИ и машинным обучением.
Задач много, проект интересный, команда сильная.
➡️ Ждем от кандидата
⁃ Опыт работы от 3 лет, в области MLOps от 1 года
⁃ Навыки:
- разворачивания и поддержки ML-инфраструктуры, включая настройку серверов с GPU, платформ оркестрации и контейнеризации
- разработки CI/CD пайплайнов для моделей машинного обучения
- построения систем алертинга и мониторинга, работы по SLA
✅ Задачи
⁃ Построение и развитие вычислительного кластера с GPU в Kubernetes
⁃ Автоматизация процессов сборки, тестирования и деплоя моделей машинного обучения и сервисов
⁃ Работа с движками инференса LLM: vLLM, SGLang для кластеров видеокарт
⁃ Написание пайплайнов CI/CD
⁃ Оптимизация образов Docker и использования GPU-ресурсов
⁃ Обеспечение бесперебойной работы ML-инфраструктуры
⁃ Создание систем алертинга и мониторинга сервисов
🔶Что предлагаем
⁃ З/п - здравая, в рынке. Сумма обсуждается по итогам собеседования, все официально и по ТК РФ
⁃ Команда - профессионалы, искренне любящие свое дело
⁃ Офис в центре Москвы с бесплатной парковкой, гибрид
❗️По всем вопросам к @Veronika_Doronina
#вакансия #NLP #engineer
NLP engineer
Что делать:
- Настраивать и улучшать локальные LLM
- Работать с Retrieval-Augmented Generation (RAG)
- Проводить fine-tuning моделей на наших данных
- Оптимизировать инференс (Ollama, vLLM)
- Внедрять решения в локальные системы
Кого ищем:
- Опыт в NLP от 3 лет
- Знание LLM, RAG, fine-tuning
- Умение работать с Ollama, vLLM
- Образование: бакалавр или выше по направлению (ИТ, математика)
Что предлагаем:
- Интересные проекты в сфере ИИ
- Удаленная работа из РФ
- От 250 000 Net, итоговая сумма по результатам собеседования
Контакты:
Telegram @parcete
NLP engineer
Что делать:
- Настраивать и улучшать локальные LLM
- Работать с Retrieval-Augmented Generation (RAG)
- Проводить fine-tuning моделей на наших данных
- Оптимизировать инференс (Ollama, vLLM)
- Внедрять решения в локальные системы
Кого ищем:
- Опыт в NLP от 3 лет
- Знание LLM, RAG, fine-tuning
- Умение работать с Ollama, vLLM
- Образование: бакалавр или выше по направлению (ИТ, математика)
Что предлагаем:
- Интересные проекты в сфере ИИ
- Удаленная работа из РФ
- От 250 000 Net, итоговая сумма по результатам собеседования
Контакты:
Telegram @parcete
#вакансия #ML_Lead #fulltime #Москва #офис #гибрид
ML Lead
📍Город: Москва (центр)
Формат работы: офис/гибрид
Занятость: полная
🔷 АНО "ЦИСМ" - аккредитованная IT-компания, работаем по поручению Президента России с октября 2018 года.
Ищем сотрудников для масштабного проекта, связанного с ИИ и машинным обучением.
Задач много, проект интересный, команда сильная.
🧬Стек
⁃ Большие языковые модели (LLM), движки инференса vLLM/SGLang
⁃ PyTorch, HuggingFace Transformers
⁃ NVidia Triton, Docker, Kubernetes
⁃ Python, NumPy, Pandas, Scikit-Learn
⁃ Jira, Confluence, Git
➡️ Ждем от кандидата
⁃ Опыт работы в ML от 4 лет, управления ML командой от 2 лет
⁃ Практический опыт работы с LLM, успешного внедрения генеративных моделей
⁃ Опыт работы с ML-инфраструктурой, движками инференса нейронных сетей
⁃ Хорошее понимание бизнес- и технических метрик
⁃ Опыт проведения исследований и экспериментов для проверки гипотез
⁃ Знание английского языка на уровне понимания технической документации
Будет плюсом профильное образование и опыт ускорения моделей в промышленной эксплуатации
✅ Задачи
⁃ Формирование команды ML-разработчиков под проект. Выстраивание взаимодействия и руководство командой
⁃ Разработка архитектуры проекта (в т.ч. на основе имеющихся наработок)
⁃ Работа с большим объёмом информации, проверка гипотез на реальных данных (социальные сети)
⁃ Управление процессом разработки ML-моделей (включая сроки, метрики качества и тех. документацию)
🔶Что предлагаем
⁃ З/п - обсуждается по итогам собеседования, все официально и по ТК РФ
⁃ Команда - профессионалы, искренне любящие свое дело
⁃ Офис в центре Москвы с бесплатной парковкой, гибрид
❗️По всем вопросам к @Veronika_Doronina
ML Lead
📍Город: Москва (центр)
Формат работы: офис/гибрид
Занятость: полная
🔷 АНО "ЦИСМ" - аккредитованная IT-компания, работаем по поручению Президента России с октября 2018 года.
Ищем сотрудников для масштабного проекта, связанного с ИИ и машинным обучением.
Задач много, проект интересный, команда сильная.
🧬Стек
⁃ Большие языковые модели (LLM), движки инференса vLLM/SGLang
⁃ PyTorch, HuggingFace Transformers
⁃ NVidia Triton, Docker, Kubernetes
⁃ Python, NumPy, Pandas, Scikit-Learn
⁃ Jira, Confluence, Git
➡️ Ждем от кандидата
⁃ Опыт работы в ML от 4 лет, управления ML командой от 2 лет
⁃ Практический опыт работы с LLM, успешного внедрения генеративных моделей
⁃ Опыт работы с ML-инфраструктурой, движками инференса нейронных сетей
⁃ Хорошее понимание бизнес- и технических метрик
⁃ Опыт проведения исследований и экспериментов для проверки гипотез
⁃ Знание английского языка на уровне понимания технической документации
Будет плюсом профильное образование и опыт ускорения моделей в промышленной эксплуатации
✅ Задачи
⁃ Формирование команды ML-разработчиков под проект. Выстраивание взаимодействия и руководство командой
⁃ Разработка архитектуры проекта (в т.ч. на основе имеющихся наработок)
⁃ Работа с большим объёмом информации, проверка гипотез на реальных данных (социальные сети)
⁃ Управление процессом разработки ML-моделей (включая сроки, метрики качества и тех. документацию)
🔶Что предлагаем
⁃ З/п - обсуждается по итогам собеседования, все официально и по ТК РФ
⁃ Команда - профессионалы, искренне любящие свое дело
⁃ Офис в центре Москвы с бесплатной парковкой, гибрид
❗️По всем вопросам к @Veronika_Doronina
Вакансия: ML / Data Science разработчик (Senior)
Компания: Social Media Holding
Формат работы: Удаленно
Занятость: Полная
Зарплата: 200-450к
Требования:
• Опыт работы от 3 лет в ML, Data Science или разработке ML-систем.
• Отличное владение Python (Pandas, NumPy, scikit-learn, TensorFlow, PyTorch) и/или Scala.
• Глубокие знания SQL и опыт работы с реляционными и NoSQL базами данных.
• Опыт работы с инструментами MLOps (MLflow, Kubeflow).
• Опыт контейнеризации (Docker) и оркестрации (Kubernetes).
• Опыт настройки CI/CD для ML-проектов.
• Знание систем стриминга данных (Kafka, RabbitMQ).
• Понимание Data Governance и Data Quality.
Что предстоит делать:
• Разработка и внедрение ML-моделей
• Обнаружение мошенничества (Fraud Detection)
• Прогноз оттока клиентов (Churn Prediction)
• Сегментация клиентов (Customer Segmentation)
• Персональные рекомендации (Recommendation System)
• Динамическое ценообразование (Dynamic Pricing)
Если интересует вакансия, присылайте ваше резюме - @ash_nazaret
Компания: Social Media Holding
Формат работы: Удаленно
Занятость: Полная
Зарплата: 200-450к
Требования:
• Опыт работы от 3 лет в ML, Data Science или разработке ML-систем.
• Отличное владение Python (Pandas, NumPy, scikit-learn, TensorFlow, PyTorch) и/или Scala.
• Глубокие знания SQL и опыт работы с реляционными и NoSQL базами данных.
• Опыт работы с инструментами MLOps (MLflow, Kubeflow).
• Опыт контейнеризации (Docker) и оркестрации (Kubernetes).
• Опыт настройки CI/CD для ML-проектов.
• Знание систем стриминга данных (Kafka, RabbitMQ).
• Понимание Data Governance и Data Quality.
Что предстоит делать:
• Разработка и внедрение ML-моделей
• Обнаружение мошенничества (Fraud Detection)
• Прогноз оттока клиентов (Churn Prediction)
• Сегментация клиентов (Customer Segmentation)
• Персональные рекомендации (Recommendation System)
• Динамическое ценообразование (Dynamic Pricing)
Если интересует вакансия, присылайте ваше резюме - @ash_nazaret
#job #vacancy #NLP #Senior/Lead #remote
Вакансия: NLP Engineer (Senior and Lead)
Компания продуктовая: Social Discovery Group (SDG)
Уровень зп: до $12 000 Senior, до $20 000 Lead
Формат: Удаленно;
Занятость: Полная, 5/2;
Опыт: от 3 лет.
📌Social Discovery Group (SDG) - глобальная технологическая компания, которая создает приложения на стыке знакомств, социальных сетей и развлечений (более 500 миллионов пользователей). Так же SDG инвестирует в IT-стартапы (Open AI, Patreon, Flo, Clubhouse и другие).
Ищу трех специалистов, в разные команды. Для работы сможете рассмотреть 3 успешных продукта: приложение для знакомств; инновационный диалоговый ассистент; виртуальные персонажи для общения.
Разрабатывается преимущественно на open-source моделях.
🔥 Преимущества работы в компании:
- Инновационные продукты, которые решают проблемы одиночества, изоляции и разобщенности, превращая виртуальную близость в новую норму;
- Сильная, экспертная команда с продуктовым мышлением;
- Стабильность. Коммерчески успешные продукты;
- Международная компания (Кипр, Армения, Мальта, ОАЭ, Сербия, Португалии и другие).
Предлагаем:
- Удаленная работа из любой точки мира;
- Отпуск 28 дней + 7 дней в году;
- Медицинские льготы, обучения, оплата конференций, английский язык и другое;
- Финансовая помощь в организация рабочего места (стол, кресло, Wi-Fi, коворкинг и т.д);
- Бонусы до $5000 за рекомендацию успешных кандидатов на должности в компании;
- Внутренняя игровая система благодарности (доп отпуск, сувениры, сертификаты на массаж и т. д).
- Зарплата до $12 000 gross / до $20 000 gross.
✅Важен опыт:
- fine-tuning open-source LLM
- с моделями: LLaMA, Falcon, Vicuna, MPT, Zephyr, Mistral и подобные.
- опыт разработки компонентов диалоговых систем;
- Python, PyTorch;
- Английский язык от В2 (основная коммуникация в команде на русском языке, но есть встречи и на английском).
Буду рада пообщаться и рассказать подробнее 🙌
TG: @Renata_geras
[email protected]
Вакансия: NLP Engineer (Senior and Lead)
Компания продуктовая: Social Discovery Group (SDG)
Уровень зп: до $12 000 Senior, до $20 000 Lead
Формат: Удаленно;
Занятость: Полная, 5/2;
Опыт: от 3 лет.
📌Social Discovery Group (SDG) - глобальная технологическая компания, которая создает приложения на стыке знакомств, социальных сетей и развлечений (более 500 миллионов пользователей). Так же SDG инвестирует в IT-стартапы (Open AI, Patreon, Flo, Clubhouse и другие).
Ищу трех специалистов, в разные команды. Для работы сможете рассмотреть 3 успешных продукта: приложение для знакомств; инновационный диалоговый ассистент; виртуальные персонажи для общения.
Разрабатывается преимущественно на open-source моделях.
🔥 Преимущества работы в компании:
- Инновационные продукты, которые решают проблемы одиночества, изоляции и разобщенности, превращая виртуальную близость в новую норму;
- Сильная, экспертная команда с продуктовым мышлением;
- Стабильность. Коммерчески успешные продукты;
- Международная компания (Кипр, Армения, Мальта, ОАЭ, Сербия, Португалии и другие).
Предлагаем:
- Удаленная работа из любой точки мира;
- Отпуск 28 дней + 7 дней в году;
- Медицинские льготы, обучения, оплата конференций, английский язык и другое;
- Финансовая помощь в организация рабочего места (стол, кресло, Wi-Fi, коворкинг и т.д);
- Бонусы до $5000 за рекомендацию успешных кандидатов на должности в компании;
- Внутренняя игровая система благодарности (доп отпуск, сувениры, сертификаты на массаж и т. д).
- Зарплата до $12 000 gross / до $20 000 gross.
✅Важен опыт:
- fine-tuning open-source LLM
- с моделями: LLaMA, Falcon, Vicuna, MPT, Zephyr, Mistral и подобные.
- опыт разработки компонентов диалоговых систем;
- Python, PyTorch;
- Английский язык от В2 (основная коммуникация в команде на русском языке, но есть встречи и на английском).
Буду рада пообщаться и рассказать подробнее 🙌
TG: @Renata_geras
[email protected]
Telegram
Renata Gerasimova
IT / Gamedev sourcer / recruiter
#вакансия #Data #Engineer #разработчик #ELT #Middle+ #Senior #удаленно
Компания: Smart Solutions LTD
Уровень зп: 15$ per hour;
Локация: worldwide;
Формат: удаленная работа;
Занятость: part-time;
Опыт: от 4 лет.
Senior/Middle Data Engineer (ETL)
Требования:
у нас есть база данных postgres, которая может содержать миллионы строк, но нам нужно более быстрое извлечение данных.
Мы думаем об elastic search, но не уверены, ищем консультацию с опытным инженером по данным
Задачи:
Помогите найти правильное масштабируемое решение.
Резюме ожидаю в Тг @buna_seara_aqrt
могу платить криптовалютой
Компания: Smart Solutions LTD
Уровень зп: 15$ per hour;
Локация: worldwide;
Формат: удаленная работа;
Занятость: part-time;
Опыт: от 4 лет.
Senior/Middle Data Engineer (ETL)
Требования:
у нас есть база данных postgres, которая может содержать миллионы строк, но нам нужно более быстрое извлечение данных.
Мы думаем об elastic search, но не уверены, ищем консультацию с опытным инженером по данным
Задачи:
Помогите найти правильное масштабируемое решение.
Резюме ожидаю в Тг @buna_seara_aqrt
могу платить криптовалютой
Ищу ИИ-специалиста для консультации по генерации видео контента
Нужен эксперт по видео-ИИ!
Ищу специалиста, который разбирается в генерации видео с помощью нейросетей (любые сервисы, важен результат) и может подробно объяснить процесс создания качественного видео контента с персонажем и без.
Что нужно:
✅ Провести консультацию (формат обсуждается)
✅ Рассказать, какие инструменты сейчас лучшие
✅ Поделиться лайфхаками по настройке моделей/посторбработки ИИ-видео
✅ Объяснить, как получать максимально реалистичный и качественный контент
✅ По итогу хочу понять, как делать то или иное видео для контента с нужным персонажем под запрос
💰 Формат работы: Разовая консультация (можно обсудить серию консультаций - имеет значение только результат).
💬 Какой формат удобен: Telegram.
📩 Если у вас есть опыт в этой сфере – напишите: @Tabylko918
Если у вас уже есть примеры работ, также присылайте с ответным письмом в личные сообщения: @Tabylko918
Нужен эксперт по видео-ИИ!
Ищу специалиста, который разбирается в генерации видео с помощью нейросетей (любые сервисы, важен результат) и может подробно объяснить процесс создания качественного видео контента с персонажем и без.
Что нужно:
✅ Провести консультацию (формат обсуждается)
✅ Рассказать, какие инструменты сейчас лучшие
✅ Поделиться лайфхаками по настройке моделей/посторбработки ИИ-видео
✅ Объяснить, как получать максимально реалистичный и качественный контент
✅ По итогу хочу понять, как делать то или иное видео для контента с нужным персонажем под запрос
💰 Формат работы: Разовая консультация (можно обсудить серию консультаций - имеет значение только результат).
💬 Какой формат удобен: Telegram.
📩 Если у вас есть опыт в этой сфере – напишите: @Tabylko918
Если у вас уже есть примеры работ, также присылайте с ответным письмом в личные сообщения: @Tabylko918
Ищем Data Engineer (Middle/Middle+/Senior) в аутстафф-компанию Top Selection для работы над зарубежным ритейл-проектом.
Грейд: Senior
Название компании: Top Selection
Локация: Не важно
Часовой пояс: МСК
Предметные области: ритейл
Формат работы: Удалёнка
Мы ищем Data Platform Engineer с опытом работы в Microsoft Fabric или Databricks для построения и оптимизации дата-платформы в ритейле.
Основная задача – разработка облачной платформы обработки данных, интеграция с различными источниками и аналитика в реальном времени.
Работа в ритейле требует глубокого понимания данных о продажах, цепочке поставок, потребительском поведении и управлении товарными запасами.
Обязанности:
Ключевые обязанности (MS Fabric):
- Проектирование архитектуры данных на Microsoft Fabric (OneLake, Lakehouses, Synapse Data Warehouse, Power BI).
- Разработка и внедрение ETL/ELT-конвейеров данных (Fabric Data Pipelines, Azure Data Factory).
- Оптимизация хранения и обработки данных в OneLake и Lakehouses.
- Настройка Real-Time Analytics (анализ транзакций, логистика, продажи в режиме реального времени).
- Интеграция с Power BI и построение семантических моделей.
- Оптимизация SQL-запросов для больших объемов данных в Synapse Data Warehouse.
- Автоматизация CI/CD-конвейеров (Azure GitOps).
- Обеспечение безопасности данных и соответствие стандартам работы с персональными и коммерческими данными.
Технологии, с которыми предстоит работать:
- Microsoft Fabric:
- OneLake (облачное lakehouse-хранилище данных)
- Lakehouses (совмещение Data Lake и традиционных DWH)
- Data Pipelines (аналог Azure Data Factory)
- Synapse Data Warehouse (облачный аналитический движок)
- Real-Time Analytics (потоковая обработка данных)
- Power BI & Semantic Models (бизнес-аналитика)
- KQL (Kusto Query Language) для анализа событий и логов
- DevOps & CI/CD:
- Azure GitOps, YAML-пайплайны
- Автоматизированное развертывание и управление инфраструктурой данных
Требования:
- Практический опыт работы с Microsoft Fabric или Databricks (или другим релевантным облачным стеком).
- От 2 лет опыта в data engineering и облачных хранилищах данных.
- Глубокие знания SQL, Python, Spark/PySpark, T-SQL.
- Опыт оптимизации SQL-запросов и работы с большими объемами данных.
- Понимание архитектуры баз данных и lakehouse-концепции.
- Опыт работы с ETL/ELT-процессами, DataOps, CI/CD для данных.
Пожелания:
Будет плюсом:
- Опыт работы с потоковыми данными (Kafka, Event Hubs, Stream Analytics).
- Знание ритейл-данных (ценообразование, товарные запасы, программы лояльности).
- Опыт работы с Delta Lake, Databricks ML.
- Оптимизация SQL-запросов и настройка кластера Spark.
Сертификации (желательно):
- Microsoft Certified: Fabric Analytics Engineer Associate
- Microsoft Certified: Azure Data Engineer Associate
- Databricks Certified Data Engineer Associate/Professional
Контактные данные: @mherchopurian / @datasciencejobs
#вакансия #DataEngineer #Middle #MSFabric #Databricks #Удаленно
Грейд: Senior
Название компании: Top Selection
Локация: Не важно
Часовой пояс: МСК
Предметные области: ритейл
Формат работы: Удалёнка
Мы ищем Data Platform Engineer с опытом работы в Microsoft Fabric или Databricks для построения и оптимизации дата-платформы в ритейле.
Основная задача – разработка облачной платформы обработки данных, интеграция с различными источниками и аналитика в реальном времени.
Работа в ритейле требует глубокого понимания данных о продажах, цепочке поставок, потребительском поведении и управлении товарными запасами.
Обязанности:
Ключевые обязанности (MS Fabric):
- Проектирование архитектуры данных на Microsoft Fabric (OneLake, Lakehouses, Synapse Data Warehouse, Power BI).
- Разработка и внедрение ETL/ELT-конвейеров данных (Fabric Data Pipelines, Azure Data Factory).
- Оптимизация хранения и обработки данных в OneLake и Lakehouses.
- Настройка Real-Time Analytics (анализ транзакций, логистика, продажи в режиме реального времени).
- Интеграция с Power BI и построение семантических моделей.
- Оптимизация SQL-запросов для больших объемов данных в Synapse Data Warehouse.
- Автоматизация CI/CD-конвейеров (Azure GitOps).
- Обеспечение безопасности данных и соответствие стандартам работы с персональными и коммерческими данными.
Технологии, с которыми предстоит работать:
- Microsoft Fabric:
- OneLake (облачное lakehouse-хранилище данных)
- Lakehouses (совмещение Data Lake и традиционных DWH)
- Data Pipelines (аналог Azure Data Factory)
- Synapse Data Warehouse (облачный аналитический движок)
- Real-Time Analytics (потоковая обработка данных)
- Power BI & Semantic Models (бизнес-аналитика)
- KQL (Kusto Query Language) для анализа событий и логов
- DevOps & CI/CD:
- Azure GitOps, YAML-пайплайны
- Автоматизированное развертывание и управление инфраструктурой данных
Требования:
- Практический опыт работы с Microsoft Fabric или Databricks (или другим релевантным облачным стеком).
- От 2 лет опыта в data engineering и облачных хранилищах данных.
- Глубокие знания SQL, Python, Spark/PySpark, T-SQL.
- Опыт оптимизации SQL-запросов и работы с большими объемами данных.
- Понимание архитектуры баз данных и lakehouse-концепции.
- Опыт работы с ETL/ELT-процессами, DataOps, CI/CD для данных.
Пожелания:
Будет плюсом:
- Опыт работы с потоковыми данными (Kafka, Event Hubs, Stream Analytics).
- Знание ритейл-данных (ценообразование, товарные запасы, программы лояльности).
- Опыт работы с Delta Lake, Databricks ML.
- Оптимизация SQL-запросов и настройка кластера Spark.
Сертификации (желательно):
- Microsoft Certified: Fabric Analytics Engineer Associate
- Microsoft Certified: Azure Data Engineer Associate
- Databricks Certified Data Engineer Associate/Professional
Контактные данные: @mherchopurian / @datasciencejobs
#вакансия #DataEngineer #Middle #MSFabric #Databricks #Удаленно
#job #работа #кемерово #ии #ai
Требуется исполнитель на удаленную работу над задачей:
Нужно написать софт для интерактивной выставки.
Краткое описание:
Выставка представляет из себя интерактивную картинную галерею. Технически состоит из нескольких сетапов TV+клавиатура, возможно подключенные к одному обрабатывающему устройству, либо устройств будет несколько, индивидуально к каждому сетапу.
Приблизительный алгоритм действий, которые должна обрабатывать программа/web-страница:
Посетитель подходит к стенду, вводит с клавиатуры запрос в текстовое поле. Этот запрос автоматически в фоне "мэджик-промптится" (переводится на англ, добавляются детали). Далее важно, чтобы автоматически дописывался промпт для создания стилистики картины Леонова из текущего запроса. результат выводится на экран, застывает на какое-то время.
Можно использовать любые сервисы, которые могут генерировать картинки.
Условия:
Нужно быть налоговым резидентом РФ и иметь зарегистрированное ООО или ИП. Но возможна работа и по самозанятости.
Стоимость работы - договорная.
Для связи: @leshamiloserdov
Требуется исполнитель на удаленную работу над задачей:
Нужно написать софт для интерактивной выставки.
Краткое описание:
Выставка представляет из себя интерактивную картинную галерею. Технически состоит из нескольких сетапов TV+клавиатура, возможно подключенные к одному обрабатывающему устройству, либо устройств будет несколько, индивидуально к каждому сетапу.
Приблизительный алгоритм действий, которые должна обрабатывать программа/web-страница:
Посетитель подходит к стенду, вводит с клавиатуры запрос в текстовое поле. Этот запрос автоматически в фоне "мэджик-промптится" (переводится на англ, добавляются детали). Далее важно, чтобы автоматически дописывался промпт для создания стилистики картины Леонова из текущего запроса. результат выводится на экран, застывает на какое-то время.
Можно использовать любые сервисы, которые могут генерировать картинки.
Условия:
Нужно быть налоговым резидентом РФ и иметь зарегистрированное ООО или ИП. Но возможна работа и по самозанятости.
Стоимость работы - договорная.
Для связи: @leshamiloserdov
#вакансия #DE #dataengineer #DWH #pandas #clickhouse #SQL #BigQuery #AirFlow #DBT #parttime #fulltime #remote
Всем привет!
Ищу к себе в команду middle/senior-специалиста по data-инжинирингу.
Я аналитик, строю аналитические DWH для бизнеса, внедряю сквозную аналитику и создаю дашборды (подробнее в лс).
У меня небольшая команда - один специалист на full-time и несколько на фри-лансе.
Объем работы по клиентам растет, поэтому ищу еще одного специалиста на part/full-time (от 20 ч в неделю).
Необходимый стек:
- минимум Python (ООП, Pandas), AirFlow
- желательный Python (ООП, Pandas), SQL (ClickHouse/Google BigQuery), AirFlow, DBT
Оплата сдельная - от 80 тыс. руб.
Формат работы: удаленно
Для связи: @isrustam
Всем привет!
Ищу к себе в команду middle/senior-специалиста по data-инжинирингу.
Я аналитик, строю аналитические DWH для бизнеса, внедряю сквозную аналитику и создаю дашборды (подробнее в лс).
У меня небольшая команда - один специалист на full-time и несколько на фри-лансе.
Объем работы по клиентам растет, поэтому ищу еще одного специалиста на part/full-time (от 20 ч в неделю).
Необходимый стек:
- минимум Python (ООП, Pandas), AirFlow
- желательный Python (ООП, Pandas), SQL (ClickHouse/Google BigQuery), AirFlow, DBT
Оплата сдельная - от 80 тыс. руб.
Формат работы: удаленно
Для связи: @isrustam