#вакансия
Группа компаний Excdev
Data engineer (DWH)
Удаленный формат работы
График с 10.00 до 19.00 по московскому времени.
Возможность работать из любой точки мира.
Вилка:от 200 до 330 тысяч рублей.
Чем предстоит заниматься:
• Разработка и поддержка решений для управления основными данными (MDM).
• Интеграция данных из различных источников и обеспечение их консистентности и целостности.
• Разработка ETL процессов для обработки и нормализации данных.
• Создание и поддержка системы качества данных, управление их дублированием.
• Интеграция с Kafka для обеспечения надежной передачи и синхронизации данных.
• Разработка и поддержка процессов парсинга данных из интернета и их интеграции в MDM.
• Работа с метаданными, управление ими и их обновление.
• Тесное взаимодействие с командами DWH и BI для обеспечения корректного использования данных.
Наши ожидания от кандидата:
• Высшее математическое или техническое образование;
• Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных
• в сфере веб и/или мобильных продуктов;
• Опыт работы с MDM решениями и понимание принципов управления основными данными.
• Опыт разработки ETL процессов и работы с инструментами ETL.
• Глубокие знания SQL и опыт работы с реляционными базами данных.
• Опыт работы с Apache Kafka для интеграции и синхронизации данных.
• Навыки парсинга данных из интернета и их нормализации.
• Опыт работы с инструментами управления качеством данных и их дублированием.
• Опыт работы с метаданными и их управлением.
Резюме:@VLT_recruiter
Группа компаний Excdev
Data engineer (DWH)
Удаленный формат работы
График с 10.00 до 19.00 по московскому времени.
Возможность работать из любой точки мира.
Вилка:от 200 до 330 тысяч рублей.
Чем предстоит заниматься:
• Разработка и поддержка решений для управления основными данными (MDM).
• Интеграция данных из различных источников и обеспечение их консистентности и целостности.
• Разработка ETL процессов для обработки и нормализации данных.
• Создание и поддержка системы качества данных, управление их дублированием.
• Интеграция с Kafka для обеспечения надежной передачи и синхронизации данных.
• Разработка и поддержка процессов парсинга данных из интернета и их интеграции в MDM.
• Работа с метаданными, управление ими и их обновление.
• Тесное взаимодействие с командами DWH и BI для обеспечения корректного использования данных.
Наши ожидания от кандидата:
• Высшее математическое или техническое образование;
• Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных
• в сфере веб и/или мобильных продуктов;
• Опыт работы с MDM решениями и понимание принципов управления основными данными.
• Опыт разработки ETL процессов и работы с инструментами ETL.
• Глубокие знания SQL и опыт работы с реляционными базами данных.
• Опыт работы с Apache Kafka для интеграции и синхронизации данных.
• Навыки парсинга данных из интернета и их нормализации.
• Опыт работы с инструментами управления качеством данных и их дублированием.
• Опыт работы с метаданными и их управлением.
Резюме:@VLT_recruiter
Для финтех продукта требуется ML-специалист.
Задача:
Разработать сервис для распознавания чеков по заданным шаблонам с использованием машинного зрения и нейросетей. Задача включает обработку изображений, извлечение текста (OCR) и привязку данных к структурам.
Возможен парт-тайм. Работа полностью удаленная
Требования:
- Уверенное знание Python или Go в задачах машинного обучения
- Опыт с OpenCV, OCR
- Практика с нейросетями: TensorFlow, PyTorch и пр.
- Знание архитектур типа ResNet
- Умение работать с шаблонами, структурировать извлечённые данные
Будет плюсом:
- Опыт в распознавании документов или чеков
- Оптимизация моделей для продакшн
Условия:
- Удалённая работа
- Заработная плата от 2000 USDT (обсуждается по опыту)
Контакт для отклика: @mikhpletnev
Задача:
Разработать сервис для распознавания чеков по заданным шаблонам с использованием машинного зрения и нейросетей. Задача включает обработку изображений, извлечение текста (OCR) и привязку данных к структурам.
Возможен парт-тайм. Работа полностью удаленная
Требования:
- Уверенное знание Python или Go в задачах машинного обучения
- Опыт с OpenCV, OCR
- Практика с нейросетями: TensorFlow, PyTorch и пр.
- Знание архитектур типа ResNet
- Умение работать с шаблонами, структурировать извлечённые данные
Будет плюсом:
- Опыт в распознавании документов или чеков
- Оптимизация моделей для продакшн
Условия:
- Удалённая работа
- Заработная плата от 2000 USDT (обсуждается по опыту)
Контакт для отклика: @mikhpletnev
Quantitative Researcher
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
📍Компания: Бонанза Крип
🌏Локация: удаленно
💸ЗП: 2000$ - 5000$
📌О проекте:
Мы создаем внутренний финтех-продукт — высоконагруженную платформу для аналитики и прогнозирования на криптовалютных и традиционных финансовых рынках
Компания работает с 2018 года как частный фонд, инвестируя собственный капитал. В команде фаундер с успешным опытом в трейдинге с 2015 года и аналитик с более чем 15-летним стажем
❓️Кого мы ищем?
Специалиста, способного генерировать и проверять математически обоснованные идеи, которые лягут в основу торговых стратегий.
Мы ищем НЕ трейдера, а аналитика-исследователя, умеющего работать с рыночными данными, статистикой и машинным обучением.
✅️Обязанности:
▪️︎ Исследование рынка и подходов к трейдингу
– Анализ структуры и динамики криптовалютного рынка
– Изучение и внедрение best practices из академических и индустриальных источников
▪️︎ Feature engineering и работа с данными
– Генерация и структурирование наборов рыночных, фундаментальных и альтернативных данных
– Создание новых признаков на основе экономически обоснованных гипотез
▪️︎ Оценка гипотез и стратегий
– Тестирование фич и стратегий с использованием ML-инструментов и внутренних бейзлайнов
– Анализ результатов и формализация выводов
▪️︎ Инженерная составляющая
– Работа с большими объёмами данных (pandas, numpy и т.п.)
– Визуализация данных (matplotlib, seaborn)
– (Опционально) участие в разработке инфраструктуры для ресёрча
✅️Требования:
🔹 Образование:
– Высшее математическое образование (прикладная математика, статистика, физика, математическая экономика и т.п.) — строго обязательно
🔹 Опыт:
– Практический опыт работы с рыночными или иными временными рядами
– Применение статистических и ML-моделей для анализа данных
– Участие в исследовательских проектах, связанных с финансовыми/экономическими моделями
🔹 Навыки:
– Уверенное знание Python: pandas, numpy, sklearn, matplotlib
– Понимание базовых концепций ML (регрессия, классификация, метрики качества моделей и т.п.)
– Умение структурировать исследование: от постановки гипотезы до выводов
– Английский язык — B2 и выше
❌️Что мы НЕ рассматриваем:
– Опыт исключительно в личной торговле или управлении личным портфелем
– Участие в автоторговле через 3commas и аналогичные сервисы без исследовательской составляющей
– Опыт работы без аналитической, количественной или исследовательской направленности
➕️Будет плюсом:
– Опыт работы в стартапе или небольшой команде
– Знание специфики крипторынков (DEX, CEX, on-chain/оff-chain метрики)
– Опыт работы с нейросетями для табличных данных (LSTM, TabNet, TabR и др.)
✅️Условия:
-Полная занятость, удаленная работа
-Гибкий график
-Работа в часовом поясе UTC+0 ±3 часа для удобства коммуникации в команде
❗️Отклики принимаются по ссылке: https://forms.fillout.com/t/mnz5sDPNhSus
Дата-инженер
#удаленка #junior
Компания: Т-Банк
🔹Обязанности
-Участвовать в формировании модели данных
-Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
-Участвовать в проектах по развитию Data Platform
-Писать скрипты SQL и Python
-Прорабатывать интеграции с внешними системами для Data Platform
🔹Требования
-У вас есть опыт работы с DWH в роли аналитика или разработчика от года
-Уверенно владеете SQL
-Знаете Python или другой язык программирования на базовом уровне
-Понимаете теорию СУБД- и ETL-процессов
-Хотите развиваться в роли дата-инженера
Контакты: https://www.tbank.ru/career/it/dwh/data_engineer_junior/
#удаленка #junior
Компания: Т-Банк
🔹Обязанности
-Участвовать в формировании модели данных
-Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
-Участвовать в проектах по развитию Data Platform
-Писать скрипты SQL и Python
-Прорабатывать интеграции с внешними системами для Data Platform
🔹Требования
-У вас есть опыт работы с DWH в роли аналитика или разработчика от года
-Уверенно владеете SQL
-Знаете Python или другой язык программирования на базовом уровне
-Понимаете теорию СУБД- и ETL-процессов
-Хотите развиваться в роли дата-инженера
Контакты: https://www.tbank.ru/career/it/dwh/data_engineer_junior/
Позиция: Senior scoring developer / старший разработчик моделей кредитного скоринга.
Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).
Занятость: полная.
ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).
Компания или отрасль: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰
Почему ищем: в связи с ростом компании 📈
Ключевые навыки:
🔹 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
🔹 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
🔹 Глубокие знания математической статистики и теории вероятностей;
🔹 Опыт оптимизации методологии построения скоринговых моделей;
🔹 Опыт работы с A/B-тестированием и анализом экспериментальных данных.
Над какими задачами предстоит работать:
🔹 Анализ источников данных и расширение модели данных по клиенту;
🔹 Разработка и оптимизация моделей кредитного скоринга;
🔹 Разработка и оптимизация методологии построения скоринговых моделей;
🔹 Развитие мониторинга действующих ML-моделей;
🔹 Подготовка документации по разработанным моделям;
🔹 Анализ моделей с точки зрения их экономической эффективности;
🔹 Участие в развитии компетенций и методологий команды моделирования;
🔹 Взаимодействие с IT-командами для реализации моделей в продуктиве.
Предлагаем:
🔹 Только официальное трудоустройство - по ТК РФ, белая зп;
🔹 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🔹 Трудоустройство в аккредитованную IT-компанию;
🔹 Ежегодную индексацию заработной платы;
🔹 Приобретение курсов для сотрудников;
🔹 Обеспечение рабочей техникой;
🔹 Оплачиваемые поездки на профильные конференции;
🔹 ДМС со стоматологией (по РФ).
Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻
Пишите в ТГ:
ТГ: @victory_russia
Желательно сразу прикрепить резюме 😉
Локация: Нижний Новгород (Россия)
Формат работы: офис / гибрид / удаленно (с территории РФ).
Занятость: полная.
ЗП: от 250 тыс. руб. на руки (финальная сумма обсуждается с успешным кандидатом).
Компания или отрасль: ГК "Krediska +" (финтех).
12 лет на российском рынке, множество интересных продуктов, высокий уровень экспертизы на рынке МФО 💰
Почему ищем: в связи с ростом компании 📈
Ключевые навыки:
🔹 Опыт разработки моделей кредитного скоринга и анализа их эффективности от 3-х лет;
🔹 Опыт работы с данными кредитных историй;
Отличные аналитические навыки;
🔹 Глубокие знания математической статистики и теории вероятностей;
🔹 Опыт оптимизации методологии построения скоринговых моделей;
🔹 Опыт работы с A/B-тестированием и анализом экспериментальных данных.
Над какими задачами предстоит работать:
🔹 Анализ источников данных и расширение модели данных по клиенту;
🔹 Разработка и оптимизация моделей кредитного скоринга;
🔹 Разработка и оптимизация методологии построения скоринговых моделей;
🔹 Развитие мониторинга действующих ML-моделей;
🔹 Подготовка документации по разработанным моделям;
🔹 Анализ моделей с точки зрения их экономической эффективности;
🔹 Участие в развитии компетенций и методологий команды моделирования;
🔹 Взаимодействие с IT-командами для реализации моделей в продуктиве.
Предлагаем:
🔹 Только официальное трудоустройство - по ТК РФ, белая зп;
🔹 8-часовой рабочий день, гибкое начало дня (с 7 до 10 утра МСК);
🔹 Трудоустройство в аккредитованную IT-компанию;
🔹 Ежегодную индексацию заработной платы;
🔹 Приобретение курсов для сотрудников;
🔹 Обеспечение рабочей техникой;
🔹 Оплачиваемые поездки на профильные конференции;
🔹 ДМС со стоматологией (по РФ).
Если есть желание переехать в Нижний Новгород, то поможем с организацией переезда (есть релокационный бонус) 👍🏻
Пишите в ТГ:
ТГ: @victory_russia
Желательно сразу прикрепить резюме 😉
Всем привет, мы в m2.ru расширяемся и ищем Data/DevOps инженера!
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.
Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).
Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).
По всем вопросам можно писать @vika_nkl
Обязанности:
• Развёртывание, настройка и поддержка аналитических СУБД (ClickHouse, Trino, PostgreSQL) в продакшене и тестовой среде.
• Настройка мониторинга, логирования и алертинга для систем хранения и обработки данных.
• Автоматизация процессов развертывания и масштабирования с использованием инструментов IaC (Terraform, Ansible и пр.).
• Участие в построении отказоустойчивой архитектуры хранения и обработки данных.
• Оптимизация производительности СУБД и обеспечение их безопасности.
• Работа совместно с аналитиками и разработчиками для обеспечения надёжного доступа к данным.
• Создание и поддержка CI/CD пайплайнов для компонентов аналитической платформы.
Требования:
• Уверенное знание Linux и принципов работы сетей.
• Опыт настройки, администрирования и мониторинга ClickHouse и Trino.
• Опыт работы с PostgreSQL: настройка, репликация, резервное копирование.
• Понимание принципов работы распределённых СУБД и OLAP-систем.
• Опыт написания и сопровождения инфраструктурного кода (Terraform, Ansible или аналогичные инструменты).
• Знание систем мониторинга (Prometheus + Grafana, Zabbix или аналогичные).
• Опыт работы с Docker и Kubernetes.
• Навыки отладки проблем производительности (CPU, IO, план выполнения запросов и т.д.).
Будет плюсом:
• Опыт построения high-load аналитической инфраструктуры.
• Знание систем брокеров сообщений (у нас Kafka).
• Опыт использования Airflow
• Опыт работы с облачными провайдерами (AWS, Yandex Cloud, GCP и пр.).
• Навыки скриптинга (bash, Python, Go).
По всем вопросам можно писать @vika_nkl
#вакансия #удаленка #фуллтайм
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
Data Engineer
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Привет! Меня зовут Анастасия и я HR компании "MIA Dev".
Сейчас мы расширяем нашу команду и рады принять специалистов на должность "Data Engineer".
Чем предстоит заниматься:
Поддержка и разбор инцидентов в текущих потоках
Развитие и поддержка облачной инфраструктуры
Исследование источников данных, проектирование витрин
Извлечение, преобразование, загрузка данных и обработка ETL/ELT (Python/Airflow)
Создание и развитие процессов управления данными и их качеством
Оптимизация процессов поставки данных
Наши ожидания:
Опыт работы с Python
Уверенные знания SQL и опыт работы с базами данных
Понимание концепций построения хранилищ данных
Хорошие аналитические навыки
Опыт работы с технологиями (framework) Big Data: Apache Airflow, Spark и его компоненты, очереди (MQ): Kafka, RabbitMQ
Готовы предложить:
Оформление: ИП, ГПХ или СЗ
Комфортный доход по итогам собеседования (пересмотр заработной платы 2 раза в год)
5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
Удобный формат работы: полная удаленка
Современные и интересные задачи на проекте
Локация РФ
Для связи: @patrikeeva_mia_dev
#вакансия #vacancy #job #middle #senior #backend #developer #python #fulltime #удаленка #Match_Systems
Вакансия: Middle/Senior Backend Developer (Python)
Форма занятости: удаленная/в офисе
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций)
Зарплата: от 2500$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Обязанности:
- Проектирование и развитие высоконагруженных backend-сервисов на Python
- Оптимизация производительности и масштабируемости системы для работы в условиях highload
- Разработка и внедрение тестов (юнит-тесты, интеграционные тесты)
- Участие в код-ревью и обеспечении высокого качества кода
- Анализ и устранение узких мест в производительности системы
- Взаимодействие с другими командами для реализации и поддержки масштабируемых решений
Требования:
- Опыт работы: от 5 лет в разработке на Python
- Глубокие знания и опыт работы с FastAPI
- Опыт работы с PostgreSQL и другими реляционными СУБД, умение эффективно использовать ORM
- Опыт разработки и оптимизации RESTful API, опыт работы с gRPC, RPC
- Знания и опыт работы с очередями сообщений, такими как RabbitMQ
- Уверенные навыки работы с Kafka
- Глубокое понимание и практический опыт работы с асинхронностью (asyncio, aiohttp и др), многопоточностью (threading) и мультипроцессностью (multiprocessing) в Python, включая выбор оптимального метода параллельного исполнения (I/O-bound vs. CPU-bound), учет влияния GIL (Global Interpreter Lock), а также построение высоконагруженных асинхронных сервисов
- Знания принципов работы fifo / lifo очередей, отличие очереди от pub / sub
- Опыт работы с криптовалютами и блокчейн-технологиями
- Знания и опыт разработки торговых ботов или алгоритмических систем
- Опыт в оптимизации производительности программного обеспечения, в том числе в условиях highload
- Знание паттернов проектирования и принципов SOLID
- Знание принципов работы блокчейн-протоколов будет значительным преимуществом
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Ссылку на GitHub/Портфолио присылать обязательно.
Для связи : @daryana_bye
Вакансия: Middle/Senior Backend Developer (Python)
Форма занятости: удаленная/в офисе
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций)
Зарплата: от 2500$ (определяется по результатам собеседования)
Занятость: полная (на протяжении испытательного срока возможна частичная)
Обязанности:
- Проектирование и развитие высоконагруженных backend-сервисов на Python
- Оптимизация производительности и масштабируемости системы для работы в условиях highload
- Разработка и внедрение тестов (юнит-тесты, интеграционные тесты)
- Участие в код-ревью и обеспечении высокого качества кода
- Анализ и устранение узких мест в производительности системы
- Взаимодействие с другими командами для реализации и поддержки масштабируемых решений
Требования:
- Опыт работы: от 5 лет в разработке на Python
- Глубокие знания и опыт работы с FastAPI
- Опыт работы с PostgreSQL и другими реляционными СУБД, умение эффективно использовать ORM
- Опыт разработки и оптимизации RESTful API, опыт работы с gRPC, RPC
- Знания и опыт работы с очередями сообщений, такими как RabbitMQ
- Уверенные навыки работы с Kafka
- Глубокое понимание и практический опыт работы с асинхронностью (asyncio, aiohttp и др), многопоточностью (threading) и мультипроцессностью (multiprocessing) в Python, включая выбор оптимального метода параллельного исполнения (I/O-bound vs. CPU-bound), учет влияния GIL (Global Interpreter Lock), а также построение высоконагруженных асинхронных сервисов
- Знания принципов работы fifo / lifo очередей, отличие очереди от pub / sub
- Опыт работы с криптовалютами и блокчейн-технологиями
- Знания и опыт разработки торговых ботов или алгоритмических систем
- Опыт в оптимизации производительности программного обеспечения, в том числе в условиях highload
- Знание паттернов проектирования и принципов SOLID
- Знание принципов работы блокчейн-протоколов будет значительным преимуществом
Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей
Итоговый размер и формат компенсационного пакета обсуждается индивидуально.
Ссылку на GitHub/Портфолио присылать обязательно.
Для связи : @daryana_bye
Senior Software Engineer
Локация: Удалённо
Компания: HighSky
ЗП: от $5 000 до $9 000
Занятость: Полная
HighSky — быстрорастущий стартап на стыке разработки и ML. Работаем над генерацией текста, аудио, видео, обогащением данных (из соцсетей, видеохостингов и т.д.), а также задачами, связанными с блокчейном.
Что предстоит делать:
— Разрабатывать инфраструктурные решения для AI-команд: библиотеки, шаблоны и внутренние сервисы
— Проектировать и оптимизировать высоконагруженные сервисы для продакшен-развертывания ML-моделей
— Поддерживать ML-инженеров с backend-задачами и интеграцией внешних решений
— Работать с реляционными и NoSQL-БД, выбирать подходящие под задачу
— Адаптировать и внедрять open-source решения
Требования:
— Отличное знание Python, опыт работы с микросервисами
— 5+ лет на Python
— Опыт работы с высоконагруженными системами
— Понимание System Design, опыт с брокерами сообщений и балансировкой нагрузки
— Уверенное знание SQL, опыт с реляционными и NoSQL-СУБД
— Опыт работы с ML
— Профильное высшее образование ❗️
— Английский на уровне B2+
Будет плюсом:
— Опыт работы с блокчейн-данными
— Знание C++ / Go / Java
Что предлагаем:
— Участие в разработке реальных продуктов с живым трафиком
— Зарплата $5000–9000 в зависимости от результатов собеседования
— Честную, открытую культуру без бюрократии
— Полностью удалённую работу и гибкий график
— Аналог ДМС
— Компенсация за улучшение техники / спортзал / хобби
— Приятные подарки на праздники
📩 Резюме и вопросы: @easezzzz
Локация: Удалённо
Компания: HighSky
ЗП: от $5 000 до $9 000
Занятость: Полная
HighSky — быстрорастущий стартап на стыке разработки и ML. Работаем над генерацией текста, аудио, видео, обогащением данных (из соцсетей, видеохостингов и т.д.), а также задачами, связанными с блокчейном.
Что предстоит делать:
— Разрабатывать инфраструктурные решения для AI-команд: библиотеки, шаблоны и внутренние сервисы
— Проектировать и оптимизировать высоконагруженные сервисы для продакшен-развертывания ML-моделей
— Поддерживать ML-инженеров с backend-задачами и интеграцией внешних решений
— Работать с реляционными и NoSQL-БД, выбирать подходящие под задачу
— Адаптировать и внедрять open-source решения
Требования:
— Отличное знание Python, опыт работы с микросервисами
— 5+ лет на Python
— Опыт работы с высоконагруженными системами
— Понимание System Design, опыт с брокерами сообщений и балансировкой нагрузки
— Уверенное знание SQL, опыт с реляционными и NoSQL-СУБД
— Опыт работы с ML
— Профильное высшее образование ❗️
— Английский на уровне B2+
Будет плюсом:
— Опыт работы с блокчейн-данными
— Знание C++ / Go / Java
Что предлагаем:
— Участие в разработке реальных продуктов с живым трафиком
— Зарплата $5000–9000 в зависимости от результатов собеседования
— Честную, открытую культуру без бюрократии
— Полностью удалённую работу и гибкий график
— Аналог ДМС
— Компенсация за улучшение техники / спортзал / хобби
— Приятные подарки на праздники
📩 Резюме и вопросы: @easezzzz
✅Product analyst в высокотехнологичный сервис по покупке, продаже и аренде недвижимости.
Компания рассматривает кандидатов только из России.
З/п: обсуждается на интервью.
Формат работы: Офис, Удаленка, Гибрид(Москва, Санкт-Петербург, Новосибирск);
Уровень позиции: Middle
Стек: SQL, Python, Hadoop, FineBI, своя ячейка в JupiterHub/
🔷Задачи:
Проведение исследований зависимости ключевых метрик компании (выручка, EBITDA) от настроек поискового и рекомендательного движка;
Анализ и запуск A/B тестов;
Создание системы метрик и контроль качества данных для их расчета;
Проектирование и разработка отчетов и дашбордов;
Проведение исследований данных и определение ключевых драйверов роста метрик.
🔷Обязательные требования:
Product analyst от 2-х лет (b- и c-пользователей);
SQL - продвинутый уровень (подзапросы/оконные функции/сложные джоины);
Python (pandas/numpy/scipy/statsmodels/matplotlib/seaborn/plotly);
Применение статистических методов для дизайна и оценки A/B тестов (стат.критерии / увеличение чувствительности метрик);
Оценка результата запуска без A/B (методы синтетического контроля);
Высшее образование: естественно - научное, техническое или экономическое.
Отклики ждем @fr_rec
Компания рассматривает кандидатов только из России.
З/п: обсуждается на интервью.
Формат работы: Офис, Удаленка, Гибрид(Москва, Санкт-Петербург, Новосибирск);
Уровень позиции: Middle
Стек: SQL, Python, Hadoop, FineBI, своя ячейка в JupiterHub/
🔷Задачи:
Проведение исследований зависимости ключевых метрик компании (выручка, EBITDA) от настроек поискового и рекомендательного движка;
Анализ и запуск A/B тестов;
Создание системы метрик и контроль качества данных для их расчета;
Проектирование и разработка отчетов и дашбордов;
Проведение исследований данных и определение ключевых драйверов роста метрик.
🔷Обязательные требования:
Product analyst от 2-х лет (b- и c-пользователей);
SQL - продвинутый уровень (подзапросы/оконные функции/сложные джоины);
Python (pandas/numpy/scipy/statsmodels/matplotlib/seaborn/plotly);
Применение статистических методов для дизайна и оценки A/B тестов (стат.критерии / увеличение чувствительности метрик);
Оценка результата запуска без A/B (методы синтетического контроля);
Высшее образование: естественно - научное, техническое или экономическое.
Отклики ждем @fr_rec
Аналитик данных — это специалист, который добывает ценную информацию из достоверных данных, чтобы бизнес мог принимать обоснованные решения.
Для этого используются те же инструменты, что и для самого анализа — Python, SQL, математическая статистика и автоматизация процессов.
Присоединяйтесь к нашему вебинару, где разберём:
Спикер: Павел Беляев, руководитель группы дата-аналитиков в компании Яндекс eLama.
📅 Встречаемся 24 июня в 18:30 по МСК
Please open Telegram to view this post
VIEW IN TELEGRAM
#data #dataengineer #engineer #вакансия
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Вакансия: Data Engineer
Компания: Купер
Формат работы: удаленный
О продукте: Купер - это сервис доставки из магазинов и ресторанов. За 10 лет сервис вырос из food-tech стартапа в высокотехнологичную компанию. Купер — это профессиональная команда и надёжная IT-инфраструктура, которая увеличилась в 77 раз с 2019 года. Купер объединяет свыше 600+ IT-специалистов. Мы создаем вдохновляющий продукт для миллионов клиентов.
Сейчас мы ищем Data engineer c опытом работы с ClickHouse, как с основной базой данных.
Чем будем заниматься:
* загрузка данных из различных источников (как внутренние БД, так и внешние аналитические/ маркетинговые платформы и т.д.) в DWH;
* автоматизация data-pipelines, ETL процессов;
* автоматизация проверок качества данных;
* подготовка витрин данных;
* подготовка и поддержание в актуальном состоянии каталога метаданных;
* организация CI/CD и мониторинг процессов обработки данных;
* участие в миграции текущих процессов на новую инфраструктуру.
Мы ждём от кандидата:
* опыт работы с DWH;
* понимание принципов организации хранилищ данных, принципов работы колоночных БД (работаем с Clickhouse);
* уверенное знание SQL, умение строить сложные запросы и оптимизировать производительность;
* уверенное знание Python;
* опыт работы с Apache Airflow;
* опыт работы со Spark.
Будет просто отлично, если у тебя есть:
* опыт разработки Scala / Java.
Что мы предлагаем:
* ДМС;
* предоставляем множество корпоративных бонусных программ;
* работаем удаленно. В Москве есть большой и красивый офис — welcome;
* выдаем технику для работы на твой выбор;
* помогаем интеллектуально и физически развиваться (электронная библиотека, книжный клуб, футбол);
* уделяем большое внимание обучению сотрудников, поэтому в нашей knowledge base ты найдёшь много интересных курсов, книг и записей конференций, а также у нас есть выделенный бюджет на образование.
А ещё:
* мы сами участвуем в конференциях, как спикеры;
* проводим внутренние митапы;
* не боимся экспериментировать с новыми решениями и технологиями :)
резюме/cv можно приносить сюда: @da_mrv
Вакансия: Data Engineer Senior
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Компания: LIAN
Формат: Аутстафф
Локация и гражданство: РФ
Занятость: полная
ЗП: от 260 до 300тыс
Оформление: ИП/СЗ
На данный момент нам требуется эксперт в области Greenplum и Postgresql
О проекте: Перенос существующего корпоративного хранилища данных с MS SQL Server (диалект T-SQL) на Greenplum.
Обязанности:
- Миграция скриптов по загрузке в хранилище, ODS, DDS c MS SQL на Greenplum
- Миграция данных их текущего хранилища в Greenplum
- Оптимизация запросов ETL/ELT, и настройка там, где специфика Greenplum требует изменений структуры или логики запросов)
Требования:
Глубокий опыт работы Greenplum и PostgreSQL в продакшене, включая:
- Оптимизацию производительности (разбор и решение проблем с медленными запросами, блокировками, нагрузкой на сервер).
- Диагностику и устранение проблем, когда аналитические запросы "кладут" прод (разбор планов запросов, настройка индексов, партиционирование и др.).
- Пересчет больших объемов исторических данных (опыт работы с columnar extensions в Postgres будет плюсом).
- Опыт построения и сопровождения ETL-процессов, загружающих данные в Greenplum/PostgreSQL(Python , Airflow, NiFi и т. д.).
- Опыт работы с CDC (Change Data Capture) для Greenplum/PostgreSQL
- Умение анализировать и переписывать сложные многострочные SQL-запросы из Python-скриптов в gp-диалект SQL.
- Понимание специфики Greenplum (распределенные вычисления, партиционирование, оптимизация под MPP-архитектуру).
Будет плюсом:
- Навыки миграции с T-SQL (MS SQL) на Greenplum
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
This media is not supported in your browser
VIEW IN TELEGRAM
Уже пользовались GigaChat? Предлагаем принять участие в его разработке! 💻
Сбер приглашает на One Day Offer талантливых DL-инженеров в команду production-внедрения GigaChat.
С вас — понимание, как работают модели на уровне математики и аппаратуры, и желание оптимизировать работу LLM моделей, создавать инфраструктуру для нагрузок на кластеры и выводить новые архитектуры в промышленную среду.
С нас — интересные задачи, современное железо, график на выбор и классное IT-комьюнити.
Встречаемся 28 июня в 10:30, а потом, вполне возможно, и за соседним рабочим столом в офисе! Зарегистрироваться! 👌
Сбер приглашает на One Day Offer талантливых DL-инженеров в команду production-внедрения GigaChat.
С вас — понимание, как работают модели на уровне математики и аппаратуры, и желание оптимизировать работу LLM моделей, создавать инфраструктуру для нагрузок на кластеры и выводить новые архитектуры в промышленную среду.
С нас — интересные задачи, современное железо, график на выбор и классное IT-комьюнити.
Встречаемся 28 июня в 10:30, а потом, вполне возможно, и за соседним рабочим столом в офисе! Зарегистрироваться! 👌
✅Руководитель направления маркетинговой аналитики в аккредитованную ИТ-компанию.
Компания рассматривает кандидатов только из Москвы (МО) и готовых к переезду.
З/п: обсуждается на интервью.
Формат работы: Гибрид, Офис(Москва).
Уровень позиции: Team Lead
🔷Задачи:
Масштаборование аудитории. Построение системы анализа каналов привлечения, которая покажет, куда инвестировать, чтобы слушателей становилось больше, а CAC — ниже;
Увелечение Retention. Поиск паттернов поведения самых лояльных пользователей и обучение маркетинга «копировать» их;
Внедрение data-driven культуры. Созданные дашборды и алерты станут для маркетинга таким же привычным инструментом, как креативы или таргетинг;
Развитие команды. Выведение на новый уровень аналитиков, которые смогут не только считать, но и влиять на стратегию.
🔷Обязательные требования:
Аналитика данных от 5 лет;
Управление командой от 2 лет;
Экспертность в маркетинге;
Использование Python для автоматизации процессов;
SQL;
Опыт в применении ML-моделей (прогнозирование LTV, кластеризация);
Работа в digital-продуктах или подписках.
Отклики ждем @fr_rec
Компания рассматривает кандидатов только из Москвы (МО) и готовых к переезду.
З/п: обсуждается на интервью.
Формат работы: Гибрид, Офис(Москва).
Уровень позиции: Team Lead
🔷Задачи:
Масштаборование аудитории. Построение системы анализа каналов привлечения, которая покажет, куда инвестировать, чтобы слушателей становилось больше, а CAC — ниже;
Увелечение Retention. Поиск паттернов поведения самых лояльных пользователей и обучение маркетинга «копировать» их;
Внедрение data-driven культуры. Созданные дашборды и алерты станут для маркетинга таким же привычным инструментом, как креативы или таргетинг;
Развитие команды. Выведение на новый уровень аналитиков, которые смогут не только считать, но и влиять на стратегию.
🔷Обязательные требования:
Аналитика данных от 5 лет;
Управление командой от 2 лет;
Экспертность в маркетинге;
Использование Python для автоматизации процессов;
SQL;
Опыт в применении ML-моделей (прогнозирование LTV, кластеризация);
Работа в digital-продуктах или подписках.
Отклики ждем @fr_rec
#вакансия #vacancy #Системный #аналитик #systemanalyst #system #analyst #офис
Системный аналитик
Компания: аккредитованная IT-компания, системный интегратор,
работают с банками ТОП5 в сфере Информационной Безопасности
Формат: офис Москва
Зарплата: до 200 000 рублей 💸
Контакт: @irinakoverchik
КА:WITRec
✅ Выявление и анализ потребностей Заказчика в области ИБ
✅ формирование предложений по их решению
с учетом особенностей функционирования его инфраструктуры
и требований законодательства и регуляторов
✅Разработка ТЗ/ФТ/
✅Контроль реализации систем и решений
✅Формирование долгосрочных планов/дорожных карт
по развитию систем и решений в области ИБ
✅Взаимодействие с Заказчиком в рамках согласования предложенных решений,
контроля выполнения работ по реализации предложенных решений,
согласования планов и дорожных карт
✅Формирование презентационной и отчетной документации
Требования:
➕Высшее техническое образование
➕Знание основ обеспечения ИБ, основных процессов, мер, средств и решений в области информационной безопасности
➕Знание законодательных актов в области ИБ, требований регуляторов, основных стандартов и рекомендаций
➕Знание основной терминологии по ИБ
➕Основные классы СЗИ и средств ИТ: задачи, общие принципы функционирования
ИТ: сеть, виртуализация, архитектура приложений
➕Структуры и способы хранения данных (БД)
➕Структуры данных: json, xml. На уровне "знаю что это такое"
➕Описание процессов в стандартных нотациях (BPMN, IDEF0, UML), понимание их плюсов и минусов
Компания предлагает 🤝 :
➕Оформление по ТК РФ
➕Полная занятость, работа в офисе, график работы 5/2
➕Премии по итогам проекта
Пиши мне, если заинтересовала вакансия 🌟
Системный аналитик
Компания: аккредитованная IT-компания, системный интегратор,
работают с банками ТОП5 в сфере Информационной Безопасности
Формат: офис Москва
Зарплата: до 200 000 рублей 💸
Контакт: @irinakoverchik
КА:WITRec
✅ Выявление и анализ потребностей Заказчика в области ИБ
✅ формирование предложений по их решению
с учетом особенностей функционирования его инфраструктуры
и требований законодательства и регуляторов
✅Разработка ТЗ/ФТ/
✅Контроль реализации систем и решений
✅Формирование долгосрочных планов/дорожных карт
по развитию систем и решений в области ИБ
✅Взаимодействие с Заказчиком в рамках согласования предложенных решений,
контроля выполнения работ по реализации предложенных решений,
согласования планов и дорожных карт
✅Формирование презентационной и отчетной документации
Требования:
➕Высшее техническое образование
➕Знание основ обеспечения ИБ, основных процессов, мер, средств и решений в области информационной безопасности
➕Знание законодательных актов в области ИБ, требований регуляторов, основных стандартов и рекомендаций
➕Знание основной терминологии по ИБ
➕Основные классы СЗИ и средств ИТ: задачи, общие принципы функционирования
ИТ: сеть, виртуализация, архитектура приложений
➕Структуры и способы хранения данных (БД)
➕Структуры данных: json, xml. На уровне "знаю что это такое"
➕Описание процессов в стандартных нотациях (BPMN, IDEF0, UML), понимание их плюсов и минусов
Компания предлагает 🤝 :
➕Оформление по ТК РФ
➕Полная занятость, работа в офисе, график работы 5/2
➕Премии по итогам проекта
Пиши мне, если заинтересовала вакансия 🌟
💫 Вакансия: Senior / Principal ML Research Engineer
Компания: Recraft.ai💫
Локация : United Kigdom, London
Занятость: офисный формат работы, полная занятость
Оформление: трудовой контракт (постоянный)
О компании:
Recraft - это инструмент искусственного интеллекта для профессиональных дизайнеров, иллюстраторов и маркетологов, устанавливающий новый стандарт совершенства в создании изображений.
Мы разработали инструмент, который позволяет быстро создавать оригинальные изображения, векторную графику, иллюстрации, иконки и 3D-графику с помощью искусственного интеллекта. Более 3 миллионов пользователей в 200 странах создали сотни миллионов изображений с помощью Recraft, и мы только начинаем.
Описание позиции:
Мы ищем опытных ML Research Engineers для разработки и оптимизации моделей искусственного интеллекта, проведения передовых исследований и расширения границ искусственного интеллекта и машинного обучения.
Ключевые задачи:
🟡 Разрабатывать и обучать large-scale generative models, расширяя границы возможностей AI.
🟡 Проектируйте и проводите эксперименты для изучения и уточнения архитектуры моделей, анализа результатов и внедрения улучшений, основанных на данных.
🟡 Постоянно внедряйте инновации, разрабатывая и внедряя новые функции, которые улучшают взаимодействие с пользователями.
Требования:
🟡 Подтвержденный опыт в обучении large-scale generative models (e.g., image generation, audio synthesis, or large language models).
🟡 Опыт в оценке generative models, с глубоким пониманием качественных и количественных показателей.
🟡 Отлично владение PyTorch и знание самых современных архитектур нейронных сетей.
🟡 Практический опыт построения комплексных систем машинного обучения, включая сбор и предварительную обработку данных, обучение и оценку моделей, обработку логических выводов.
🟡 Сильные навыки разработки программного обеспечения, способность проектировать, внедрять и поддерживать высококачественный код.
Что мы предлагаем:
🟡 Конкурентную заработную плату.
🟡 Релокационный пакет и помощь в получении визы для работы на территории UK.
🟡 Возможности для профессионального роста.
🟡 Команду с сильной инженерной культурой и средой, ориентированной на исследования и создание нового.
🟡 Возможность поработать над передовыми проектами в области искусственного интеллекта, которые по-новому определяют творческие рабочие процессы.
🟡 Возможность внести свой вклад в исследования и публикации в open-source AI.
Как откликнуться 🚀
[email protected]
tg: @timoschukva
Компания: Recraft.ai
Локация : United Kigdom, London
Занятость: офисный формат работы, полная занятость
Оформление: трудовой контракт (постоянный)
О компании:
Recraft - это инструмент искусственного интеллекта для профессиональных дизайнеров, иллюстраторов и маркетологов, устанавливающий новый стандарт совершенства в создании изображений.
Мы разработали инструмент, который позволяет быстро создавать оригинальные изображения, векторную графику, иллюстрации, иконки и 3D-графику с помощью искусственного интеллекта. Более 3 миллионов пользователей в 200 странах создали сотни миллионов изображений с помощью Recraft, и мы только начинаем.
Описание позиции:
Мы ищем опытных ML Research Engineers для разработки и оптимизации моделей искусственного интеллекта, проведения передовых исследований и расширения границ искусственного интеллекта и машинного обучения.
Ключевые задачи:
Требования:
Что мы предлагаем:
Как откликнуться 🚀
[email protected]
tg: @timoschukva
Please open Telegram to view this post
VIEW IN TELEGRAM
Ищем ML-инженера (Middle/Senior) | Part-time, Remote
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
Всем привет! Мы ищем опытного ML-инженера на part-time (≈20 часов в неделю) для удалённой работы с возможностью перехода в full-time в будущем.
🧩Что нужно делать:
Работать над разработкой ML-модуля для обработки мультимодальных входов (видео, аудио, текст). Цель — построить систему, которая сможет извлекать структурированную информацию из цифрового контента на основе визуального и текстового сигнала.
(Детали задачи уточняются при созвоне — фокус на видео из социальных сетей)
👀Что важно:
Уверенный опыт в Computer Vision с практическим применением профильных библиотек. Большим плюсом будет умение работать с vLLM.
Знание современных подходов и решений в области CV, которые можно использовать для экспериментов и подбора наилучшего метода под конкретную задачу
Опыт работы с мультимодальными пайплайнами, где нужно обрабатывать и совмещать визуальные данные (видео/фреймы), текст (титры, описания, субтитры) и аудио
Навыки быстрой прототипизации и умение находить баланс между точностью и скоростью модели
Способность грамотно структурировать pipeline и мыслить в терминах production-ready решений
💼 Условия:
Удалённо, гибкий график (≈20 часов в неделю)
Ставка: $30–40 в час, обсуждается по итогам интервью
Возможность перейти на full-time, если будет mutual match
Участие в зарождении продукта: сейчас формируется основная команда
Стартап с офисом в процессе запуска в Дубае
Фаундеры — выходцы из международного data-консалтинга и финтеха
📩Как откликнуться:
Отправить CV в Telegram: @vvbrykov
✅Senior Data Analyst в аккредитованную ИТ-компанию, которая создаёт аудиосервис.
Компания рассматривает кандидатов только из России.
З/п: обсуждается индивидуально, соцпакет.
Формат работы: Офис, Удаленка, Гибрид(мск).
Уровень позиции: Senior
🔷Задачи:
Проектирование и организация нового слоя данных для качественного анализа, чтобы уйти от разрозненности;
Настройка в нём мониторинга полноты и качества;
Реализация инструмента для быстрого получения данных, в частности за счёт расширения возможностей аналитического бота по метрикам;
Улучшение и внедрение в работу продуктовых аналитиков инструменты для расчёта результатов аб-тестов и мониторинга их качества;
Улучшение инструментов прогнозирования метрик за счёт глубокого погружения в продукт;
Разработка алгоритмов для предварительной очистки данных и проверки их качества.
🔷 Обязательные требования:
Совокупный опыт работы от 6 лет в роли дата аналитика;
Опыт работы с Airflow;
Написание кода на Python (аналитические библиотеки) - выгрузки;
Глубокий опыт в SQL;
Опыт работы с любой BI
Отклики ждем @fr_rec
Компания рассматривает кандидатов только из России.
З/п: обсуждается индивидуально, соцпакет.
Формат работы: Офис, Удаленка, Гибрид(мск).
Уровень позиции: Senior
🔷Задачи:
Проектирование и организация нового слоя данных для качественного анализа, чтобы уйти от разрозненности;
Настройка в нём мониторинга полноты и качества;
Реализация инструмента для быстрого получения данных, в частности за счёт расширения возможностей аналитического бота по метрикам;
Улучшение и внедрение в работу продуктовых аналитиков инструменты для расчёта результатов аб-тестов и мониторинга их качества;
Улучшение инструментов прогнозирования метрик за счёт глубокого погружения в продукт;
Разработка алгоритмов для предварительной очистки данных и проверки их качества.
🔷 Обязательные требования:
Совокупный опыт работы от 6 лет в роли дата аналитика;
Опыт работы с Airflow;
Написание кода на Python (аналитические библиотеки) - выгрузки;
Глубокий опыт в SQL;
Опыт работы с любой BI
Отклики ждем @fr_rec