Веб-аналитик
Грейд: Middle
Название компании: PRO M8
URL компании: https://prom8.ru/
Локация: РФ
Часовой пояс: Vjcrdf
Предметные области: другая, финтех, ERP
Формат работы: Удаленка
Тема проекта: Маркетинговое агентство
Обязанности:
Анализ веб-данных, оптимизация пользовательского опыта, формирование рекомендаций для повышения конверсии.
Требования:
пыт работы с Google Analytics, Яндекс.Метрикой; базовые знания HTML/JS (желательно); аналитический склад ума, умение работать с большими объемами данных.
Пожелания:
Опыт работы с маркетинговым агентством будет преимуществом
Бонусы:
Гибкий график, возможности для обучения и профессионального роста.
Контактные данные: телеграм: @polinawanina (с пометкой "Аналитик")
#веб-аналитика, #аналитикданных, #удаленка
Грейд: Middle
Название компании: PRO M8
URL компании: https://prom8.ru/
Локация: РФ
Часовой пояс: Vjcrdf
Предметные области: другая, финтех, ERP
Формат работы: Удаленка
Тема проекта: Маркетинговое агентство
Обязанности:
Анализ веб-данных, оптимизация пользовательского опыта, формирование рекомендаций для повышения конверсии.
Требования:
пыт работы с Google Analytics, Яндекс.Метрикой; базовые знания HTML/JS (желательно); аналитический склад ума, умение работать с большими объемами данных.
Пожелания:
Опыт работы с маркетинговым агентством будет преимуществом
Бонусы:
Гибкий график, возможности для обучения и профессионального роста.
Контактные данные: телеграм: @polinawanina (с пометкой "Аналитик")
#веб-аналитика, #аналитикданных, #удаленка
#вакансия #MLE #ai #ml
Всем привет!
Компания: High Sky
Мы находимся в поиске Senior ML Engineer (NLP, CV, TTS)
Чем предстоит заниматься:
•Применение SOTA DL-решений для конкретных AI-задач
•Tuning существующих решений: дообучение NN, улучшение используемых алгоритмов, оптимизация производительности
•Анализ внешних фреймворков и исправление программных багов
•Масштабирование существующего решений
Требования к кандидату:
•Опыт работы от 5-6 лет
•Опыт коммерческой разработки с нуля (от сбора данных до вывода в прод)
•Опыт в deep learning и анализе данных или машинном обучении
•Знание SOTA-решений и архитектур в одной из областях: NLP, CV, TTS
•Высшее образование в области компьютерных технологий / прикладной математики и (или) прикладной информатики
•Английский язык B2 и выше
Работа полностью удаленная из любой точки мира.
Вилка: $6000 - $10000
Контакт: @easezzzz
Всем привет!
Компания: High Sky
Мы находимся в поиске Senior ML Engineer (NLP, CV, TTS)
Чем предстоит заниматься:
•Применение SOTA DL-решений для конкретных AI-задач
•Tuning существующих решений: дообучение NN, улучшение используемых алгоритмов, оптимизация производительности
•Анализ внешних фреймворков и исправление программных багов
•Масштабирование существующего решений
Требования к кандидату:
•Опыт работы от 5-6 лет
•Опыт коммерческой разработки с нуля (от сбора данных до вывода в прод)
•Опыт в deep learning и анализе данных или машинном обучении
•Знание SOTA-решений и архитектур в одной из областях: NLP, CV, TTS
•Высшее образование в области компьютерных технологий / прикладной математики и (или) прикладной информатики
•Английский язык B2 и выше
Работа полностью удаленная из любой точки мира.
Вилка: $6000 - $10000
Контакт: @easezzzz
Команда «Море данных» открывает вакансии на расширение.
Наша команда работает как на крупных заказчиков (Газпромнефть, СберУниверситет, Полюс Золото, корпорация Синергия) так и на собственных продуктовых линейках в сфере образования и цифрового HR. В команде как специалисты по ИИ так и разработчики, продуктологи, методисты.
Сейчас нас 30+ человек. Работаем на самом переднем крае образовательных инноваций, специализируемся на ИИ в образовании, датацентричном дизайне образовательного опыта, образовательном дата инжениринге. По результатам нашей работы вышла русская глава в книге Салмана Хана "Новые Миры образования". Наш сайт (datasea.me)
Основные направления работы: цифровое образование, анализ качества речи с помощью ИИ, цифровые двойники способные к рассуждению, digital HR, конвертация текстов в графы знаний, цифровая диагностика с применением ИИ, работа с данными рынка труда. Пример
Ищем душевных людей, небезразличных к современному образованию, способных работать в 100% удаленке в режиме эксперимента и исследования над созданием инновационных сервисов на основе ИИ.
1️⃣ Middle/Senior Data Scientist/ Machine Learning (NLP)
(сейчас в команде 3 таких специалиста)
* На 50% ставки
* Удаленка, гибкий график.
* Оклад: 200-400 тр. (согласно квалификации)
* Возможно временное оформление: договор ГПХ, самозанятые, ИП
Требования:
— знание NLP стека и опыт работы в данной области
— понимание принципов устройства и обучения LLM и генеративных трансформеров
— опыт разработки NLP-моделей
— подтвержденный опыт работы с LLM
— подтвержденный опыт работы с RAG
— опыт работы со звуком (например апи elevenlabs)
— желателен опыт работы с deep learning
Резюме присылать в тг https://www.tg-me.com/YuliaChuykova с пометкой ‘Data Scientist’
2️⃣ Prompt engineer
(сейчас в команде 5 таких специалистов)
* Оклад: 90 - 160 тр. (согласно квалификации)
* Удаленка, гибкий график
* Обязанности: написание промптов и промпт-сценариев для больших языковых моделей
Требования:
— Понимание принципов работы LLM, тюнинга поведения LLM с помощью промптов; обучаемость.
— Подтвержденный опыт проектов с прмт инженерией для языковых моделей
— интерес к сфере образования
Резюме присылать в тг https://www.tg-me.com/YuliaChuykova с пометкой ‘промт инженер’
3️⃣ Дата инженер
(сейчас в команде 3 таких специалиста)
* Оклад (согласно квалификации)
* Удаленка, гибкий график.
Требуется опыт выполнения задач:
— Проектирование, создание, оптимизация схем данных для БД (PostgreSQL, MongoDB, возможно MySQL), включая индексы и, для реляционных баз, внешние ключи.
— Разработка и развёртывание автоматизированных краулеров для выгрузки данных со сторонних сайтов (как через парсинг страниц, так и через АПИ).
— Настройка пайплайнов обработки данных .
— Разработка конвертеров для данных и подготовка выгрузок в формате согласно требованиям аналитиков.
— Разработка и развёртывание REST API для доступа к данным.
— Настройка и поддержка резервного копирования данных.
— Возможны работы по CI/CD для ПО отдела (дата-инженерное ПО: краулеры, пайплайны, АПИ; аналитическое ПО: дашборды, ML-модели и т.д.).
— Возможны задачи по текущему администрированию и поддержке Linux-серверов отдела для работы на них упомянутого ПО.
Знание инструментов и технологий (по убыванию важности): Python, PostgreSQL, ssh/bash, REST API, Linux, MongoDB; желательно
Резюме присылать в тг https://www.tg-me.com/YuliaChuykova с пометкой ‘дата инженер’
Наша команда работает как на крупных заказчиков (Газпромнефть, СберУниверситет, Полюс Золото, корпорация Синергия) так и на собственных продуктовых линейках в сфере образования и цифрового HR. В команде как специалисты по ИИ так и разработчики, продуктологи, методисты.
Сейчас нас 30+ человек. Работаем на самом переднем крае образовательных инноваций, специализируемся на ИИ в образовании, датацентричном дизайне образовательного опыта, образовательном дата инжениринге. По результатам нашей работы вышла русская глава в книге Салмана Хана "Новые Миры образования". Наш сайт (datasea.me)
Основные направления работы: цифровое образование, анализ качества речи с помощью ИИ, цифровые двойники способные к рассуждению, digital HR, конвертация текстов в графы знаний, цифровая диагностика с применением ИИ, работа с данными рынка труда. Пример
Ищем душевных людей, небезразличных к современному образованию, способных работать в 100% удаленке в режиме эксперимента и исследования над созданием инновационных сервисов на основе ИИ.
1️⃣ Middle/Senior Data Scientist/ Machine Learning (NLP)
(сейчас в команде 3 таких специалиста)
* На 50% ставки
* Удаленка, гибкий график.
* Оклад: 200-400 тр. (согласно квалификации)
* Возможно временное оформление: договор ГПХ, самозанятые, ИП
Требования:
— знание NLP стека и опыт работы в данной области
— понимание принципов устройства и обучения LLM и генеративных трансформеров
— опыт разработки NLP-моделей
— подтвержденный опыт работы с LLM
— подтвержденный опыт работы с RAG
— опыт работы со звуком (например апи elevenlabs)
— желателен опыт работы с deep learning
Резюме присылать в тг https://www.tg-me.com/YuliaChuykova с пометкой ‘Data Scientist’
2️⃣ Prompt engineer
(сейчас в команде 5 таких специалистов)
* Оклад: 90 - 160 тр. (согласно квалификации)
* Удаленка, гибкий график
* Обязанности: написание промптов и промпт-сценариев для больших языковых моделей
Требования:
— Понимание принципов работы LLM, тюнинга поведения LLM с помощью промптов; обучаемость.
— Подтвержденный опыт проектов с прмт инженерией для языковых моделей
— интерес к сфере образования
Резюме присылать в тг https://www.tg-me.com/YuliaChuykova с пометкой ‘промт инженер’
3️⃣ Дата инженер
(сейчас в команде 3 таких специалиста)
* Оклад (согласно квалификации)
* Удаленка, гибкий график.
Требуется опыт выполнения задач:
— Проектирование, создание, оптимизация схем данных для БД (PostgreSQL, MongoDB, возможно MySQL), включая индексы и, для реляционных баз, внешние ключи.
— Разработка и развёртывание автоматизированных краулеров для выгрузки данных со сторонних сайтов (как через парсинг страниц, так и через АПИ).
— Настройка пайплайнов обработки данных .
— Разработка конвертеров для данных и подготовка выгрузок в формате согласно требованиям аналитиков.
— Разработка и развёртывание REST API для доступа к данным.
— Настройка и поддержка резервного копирования данных.
— Возможны работы по CI/CD для ПО отдела (дата-инженерное ПО: краулеры, пайплайны, АПИ; аналитическое ПО: дашборды, ML-модели и т.д.).
— Возможны задачи по текущему администрированию и поддержке Linux-серверов отдела для работы на них упомянутого ПО.
Знание инструментов и технологий (по убыванию важности): Python, PostgreSQL, ssh/bash, REST API, Linux, MongoDB; желательно
Резюме присылать в тг https://www.tg-me.com/YuliaChuykova с пометкой ‘дата инженер’
Telegram
Юлия Чуйкова
https://www.tg-me.com/ai_skillful - канал об ИИ. Подписывайся!
Системный аналитик(DWH)
Грейд: Middle
Название компании: Itvolna.tech
Локация: РФ
Часовой пояс: Москва
Предметные области: другая
Формат работы: удаленный формат работы
Тема проекта: Развитие корпоративного хранилища данных в крупной страховой компании
Зарплата: 336 000 до вычета налогов
Обязанности:
- Общение с бизнес-заказчиком. Сбор требований. Подготовка документации
- Подготовка прототипа витрин данных. Активная разработка SQL-скриптов
- Постановка задач разработчикам.
Требования:
- Уверенное знание теории БД (Oracle или GreenPlum )
- Понимание основных архитектурных принципов КХД , умение моделировать dds слой
- Преимуществом будет опыт работы с страховым или банковским бизнесом
- Преимуществом будет опыт работы с DataVault
- Опыт работы аналитиком КХД от 2х лет
Контактные данные: @alarionova_volna
#DWH#системный #аналитик#middle#РФ#удаленка
Грейд: Middle
Название компании: Itvolna.tech
Локация: РФ
Часовой пояс: Москва
Предметные области: другая
Формат работы: удаленный формат работы
Тема проекта: Развитие корпоративного хранилища данных в крупной страховой компании
Зарплата: 336 000 до вычета налогов
Обязанности:
- Общение с бизнес-заказчиком. Сбор требований. Подготовка документации
- Подготовка прототипа витрин данных. Активная разработка SQL-скриптов
- Постановка задач разработчикам.
Требования:
- Уверенное знание теории БД (Oracle или GreenPlum )
- Понимание основных архитектурных принципов КХД , умение моделировать dds слой
- Преимуществом будет опыт работы с страховым или банковским бизнесом
- Преимуществом будет опыт работы с DataVault
- Опыт работы аналитиком КХД от 2х лет
Контактные данные: @alarionova_volna
#DWH#системный #аналитик#middle#РФ#удаленка
#вакансия #systemanalyst #аналитик #senior #remote #удаленно #системныйаналитик
🚨Должность: Системный аналитик
Проект - Сайт МБ
Вакансия актуальна до 6 февраля 14-00
Компания: Mobile UP - для Московской биржи
Формат работы: удаленный РФ/РБ
Вилка: до 200 000 net (обсуждаемо)
Контакт для связи: @it_kristina
📍Задачи:
- Собирать и анализировать потребности бизнеса и смежных команд (из дизайн-макетов , встреч с коллегами, функционала сайтов и структуры их БД)
- Анализировать функционал схожих решений, для перенятия у них полезных функций
- Составлять дорожные карты для развития системы
- Перекладывать потребности в постановки задач на разработку (определять какие функции общего назначения необходимо доработать или развить)
- Декомпозировать задачи на отдельные составные элементы и включать их в спринты
- Комплектовать спринт с учетом бизнес и технических потребностей
- Проводить встречи для организации работы команды (дейли, планирование и оценку, демо, ретро)
- Проверять результат и уметь его продемонстрировать
- С помощью текущих функций системы создать сайт под потребности или детально рассказать о необходимых шагах и возможностях
- Создать и актуализировать пользовательнскую документацию и документацию для администратора (wiki и обучающие видео)
- Совместно с архитектором, детально прорабатывать интеграции со смежными
📍Требования:
- Высшее техническое образование
- Опыт работы Системным аналитиком от 5-ти лет в проектах в сфере ИТ
- Понимание производственного процесса разработки и поддержки ПО
- Знание и понимание Agile-процессов, опыт работы в проектах по Agile методологии
- Знания инструментария и особенностей работы системного аналитика
- Уверенное знание и опыт работы с инструментами проектирования/ведения требований ПО
- Опыт построения синхронных и асинхронных интеграций
📍Условия:
∙ ТК/ИП/СЗ оформление на выбор
∙ Работа в ИТ-аккредитованной компании
∙ Возможность полной удаленки
∙ Сильная команда единомышленников
∙ Социальный пакет (оплачиваемый отпуск и больничный, ДМС, 5 sick-days в год, корпоративный английский и прочие бонусы)
∙ Предоставление техники
∙ Возможность профессионального и карьерного роста
🚨Должность: Системный аналитик
Проект - Сайт МБ
Вакансия актуальна до 6 февраля 14-00
Компания: Mobile UP - для Московской биржи
Формат работы: удаленный РФ/РБ
Вилка: до 200 000 net (обсуждаемо)
Контакт для связи: @it_kristina
📍Задачи:
- Собирать и анализировать потребности бизнеса и смежных команд (из дизайн-макетов , встреч с коллегами, функционала сайтов и структуры их БД)
- Анализировать функционал схожих решений, для перенятия у них полезных функций
- Составлять дорожные карты для развития системы
- Перекладывать потребности в постановки задач на разработку (определять какие функции общего назначения необходимо доработать или развить)
- Декомпозировать задачи на отдельные составные элементы и включать их в спринты
- Комплектовать спринт с учетом бизнес и технических потребностей
- Проводить встречи для организации работы команды (дейли, планирование и оценку, демо, ретро)
- Проверять результат и уметь его продемонстрировать
- С помощью текущих функций системы создать сайт под потребности или детально рассказать о необходимых шагах и возможностях
- Создать и актуализировать пользовательнскую документацию и документацию для администратора (wiki и обучающие видео)
- Совместно с архитектором, детально прорабатывать интеграции со смежными
📍Требования:
- Высшее техническое образование
- Опыт работы Системным аналитиком от 5-ти лет в проектах в сфере ИТ
- Понимание производственного процесса разработки и поддержки ПО
- Знание и понимание Agile-процессов, опыт работы в проектах по Agile методологии
- Знания инструментария и особенностей работы системного аналитика
- Уверенное знание и опыт работы с инструментами проектирования/ведения требований ПО
- Опыт построения синхронных и асинхронных интеграций
📍Условия:
∙ ТК/ИП/СЗ оформление на выбор
∙ Работа в ИТ-аккредитованной компании
∙ Возможность полной удаленки
∙ Сильная команда единомышленников
∙ Социальный пакет (оплачиваемый отпуск и больничный, ДМС, 5 sick-days в год, корпоративный английский и прочие бонусы)
∙ Предоставление техники
∙ Возможность профессионального и карьерного роста
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
МАШИННОЕ ОБУЧЕНИЕ: www.tg-me.com/ai_machinelearning_big_data
C++ www.tg-me.com/cpluspluc
Python: www.tg-me.com/pythonl
Linux: www.tg-me.com/linuxacademiya
Хакинг: www.tg-me.com/linuxkalii
Devops: www.tg-me.com/DevOPSitsec
Data Science: www.tg-me.com/data_analysis_ml
Javascript: www.tg-me.com/javascriptv
C#: www.tg-me.com/csharp_ci
Java: www.tg-me.com/javatg
Базы данных: www.tg-me.com/sqlhub
Python собеседования: www.tg-me.com/python_job_interview
Мобильная разработка: www.tg-me.com/mobdevelop
Docker: www.tg-me.com/DevopsDocker
Golang: www.tg-me.com/Golang_google
React: www.tg-me.com/react_tg
Rust: www.tg-me.com/rust_code
ИИ: www.tg-me.com/vistehno
PHP: www.tg-me.com/phpshka
Android: www.tg-me.com/android_its
Frontend: www.tg-me.com/front
Big Data: www.tg-me.com/bigdatai
Собеседования МЛ: www.tg-me.com/machinelearning_interview
МАТЕМАТИКА: www.tg-me.com/data_math
Kubernets: www.tg-me.com/kubernetc
Разработка игр: https://www.tg-me.com/gamedev
Haskell: www.tg-me.com/haskell_tg
Физика: www.tg-me.com/fizmat
💼 Папка с вакансиями: www.tg-me.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tg-me.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tg-me.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tg-me.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tg-me.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.tg-me.com/memes_prog
🇬🇧Английский: www.tg-me.com/english_forprogrammers
🧠ИИ: www.tg-me.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tg-me.com/addlist/BkskQciUW_FhNjEy
МАШИННОЕ ОБУЧЕНИЕ: www.tg-me.com/ai_machinelearning_big_data
C++ www.tg-me.com/cpluspluc
Python: www.tg-me.com/pythonl
Linux: www.tg-me.com/linuxacademiya
Хакинг: www.tg-me.com/linuxkalii
Devops: www.tg-me.com/DevOPSitsec
Data Science: www.tg-me.com/data_analysis_ml
Javascript: www.tg-me.com/javascriptv
C#: www.tg-me.com/csharp_ci
Java: www.tg-me.com/javatg
Базы данных: www.tg-me.com/sqlhub
Python собеседования: www.tg-me.com/python_job_interview
Мобильная разработка: www.tg-me.com/mobdevelop
Docker: www.tg-me.com/DevopsDocker
Golang: www.tg-me.com/Golang_google
React: www.tg-me.com/react_tg
Rust: www.tg-me.com/rust_code
ИИ: www.tg-me.com/vistehno
PHP: www.tg-me.com/phpshka
Android: www.tg-me.com/android_its
Frontend: www.tg-me.com/front
Big Data: www.tg-me.com/bigdatai
Собеседования МЛ: www.tg-me.com/machinelearning_interview
МАТЕМАТИКА: www.tg-me.com/data_math
Kubernets: www.tg-me.com/kubernetc
Разработка игр: https://www.tg-me.com/gamedev
Haskell: www.tg-me.com/haskell_tg
Физика: www.tg-me.com/fizmat
💼 Папка с вакансиями: www.tg-me.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tg-me.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tg-me.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tg-me.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tg-me.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.tg-me.com/memes_prog
🇬🇧Английский: www.tg-me.com/english_forprogrammers
🧠ИИ: www.tg-me.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tg-me.com/addlist/BkskQciUW_FhNjEy
Вакансия Data Engineer
На проекты Сбера требуется мидл / senior data engineer.
Оформление через компанию подрядчик (компания подрядчик будет определена по итогам процедуры закупок).
Формат: Москва офис (в перспективе возможно будет гибрид)
Вилка от 200 до 480k
Обязанности:
- Разработка пайплайнов для обработки данных;
- Создание витрин, маппингов для данных;
- Обследование и профилирование банковских источников данных, исследование моделей данных источников;
- Валидация и проверка качества данных, поиск проблем в данных;
- Участие в создании архитектуры;
- Участие во встречах со своей и смежными командами. Обсуждение и предложение способов реализации текущих проектов.
Требования:
- Опыт и хорошие навыки программирования на python;
- Хорошие знания SQL (оконные функции, сложные запросы, оптимизация запросов);
- Знание инструментов экосистемы Hadoop: Hive, Spark и др;
- Общие знание по работе с РСУБД и хранилищами (нормальные формы, звёзды/снежинки).
Опциональные требования:
- Знание концепций проектирования хранилищ данных (DWH, Data Lake) - кимбал/инмон, dv/anchor, лямбда/каппа, SCD, слои, полная/инкрементальная загрузки;
- Понимание работы индексов в БД, триггеров, транзакций.
Условия и соц пакет:
- Стандартный набор + гибкие условие труда и рабочего дня.
- Заботимся о развитии сотрудников. Возможность профессионального роста, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Формат работы - офис в Мск (в перспективе возможно будет гибрид)
Контакт для связи и резюме @alexei_nnn
На проекты Сбера требуется мидл / senior data engineer.
Оформление через компанию подрядчик (компания подрядчик будет определена по итогам процедуры закупок).
Формат: Москва офис (в перспективе возможно будет гибрид)
Вилка от 200 до 480k
Обязанности:
- Разработка пайплайнов для обработки данных;
- Создание витрин, маппингов для данных;
- Обследование и профилирование банковских источников данных, исследование моделей данных источников;
- Валидация и проверка качества данных, поиск проблем в данных;
- Участие в создании архитектуры;
- Участие во встречах со своей и смежными командами. Обсуждение и предложение способов реализации текущих проектов.
Требования:
- Опыт и хорошие навыки программирования на python;
- Хорошие знания SQL (оконные функции, сложные запросы, оптимизация запросов);
- Знание инструментов экосистемы Hadoop: Hive, Spark и др;
- Общие знание по работе с РСУБД и хранилищами (нормальные формы, звёзды/снежинки).
Опциональные требования:
- Знание концепций проектирования хранилищ данных (DWH, Data Lake) - кимбал/инмон, dv/anchor, лямбда/каппа, SCD, слои, полная/инкрементальная загрузки;
- Понимание работы индексов в БД, триггеров, транзакций.
Условия и соц пакет:
- Стандартный набор + гибкие условие труда и рабочего дня.
- Заботимся о развитии сотрудников. Возможность профессионального роста, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Формат работы - офис в Мск (в перспективе возможно будет гибрид)
Контакт для связи и резюме @alexei_nnn
#вакансия #Cyprus #удаленка #офис #DataAnalyst #ДатаАналитик #ETL #PowerBI #Metabase #витриныданных #визуализацияданных #fintech #payments #paymentindustry #paymentsolution #highriskprocessing #paymentgateway
Вакансия: Дата Аналитик | Data Anlyst (Middle)
Компания: Международная Платежная Система (highrisk)
Формат работы: удаленка/офис, полная занятость
Оформление: ИП/Cамозанятый
Стек: Python (Pandas, Request, Numpy), n8n, REST, JSON, Git, PowerBI, Metabase, PostgreSQL, ClickHouse,
Проект: Построение системы визуализации данных для финансового отдела
Задачи:
- Разрабатывать дашборды и отчеты в Power BI и Metabase;
- Разрабатывать и поддерживать аналитическую инфраструктуру для всех отделов компании;
- Автоматизировать процессы сбора, обработки и визуализации данных;
- Работать с API для интеграции с внешними сервисами и сбора транзакционных данных;
- Оптимизировать и поддерживать ETL-процессы с помощью n8n и Python;
- Управлять версиями кода в Git, документировать аналитические процессы;
- Работать с SQL и базами данных для построения витрин данных.
Предлагаем:
- Работу в международной Компании с интересными задачами;
- Гибкий график (удаленка или офис);
- Свободу в выборе инструментов – мы ценим инициативу и эксперименты;
- Адекватное руководство и команду – ценим результат, а не бюрократию.
Важно:
- Владение Python (pandas, requests, numpy) для обработки данных и работы с API;
- Умение работать с n8n или другие инструменты автоматизации для настройки ETL и интеграции данных;
- Опыт работы с Power BI, Metabase – для визуализации данных и создания отчетов;
- Навыки работы с PostgreSQL, ClickHouse для написания запросов и оптимизации работы БД;
- Практический опыт работы с API (REST, JSON) для получения данных и интеграции сервисов.
- Уверенные знания Git для версионирования аналитических решений;
- Опыт работы с финансовыми данными или платежными системами будет преимуществом.
Для отклика: tg @vgrebenyuk
Вакансия: Дата Аналитик | Data Anlyst (Middle)
Компания: Международная Платежная Система (highrisk)
Формат работы: удаленка/офис, полная занятость
Оформление: ИП/Cамозанятый
Стек: Python (Pandas, Request, Numpy), n8n, REST, JSON, Git, PowerBI, Metabase, PostgreSQL, ClickHouse,
Проект: Построение системы визуализации данных для финансового отдела
Задачи:
- Разрабатывать дашборды и отчеты в Power BI и Metabase;
- Разрабатывать и поддерживать аналитическую инфраструктуру для всех отделов компании;
- Автоматизировать процессы сбора, обработки и визуализации данных;
- Работать с API для интеграции с внешними сервисами и сбора транзакционных данных;
- Оптимизировать и поддерживать ETL-процессы с помощью n8n и Python;
- Управлять версиями кода в Git, документировать аналитические процессы;
- Работать с SQL и базами данных для построения витрин данных.
Предлагаем:
- Работу в международной Компании с интересными задачами;
- Гибкий график (удаленка или офис);
- Свободу в выборе инструментов – мы ценим инициативу и эксперименты;
- Адекватное руководство и команду – ценим результат, а не бюрократию.
Важно:
- Владение Python (pandas, requests, numpy) для обработки данных и работы с API;
- Умение работать с n8n или другие инструменты автоматизации для настройки ETL и интеграции данных;
- Опыт работы с Power BI, Metabase – для визуализации данных и создания отчетов;
- Навыки работы с PostgreSQL, ClickHouse для написания запросов и оптимизации работы БД;
- Практический опыт работы с API (REST, JSON) для получения данных и интеграции сервисов.
- Уверенные знания Git для версионирования аналитических решений;
- Опыт работы с финансовыми данными или платежными системами будет преимуществом.
Для отклика: tg @vgrebenyuk
Вакансия: ML/DS-инженер (Network Fingerprinting & Anomaly Detection)
Коротко о проекте:
Мы разрабатываем сервис, который по низкоуровневым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
- Использует ли пользователь VPN/прокси?
- Подделывает ли User-Agent (говорит, что у него Windows, а на самом деле Linux)?
- Какая настоящая ОС клиента, исходя из сетевых особенностей?
Всё это необходимо для профилактики злоупотреблений и фрода. У нас есть база отпечатков в JSON (и возможность собирать их), хотим построить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), внедрить её в микросервис (REST API), чтобы она в реальном времени выдавала предсказания.
---
### Задачи:
1. Анализ данных (EDA) и фича-инжиниринг
- Разобраться в имеющихся наборах данных (TLS, TCP/IP, HTTP2, JA3 и т.д.).
- Разработать способ извлекать ключевые признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.) из сырых логов или JSON-дампов.
- При необходимости помочь доработать процесс сбора данных.
2. Разработка и обучение моделей
- Выбрать подходящие алгоритмы (XGBoost, Random Forest, нейронные сети или комбинацию).
- Настроить процесс обучения и валидации: train/test split, кросс-валидация, подбор гиперпараметров.
- Оценить метрики (Accuracy, Precision/Recall, F1, ROC-AUC и т.д.), предложить способы улучшить качество предсказаний.
3. Построение ML-сервиса
- Обернуть модель в сервис (REST API/gRPC) для интеграции в наше приложение.
- При необходимости настроить окружение (Docker, CI/CD).
- Продумать базовый MLOps-процесс (сбор новых данных, мониторинг качества, периодическое переобучение).
4. Детект VPN/прокси и аномалий
- Определять, что клиент сидит за прокси/VPN, исходя из набора признаков (TTL, JA3, открытые порты, IP-блеклисты и т.д.).
- Анализировать mismatch между User-Agent и реальной ОС (по TCP/IP флагам, JA3, HTTP2).
- Предложить систему порогов (threshold) и/или вероятностных предсказаний (score).
5. (Опционально) Автоматизация & поддержка
- При желании и наличии опыта — помочь настроить инфраструктуру для масштабирования.
- Участвовать в обсуждении и доработке архитектуры приложения.
---
### Требования:
1. Уверенные знания ML и статистики
- Понимание классических алгоритмов (деревья, бустинги), умение выбирать и тюнить модели.
- Желательно опыт с глубинными фреймворками (PyTorch/TensorFlow).
2. Инструменты Data Science
- Python: библиотеки
- Умение визуализировать данные, проводить EDA (matplotlib, seaborn и т.п.).
3. Навыки обработки сетевого трафика (желательно, но можно прокачаться по ходу)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3-сигнатур.
- Базовое представление о HTTP/2.
4. DevOps / MLOps (на базовом уровне)
- Docker, Git, Linux; плюсом — CI/CD.
5. Дополнительно приветствуется
- Опыт DS-наставничества.
- Базовые знания по безопасности, понимание работы VPN/прокси-сервисов.
- Хорошая математическая база (статистика, матан, вероятностные модели).
---
### Формат работы:
- Удалённо, частичная или полная занятость (обсуждается).
- Работа в небольшом коллективе (сети/бэкенд + ML-часть).
- Задачи в трекере, стендапы/созвоны по мере необходимости.
### Что предлагаем:
- Возможность глубоко разобраться в сетевых отпечатках, работать с интересными данными.
- Гибкость в выборе инструментов: не ограничиваем стектом — главное результат.
- Поддержка с инфраструктурой и сбором данных (с сетевой стороны).
- Конкурентная компенсация (по результатам собеседования).
---
Как откликнуться:
- Напишите о себе, прикрепите резюме/портфолио (GitHub/Kaggle и др.).
- Поделитесь примером ML-проекта, где вы делали пайплайн обучения/деплоя.
- Укажите опыт в сетевых протоколах или безопасности (VPN, прокси), если есть.
Контакт https://www.tg-me.com/Siemons8
Коротко о проекте:
Мы разрабатываем сервис, который по низкоуровневым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
- Использует ли пользователь VPN/прокси?
- Подделывает ли User-Agent (говорит, что у него Windows, а на самом деле Linux)?
- Какая настоящая ОС клиента, исходя из сетевых особенностей?
Всё это необходимо для профилактики злоупотреблений и фрода. У нас есть база отпечатков в JSON (и возможность собирать их), хотим построить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), внедрить её в микросервис (REST API), чтобы она в реальном времени выдавала предсказания.
---
### Задачи:
1. Анализ данных (EDA) и фича-инжиниринг
- Разобраться в имеющихся наборах данных (TLS, TCP/IP, HTTP2, JA3 и т.д.).
- Разработать способ извлекать ключевые признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.) из сырых логов или JSON-дампов.
- При необходимости помочь доработать процесс сбора данных.
2. Разработка и обучение моделей
- Выбрать подходящие алгоритмы (XGBoost, Random Forest, нейронные сети или комбинацию).
- Настроить процесс обучения и валидации: train/test split, кросс-валидация, подбор гиперпараметров.
- Оценить метрики (Accuracy, Precision/Recall, F1, ROC-AUC и т.д.), предложить способы улучшить качество предсказаний.
3. Построение ML-сервиса
- Обернуть модель в сервис (REST API/gRPC) для интеграции в наше приложение.
- При необходимости настроить окружение (Docker, CI/CD).
- Продумать базовый MLOps-процесс (сбор новых данных, мониторинг качества, периодическое переобучение).
4. Детект VPN/прокси и аномалий
- Определять, что клиент сидит за прокси/VPN, исходя из набора признаков (TTL, JA3, открытые порты, IP-блеклисты и т.д.).
- Анализировать mismatch между User-Agent и реальной ОС (по TCP/IP флагам, JA3, HTTP2).
- Предложить систему порогов (threshold) и/или вероятностных предсказаний (score).
5. (Опционально) Автоматизация & поддержка
- При желании и наличии опыта — помочь настроить инфраструктуру для масштабирования.
- Участвовать в обсуждении и доработке архитектуры приложения.
---
### Требования:
1. Уверенные знания ML и статистики
- Понимание классических алгоритмов (деревья, бустинги), умение выбирать и тюнить модели.
- Желательно опыт с глубинными фреймворками (PyTorch/TensorFlow).
2. Инструменты Data Science
- Python: библиотеки
scikit-learn
, XGBoost
/LightGBM
, pandas
, numpy
. - Умение визуализировать данные, проводить EDA (matplotlib, seaborn и т.п.).
3. Навыки обработки сетевого трафика (желательно, но можно прокачаться по ходу)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3-сигнатур.
- Базовое представление о HTTP/2.
4. DevOps / MLOps (на базовом уровне)
- Docker, Git, Linux; плюсом — CI/CD.
5. Дополнительно приветствуется
- Опыт DS-наставничества.
- Базовые знания по безопасности, понимание работы VPN/прокси-сервисов.
- Хорошая математическая база (статистика, матан, вероятностные модели).
---
### Формат работы:
- Удалённо, частичная или полная занятость (обсуждается).
- Работа в небольшом коллективе (сети/бэкенд + ML-часть).
- Задачи в трекере, стендапы/созвоны по мере необходимости.
### Что предлагаем:
- Возможность глубоко разобраться в сетевых отпечатках, работать с интересными данными.
- Гибкость в выборе инструментов: не ограничиваем стектом — главное результат.
- Поддержка с инфраструктурой и сбором данных (с сетевой стороны).
- Конкурентная компенсация (по результатам собеседования).
---
Как откликнуться:
- Напишите о себе, прикрепите резюме/портфолио (GitHub/Kaggle и др.).
- Поделитесь примером ML-проекта, где вы делали пайплайн обучения/деплоя.
- Укажите опыт в сетевых протоколах или безопасности (VPN, прокси), если есть.
Контакт https://www.tg-me.com/Siemons8
Приглашаем в развивающуюся ИТ-компанию "MIA Dev" на должность "Аналитик данных"
От нас:
- Удаленная работа
- Классные, развивающие и масштабные задачи
- Широкий спектр задач
- Задачи без бюрократии, быстрый оффер на отличных условиях
- Пересмотр заработной платы 2 раза в год);
- 5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
- 250-320 тыс. на руки
Ожидаем от кандидата:
- Опыт работы от 3-х лет
- Реляционные БД: первичный/внешний ключ;
- DDL/DML;
- Знание SQL: все виды join'ов; операция группировки, фильтрации по агрегатам; вложенные запросы. Типы объектов: view, table, external table;
- Знание хранилищ данных: задачи, решаемые хранилищем (зачем оно нужно?);
- Аббревиатуры DWH, BI, ETL и то, что за ними кроется;
- Kimball;
- Партиционирование;
- Индексы;
- Колоночное/строковое хранение данных: преимущества/недостатки;
- MPP, ключ дистрибуции;
- Чтение плана запроса, оптимизация запроса;
- Использование конструкций cte;
- Хранилища данных: EDW, Data Lake;
- SCD1, SCD2 (версионное хранение данных);
- ETL/ELT - чем отличаются?;
- Data Vault - что такое? Отличия DV от DV 2.0.
Интересно? Свяжись с @patrikeeva_mia_dev
От нас:
- Удаленная работа
- Классные, развивающие и масштабные задачи
- Широкий спектр задач
- Задачи без бюрократии, быстрый оффер на отличных условиях
- Пересмотр заработной платы 2 раза в год);
- 5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
- 250-320 тыс. на руки
Ожидаем от кандидата:
- Опыт работы от 3-х лет
- Реляционные БД: первичный/внешний ключ;
- DDL/DML;
- Знание SQL: все виды join'ов; операция группировки, фильтрации по агрегатам; вложенные запросы. Типы объектов: view, table, external table;
- Знание хранилищ данных: задачи, решаемые хранилищем (зачем оно нужно?);
- Аббревиатуры DWH, BI, ETL и то, что за ними кроется;
- Kimball;
- Партиционирование;
- Индексы;
- Колоночное/строковое хранение данных: преимущества/недостатки;
- MPP, ключ дистрибуции;
- Чтение плана запроса, оптимизация запроса;
- Использование конструкций cte;
- Хранилища данных: EDW, Data Lake;
- SCD1, SCD2 (версионное хранение данных);
- ETL/ELT - чем отличаются?;
- Data Vault - что такое? Отличия DV от DV 2.0.
Интересно? Свяжись с @patrikeeva_mia_dev
Ищем Data Analyst (Middle+) в аутстафф-компанию Top Selection для ритейл-проекта.
Грейд: Middle
Название компании: Top Selection
Локация: Не важно
Часовой пояс: Москва
Предметные области: ритейл
Формат работы: Удалёнка
Тема проекта: NDA
Зарплата: до 280 000 руб. gross
Обязанности:
⁃ Разработка витрин в системе EDW
⁃ Доработка существующих витрин под потребности проекта
⁃ Перевод на целевые источники
Требования:
⁃ Реляционные БД: первичный/внешний ключ, DDL/DML, типы объектов (view, table, external table)
⁃ SQL: все виды join'ов, операции группировки, фильтрации по агрегатам, вложенные запросы
⁃ Знание хранилищ данных: задачи, решаемые хранилищем, понимание DWH, BI, ETL и их концепций
⁃ Опыт работы с Kimball
Контактные данные: @mherchopurian / @remoteanalytics
#вакансия #DataAnalyst #Middle+ #удаленно #ритейл
Грейд: Middle
Название компании: Top Selection
Локация: Не важно
Часовой пояс: Москва
Предметные области: ритейл
Формат работы: Удалёнка
Тема проекта: NDA
Зарплата: до 280 000 руб. gross
Обязанности:
⁃ Разработка витрин в системе EDW
⁃ Доработка существующих витрин под потребности проекта
⁃ Перевод на целевые источники
Требования:
⁃ Реляционные БД: первичный/внешний ключ, DDL/DML, типы объектов (view, table, external table)
⁃ SQL: все виды join'ов, операции группировки, фильтрации по агрегатам, вложенные запросы
⁃ Знание хранилищ данных: задачи, решаемые хранилищем, понимание DWH, BI, ETL и их концепций
⁃ Опыт работы с Kimball
Контактные данные: @mherchopurian / @remoteanalytics
#вакансия #DataAnalyst #Middle+ #удаленно #ритейл
#вакансия #SA #системныйаналитик #remote #удалённо #fulltime
Компания: SSP SOFT (аккредитованная IT-компания)
Локация: РФ, РБ
Формат: удалёнка
Оформление: ТД, ИП, самозанятость
Зарплата: до 350К
Привет! Мы в SSP SOFT расширяем команду и ищем Senior Системного аналитика. Если тебе интересно работать над крутыми IT-проектами в fintech, ритейле, автопроме, промышленности и других сферах — тебе к нам!
💡Что для нас важно:
▫️3+ лет опыта работы в роли СА;
▫️Владение SQL на среднем уровне;
▫️Знание и практический опыт работы с нотациями моделирования (UML/BPMN);
▫️Опыт проектирования интеграций (REST/SOAP);
▫️Понимание принципов проектирования интерфейсов;
▫️Опыт работы с MSA/понимание ее преимуществ;
▫️Понимание Agile-процессов;
▫️Обязателен опыт работы на проектах с микросервисной архитектурой.
💡Чем предстоит заниматься:
▫️Взаимодействие с заказчиком и бизнес-аналитиками для выявления требований;
▫️Формирование и демонстрация концептуальных решений;
▫️Проектирование систем и отдельных сервисов;
▫️Разработка проектной документации (ТЗ, спецификации);
▫️Проведение декомпозиции и постановка задач разработчикам;
▫️Приемка и верификация результатов разработки;
▫️Взаимодействие со смежными ролями и командами для создания и выпуска решений;
▫️Демонстрация новой функциональности заказчику, а также первичное обучение ключевых пользователей;
▫️Участие в командных и межкомандных мероприятиях по развитию и совершенствованию
💡Что мы предлагаем:
✅ 100% удалёнка — работай из любой точки РФ;
✅ Гибкие форматы сотрудничества: ТД, ИП или самозанятость;
✅ ДМС (со стоматологией);
✅ Компенсация спорта и обучения английскому;
✅ Возможности профессионального роста.
🚀 Хочешь работать над интересными проектами и прокачивать свои скиллы? Тогда давай знакомиться в тг @Di_ana_a
Компания: SSP SOFT (аккредитованная IT-компания)
Локация: РФ, РБ
Формат: удалёнка
Оформление: ТД, ИП, самозанятость
Зарплата: до 350К
Привет! Мы в SSP SOFT расширяем команду и ищем Senior Системного аналитика. Если тебе интересно работать над крутыми IT-проектами в fintech, ритейле, автопроме, промышленности и других сферах — тебе к нам!
💡Что для нас важно:
▫️3+ лет опыта работы в роли СА;
▫️Владение SQL на среднем уровне;
▫️Знание и практический опыт работы с нотациями моделирования (UML/BPMN);
▫️Опыт проектирования интеграций (REST/SOAP);
▫️Понимание принципов проектирования интерфейсов;
▫️Опыт работы с MSA/понимание ее преимуществ;
▫️Понимание Agile-процессов;
▫️Обязателен опыт работы на проектах с микросервисной архитектурой.
💡Чем предстоит заниматься:
▫️Взаимодействие с заказчиком и бизнес-аналитиками для выявления требований;
▫️Формирование и демонстрация концептуальных решений;
▫️Проектирование систем и отдельных сервисов;
▫️Разработка проектной документации (ТЗ, спецификации);
▫️Проведение декомпозиции и постановка задач разработчикам;
▫️Приемка и верификация результатов разработки;
▫️Взаимодействие со смежными ролями и командами для создания и выпуска решений;
▫️Демонстрация новой функциональности заказчику, а также первичное обучение ключевых пользователей;
▫️Участие в командных и межкомандных мероприятиях по развитию и совершенствованию
💡Что мы предлагаем:
✅ 100% удалёнка — работай из любой точки РФ;
✅ Гибкие форматы сотрудничества: ТД, ИП или самозанятость;
✅ ДМС (со стоматологией);
✅ Компенсация спорта и обучения английскому;
✅ Возможности профессионального роста.
🚀 Хочешь работать над интересными проектами и прокачивать свои скиллы? Тогда давай знакомиться в тг @Di_ana_a
Mobile analyst / Marketing analyst
Название компании: Basics.tech
URL компании: https://basics.tech
Локация: Не важно
Часовой пояс: GTM +3
Предметные области: другая
Формат работы: Удаленно
Тема проекта: Приложение фоторедактор на базе AI
Зарплата: Открыты к предложениям
Обязанности:
• Настройка и управление аналитическими системами мобильных приложений (AppsFlyer, Adjust, Amplitude, Adapty и другие).
• Интеграция SDK, атрибуционных платформ, пикселей и других инструментов для точного отслеживания трафика.
• Оптимизация работы платных источников трафика (Google Ads, Facebook Ads, TikTok Ads и другие).
• Создание систем трекинга пользователей и воронок конверсии для максимальной эффективности маркетинговых кампаний.
• Анализ пользовательского поведения и выявление точек роста для улучшения показателей вовлеченности и удержания.
• Построение дашбордов и отчетов для мониторинга ключевых метрик.
• Автоматизация процессов аналитики и отчетности для сокращения ручной работы.
• Проведение A/B тестов и оценка их результатов для повышения эффективности маркетинговых решений.
• Выявление и предотвращение аномалий, связанных с некорректным отслеживанием данных.
• Взаимодействие с разработчиками и маркетологами для внедрения передовых аналитических решений.
Требования:
• Опыт работы с мобильной аналитикой от 2 лет.
• Глубокие знания SDK, пикселей и интеграции аналитических платформ.
• Опыт работы с атрибуционными системами (AppsFlyer, Adjust) и аналитическими платформами (Amplitude, Adapty).
• Отличное понимание работы платного трафика, аналитики рекламных кампаний и методов оптимизации.
• Навыки работы с BI-системами и построения дашбордов (Tableau, Looker, Google Data Studio).
• Знание SQL, Python или других инструментов анализа данных будет преимуществом.
• Умение анализировать большие массивы данных и выявлять закономерности.
• Практический опыт работы в маркетинговых или продуктовых аналитических командах.
• Высокий уровень ответственности и самостоятельности в принятии решений.
• Готовность к быстрому обучению и адаптации к новым инструментам и технологиям.
Бонусы:
• Уникальная возможность работать в одном из самых инновационных технологических стартапов.
• Гибкий график работы с возможностью удаленного формата.
• Конкурентный уровень заработной платы с дополнительными бонусами за успешные рекламные кампании.
• Возможность реализовывать смелые идеи и экспериментировать с передовыми креативными концепциями.
• Постоянное профессиональное развитие и доступ к обучающим программам.
Контактные данные: @horoshayashura
#вакансия #vacancy #productanalyst
Название компании: Basics.tech
URL компании: https://basics.tech
Локация: Не важно
Часовой пояс: GTM +3
Предметные области: другая
Формат работы: Удаленно
Тема проекта: Приложение фоторедактор на базе AI
Зарплата: Открыты к предложениям
Обязанности:
• Настройка и управление аналитическими системами мобильных приложений (AppsFlyer, Adjust, Amplitude, Adapty и другие).
• Интеграция SDK, атрибуционных платформ, пикселей и других инструментов для точного отслеживания трафика.
• Оптимизация работы платных источников трафика (Google Ads, Facebook Ads, TikTok Ads и другие).
• Создание систем трекинга пользователей и воронок конверсии для максимальной эффективности маркетинговых кампаний.
• Анализ пользовательского поведения и выявление точек роста для улучшения показателей вовлеченности и удержания.
• Построение дашбордов и отчетов для мониторинга ключевых метрик.
• Автоматизация процессов аналитики и отчетности для сокращения ручной работы.
• Проведение A/B тестов и оценка их результатов для повышения эффективности маркетинговых решений.
• Выявление и предотвращение аномалий, связанных с некорректным отслеживанием данных.
• Взаимодействие с разработчиками и маркетологами для внедрения передовых аналитических решений.
Требования:
• Опыт работы с мобильной аналитикой от 2 лет.
• Глубокие знания SDK, пикселей и интеграции аналитических платформ.
• Опыт работы с атрибуционными системами (AppsFlyer, Adjust) и аналитическими платформами (Amplitude, Adapty).
• Отличное понимание работы платного трафика, аналитики рекламных кампаний и методов оптимизации.
• Навыки работы с BI-системами и построения дашбордов (Tableau, Looker, Google Data Studio).
• Знание SQL, Python или других инструментов анализа данных будет преимуществом.
• Умение анализировать большие массивы данных и выявлять закономерности.
• Практический опыт работы в маркетинговых или продуктовых аналитических командах.
• Высокий уровень ответственности и самостоятельности в принятии решений.
• Готовность к быстрому обучению и адаптации к новым инструментам и технологиям.
Бонусы:
• Уникальная возможность работать в одном из самых инновационных технологических стартапов.
• Гибкий график работы с возможностью удаленного формата.
• Конкурентный уровень заработной платы с дополнительными бонусами за успешные рекламные кампании.
• Возможность реализовывать смелые идеи и экспериментировать с передовыми креативными концепциями.
• Постоянное профессиональное развитие и доступ к обучающим программам.
Контактные данные: @horoshayashura
#вакансия #vacancy #productanalyst
Вакансия: ML/DS-инженер (Network Fingerprinting & Anomaly Detection)
Немного о нас: мы строим систему, которая по низкоуровневым сетевым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
• Используется ли VPN/прокси?
• Подделан ли User-Agent (например, заявлена Windows, а на деле Linux)?
• Какая реальная ОС клиента, исходя из сетевых особенностей?
Собираем логи (JSON с отпечатками) и хотим обучить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), которая в реальном времени будет давать предсказания по REST API.
---
## Что делать:
1. Анализ данных (EDA) и фича-инжиниринг
- Изучать сырые логи (TLS, TCP/IP, HTTP2, JA3) и выделять нетривиальные признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.).
2. Разработка и обучение моделей
- Выбирать и тюнить алгоритмы: XGBoost, Random Forest, нейронные сети и т.д.
- Настраивать процесс обучения и валидации (train/test split, кросс-валидация, гиперпараметры).
- Оценивать метрики (Accuracy, Precision/Recall, F1, ROC-AUC) и предлагать способы улучшения.
3. Построение ML-сервиса
- Оборачивать модель в сервис (REST API) для интеграции.
- Настраивать окружение (Docker, CI/CD).
- Продумывать MLOps: сбор новых данных, мониторинг качества, переобучение.
4. Детект VPN/прокси и аномалий
- Выявлять прокси/VPN по набору признаков (TTL, JA3, IP-блеклисты и т.д.).
- Анализировать несоответствия между User-Agent и реальной ОС (TCP/IP флаги, JA3, HTTP2).
- Разрабатывать систему порогов (threshold) или вероятностных оценок (score).
5. (Опционально) Автоматизация и масштабирование
- По желанию помогать с инфраструктурой.
- Участвовать в обсуждении архитектуры приложения.
---
## Требования:
1. ML и статистика
- Понимание классических алгоритмов (деревья решений, бустинги) и навыки тюнинга.
- Приветствуется опыт с PyTorch/TensorFlow.
2. Инструменты Data Science
- Python: pandas, numpy, scikit-learn, XGBoost/LightGBM.
- Умение делать EDA, визуализации (matplotlib, seaborn и т.п.) и строить надёжные фичи из «грязных» данных..
3. Сетевые протоколы (желательно, но можно прокачаться)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3.
- Базовые знания HTTP/2.
4. DevOps / MLOps
- Docker, Git, Linux; будет плюсом опыт с CI/CD.
5. Дополнительно
- Понимание безопасности, VPN/прокси.
- Сильная математическая база (статистика, матан, вероятности).
---
## Условия работы:
- Удалённая работа (полная/частичная занятость — обсуждается).
- Небольшая команда (сети/бэкенд + ML).
- Задачи ведутся в трекере, созвоны по необходимости.
Финансовая часть:
- 100–250 тыс. руб. на руки в месяц (зависит от опыта).
- Возможны выплаты в USDT.
- доступ к [Cursor.com] (актуальные модели, например, Sonnet 3.5).
---
## Что получаете:
- Глубокий опыт в сетевых отпечатках, работа с уникальными данными.
- Полную свободу выбора инструментов (главное — результат).
- Поддержку по инфраструктуре и сбору сетевых данных.
- Интересные челленджи в ML + Security.
---
## Как откликнуться:
- Напишите о себе и прикрепите резюме/портфолио/GitHub.
- Расскажите, какой у вас опыт в сетевых протоколах или безопасности (VPN, прокси).
Контакт: [https://www.tg-me.com/Siemons8]
Немного о нас: мы строим систему, которая по низкоуровневым сетевым отпечаткам (TLS/JA3, HTTP2, TCP/IP и т.д.) определяет:
• Используется ли VPN/прокси?
• Подделан ли User-Agent (например, заявлена Windows, а на деле Linux)?
• Какая реальная ОС клиента, исходя из сетевых особенностей?
Собираем логи (JSON с отпечатками) и хотим обучить ML-модель (XGBoost, PyTorch, scikit-learn и т.п.), которая в реальном времени будет давать предсказания по REST API.
---
## Что делать:
1. Анализ данных (EDA) и фича-инжиниринг
- Изучать сырые логи (TLS, TCP/IP, HTTP2, JA3) и выделять нетривиальные признаки (MSS, Window Size, набор cipher suites, HTTP2 SETTINGS и т.п.).
2. Разработка и обучение моделей
- Выбирать и тюнить алгоритмы: XGBoost, Random Forest, нейронные сети и т.д.
- Настраивать процесс обучения и валидации (train/test split, кросс-валидация, гиперпараметры).
- Оценивать метрики (Accuracy, Precision/Recall, F1, ROC-AUC) и предлагать способы улучшения.
3. Построение ML-сервиса
- Оборачивать модель в сервис (REST API) для интеграции.
- Настраивать окружение (Docker, CI/CD).
- Продумывать MLOps: сбор новых данных, мониторинг качества, переобучение.
4. Детект VPN/прокси и аномалий
- Выявлять прокси/VPN по набору признаков (TTL, JA3, IP-блеклисты и т.д.).
- Анализировать несоответствия между User-Agent и реальной ОС (TCP/IP флаги, JA3, HTTP2).
- Разрабатывать систему порогов (threshold) или вероятностных оценок (score).
5. (Опционально) Автоматизация и масштабирование
- По желанию помогать с инфраструктурой.
- Участвовать в обсуждении архитектуры приложения.
---
## Требования:
1. ML и статистика
- Понимание классических алгоритмов (деревья решений, бустинги) и навыки тюнинга.
- Приветствуется опыт с PyTorch/TensorFlow.
2. Инструменты Data Science
- Python: pandas, numpy, scikit-learn, XGBoost/LightGBM.
- Умение делать EDA, визуализации (matplotlib, seaborn и т.п.) и строить надёжные фичи из «грязных» данных..
3. Сетевые протоколы (желательно, но можно прокачаться)
- Основы TCP/IP (MSS, Window Size, TCP Options).
- Понимание TLS ClientHello, JA3.
- Базовые знания HTTP/2.
4. DevOps / MLOps
- Docker, Git, Linux; будет плюсом опыт с CI/CD.
5. Дополнительно
- Понимание безопасности, VPN/прокси.
- Сильная математическая база (статистика, матан, вероятности).
---
## Условия работы:
- Удалённая работа (полная/частичная занятость — обсуждается).
- Небольшая команда (сети/бэкенд + ML).
- Задачи ведутся в трекере, созвоны по необходимости.
Финансовая часть:
- 100–250 тыс. руб. на руки в месяц (зависит от опыта).
- Возможны выплаты в USDT.
- доступ к [Cursor.com] (актуальные модели, например, Sonnet 3.5).
---
## Что получаете:
- Глубокий опыт в сетевых отпечатках, работа с уникальными данными.
- Полную свободу выбора инструментов (главное — результат).
- Поддержку по инфраструктуре и сбору сетевых данных.
- Интересные челленджи в ML + Security.
---
## Как откликнуться:
- Напишите о себе и прикрепите резюме/портфолио/GitHub.
- Расскажите, какой у вас опыт в сетевых протоколах или безопасности (VPN, прокси).
Контакт: [https://www.tg-me.com/Siemons8]
Всем привет!
Мы в «Центр Орбита» ищем Data Engineer уровня Senior на временный проект🧐
Вакансия: Senior Data Engineer.
Компания: «Центр Орбита».
Локация: Москва / РФ удаленка.
Длительность проекта: 6 мес. возможно продление.
Масштабный технологический проект с глубокой экспертизой в цифровизации бизнеса. Ключевые отрасли: государственный сектор, FinTech, HR Tech, коммуникации и медиа, услуги, рынок недвижимости, travel. Нам доверяют крупнейшие компании РФ, среди них: Т1, ВТБ, Иннотех, Альфа-банк, ОИС и другие. Более 6 лет мы ведем собственную продуктовую и заказную разработку высокоэффективных цифровых решений.
Наш основной стек:
Apache Spark, Apache Airflow, Apache Kafka, Apache Flink, Yandex Cloud, Python, SQL, Linux, Docker, K8S.
Основные задачи:
• Работа над проектом в крупном ретейле;
• Разработка и поддержка ETL-процессов;
• Работа с потоковыми данными;
• Оркестрация задач;
• Работа с облачной инфраструктурой;
• Анализ и оптимизация запросов.
Пиши @Gillthunder, обсудим условия.📃
#job #вакансия #аутстафф #удаленка #DE
Мы в «Центр Орбита» ищем Data Engineer уровня Senior на временный проект
Вакансия: Senior Data Engineer.
Компания: «Центр Орбита».
Локация: Москва / РФ удаленка.
Длительность проекта: 6 мес. возможно продление.
Масштабный технологический проект с глубокой экспертизой в цифровизации бизнеса. Ключевые отрасли: государственный сектор, FinTech, HR Tech, коммуникации и медиа, услуги, рынок недвижимости, travel. Нам доверяют крупнейшие компании РФ, среди них: Т1, ВТБ, Иннотех, Альфа-банк, ОИС и другие. Более 6 лет мы ведем собственную продуктовую и заказную разработку высокоэффективных цифровых решений.
Наш основной стек:
Apache Spark, Apache Airflow, Apache Kafka, Apache Flink, Yandex Cloud, Python, SQL, Linux, Docker, K8S.
Основные задачи:
• Работа над проектом в крупном ретейле;
• Разработка и поддержка ETL-процессов;
• Работа с потоковыми данными;
• Оркестрация задач;
• Работа с облачной инфраструктурой;
• Анализ и оптимизация запросов.
Пиши @Gillthunder, обсудим условия.
#job #вакансия #аутстафф #удаленка #DE
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
МАШИННОЕ ОБУЧЕНИЕ: www.tg-me.com/ai_machinelearning_big_data
C++ www.tg-me.com/cpluspluc
Python: www.tg-me.com/pythonl
Linux: www.tg-me.com/linuxacademiya
Хакинг: www.tg-me.com/linuxkalii
Devops: www.tg-me.com/DevOPSitsec
Data Science: www.tg-me.com/data_analysis_ml
Javascript: www.tg-me.com/javascriptv
C#: www.tg-me.com/csharp_ci
Java: www.tg-me.com/javatg
Базы данных: www.tg-me.com/sqlhub
Python собеседования: www.tg-me.com/python_job_interview
Мобильная разработка: www.tg-me.com/mobdevelop
Docker: www.tg-me.com/DevopsDocker
Golang: www.tg-me.com/Golang_google
React: www.tg-me.com/react_tg
Rust: www.tg-me.com/rust_code
ИИ: www.tg-me.com/vistehno
PHP: www.tg-me.com/phpshka
Android: www.tg-me.com/android_its
Frontend: www.tg-me.com/front
Big Data: www.tg-me.com/bigdatai
Собеседования МЛ: www.tg-me.com/machinelearning_interview
МАТЕМАТИКА: www.tg-me.com/data_math
Kubernets: www.tg-me.com/kubernetc
Разработка игр: https://www.tg-me.com/gamedev
Haskell: www.tg-me.com/haskell_tg
Физика: www.tg-me.com/fizmat
💼 Папка с вакансиями: www.tg-me.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tg-me.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tg-me.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tg-me.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tg-me.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.tg-me.com/memes_prog
🇬🇧Английский: www.tg-me.com/english_forprogrammers
🧠ИИ: www.tg-me.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tg-me.com/addlist/BkskQciUW_FhNjEy
МАШИННОЕ ОБУЧЕНИЕ: www.tg-me.com/ai_machinelearning_big_data
C++ www.tg-me.com/cpluspluc
Python: www.tg-me.com/pythonl
Linux: www.tg-me.com/linuxacademiya
Хакинг: www.tg-me.com/linuxkalii
Devops: www.tg-me.com/DevOPSitsec
Data Science: www.tg-me.com/data_analysis_ml
Javascript: www.tg-me.com/javascriptv
C#: www.tg-me.com/csharp_ci
Java: www.tg-me.com/javatg
Базы данных: www.tg-me.com/sqlhub
Python собеседования: www.tg-me.com/python_job_interview
Мобильная разработка: www.tg-me.com/mobdevelop
Docker: www.tg-me.com/DevopsDocker
Golang: www.tg-me.com/Golang_google
React: www.tg-me.com/react_tg
Rust: www.tg-me.com/rust_code
ИИ: www.tg-me.com/vistehno
PHP: www.tg-me.com/phpshka
Android: www.tg-me.com/android_its
Frontend: www.tg-me.com/front
Big Data: www.tg-me.com/bigdatai
Собеседования МЛ: www.tg-me.com/machinelearning_interview
МАТЕМАТИКА: www.tg-me.com/data_math
Kubernets: www.tg-me.com/kubernetc
Разработка игр: https://www.tg-me.com/gamedev
Haskell: www.tg-me.com/haskell_tg
Физика: www.tg-me.com/fizmat
💼 Папка с вакансиями: www.tg-me.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tg-me.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tg-me.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tg-me.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tg-me.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.tg-me.com/memes_prog
🇬🇧Английский: www.tg-me.com/english_forprogrammers
🧠ИИ: www.tg-me.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tg-me.com/addlist/BkskQciUW_FhNjEy
#вакансия #vacancy #fulltime
Архитектор данных (DWH)
Лидера рынка ритейла (не РФ) с более чем 150 маркетами по всей стране в поиске Архитектора данных (DWH) для участия в проекте по внедрению централизованного хранилища данных.
Основные задачи:
– Участие в проекте по внедрению централизованного DWH в роли Архитектора и лидера команды разработки;
– Взаимодействие с бизнес-пользователями и подрядчиками для сбора и уточнения требований к DWH;
– Разработка архитектуры хранилища данных, включая проектирование слоев, потоков и моделей данных;
– Проведение архитектурного надзора, управление данными и проведение code review;
– Подготовка технической и методологической документации;
– Контроль проектных сроков и рисков совместно с Руководителем/Менеджером проекта;
– Координация работы команд разработки в процессе реализации DWH;
– Участие в тестировании и приемке системы заказчиком;
– Оптимизация процессов ETL для работы с большими объемами данных;
– Организация мониторинга качества данных и внедрение инструментов для отслеживания инцидентов.
Требования:
– Опыт проектирования архитектуры Хранилищ Данных (ХД), слоев ХД, ЛМД и ФМД, интеграционных решений и потоков трансформации данных (ETL/ELT);
– Практический опыт работы с СУБД, Data Lake, modern data stack на базе облачных технологий (сертификация Azure — плюс), ETL-инструментами (Data Factory и другие), BI-инструментами (будет плюсом);
– Опыт работы в роли архитектора DWH или Data Lake от 2 лет (обязательно);
– Понимание архитектуры данных в ритейле или e-commerce (желательно);
– Знание и практический опыт работы с платформой Microsoft Azure Fabric;
– Уверенный английский для общения со стейкхолдерами и ведения деловой переписки;
– Опыт работы с техническим стеком SAP (например, SAP BW on Hana) — плюс;
– Готовность к работе on-site в Ташкенте минимум 50% времени (релокация — плюс).
Мы предлагаем:
– Помощь с релокацией + Релокационный пакет;
– Ежегодные премии по результатам Performance Review;
– Масштабные корпоративные мероприятия и митапы;
– Партнерские программы обучения иностранным языкам и профессиональным навыкам;
– Программу материальной помощи в различных жизненных ситуациях;
– Поддержку ментора для быстрой адаптации новых сотрудников
Контакт для отклика на вакансию @haas_mari
Архитектор данных (DWH)
Лидера рынка ритейла (не РФ) с более чем 150 маркетами по всей стране в поиске Архитектора данных (DWH) для участия в проекте по внедрению централизованного хранилища данных.
Основные задачи:
– Участие в проекте по внедрению централизованного DWH в роли Архитектора и лидера команды разработки;
– Взаимодействие с бизнес-пользователями и подрядчиками для сбора и уточнения требований к DWH;
– Разработка архитектуры хранилища данных, включая проектирование слоев, потоков и моделей данных;
– Проведение архитектурного надзора, управление данными и проведение code review;
– Подготовка технической и методологической документации;
– Контроль проектных сроков и рисков совместно с Руководителем/Менеджером проекта;
– Координация работы команд разработки в процессе реализации DWH;
– Участие в тестировании и приемке системы заказчиком;
– Оптимизация процессов ETL для работы с большими объемами данных;
– Организация мониторинга качества данных и внедрение инструментов для отслеживания инцидентов.
Требования:
– Опыт проектирования архитектуры Хранилищ Данных (ХД), слоев ХД, ЛМД и ФМД, интеграционных решений и потоков трансформации данных (ETL/ELT);
– Практический опыт работы с СУБД, Data Lake, modern data stack на базе облачных технологий (сертификация Azure — плюс), ETL-инструментами (Data Factory и другие), BI-инструментами (будет плюсом);
– Опыт работы в роли архитектора DWH или Data Lake от 2 лет (обязательно);
– Понимание архитектуры данных в ритейле или e-commerce (желательно);
– Знание и практический опыт работы с платформой Microsoft Azure Fabric;
– Уверенный английский для общения со стейкхолдерами и ведения деловой переписки;
– Опыт работы с техническим стеком SAP (например, SAP BW on Hana) — плюс;
– Готовность к работе on-site в Ташкенте минимум 50% времени (релокация — плюс).
Мы предлагаем:
– Помощь с релокацией + Релокационный пакет;
– Ежегодные премии по результатам Performance Review;
– Масштабные корпоративные мероприятия и митапы;
– Партнерские программы обучения иностранным языкам и профессиональным навыкам;
– Программу материальной помощи в различных жизненных ситуациях;
– Поддержку ментора для быстрой адаптации новых сотрудников
Контакт для отклика на вакансию @haas_mari
#vacancy #data #lead #Databricks #AWS #remote #вакансия #удаленно #relocate
Коллеги, привет!
Я в поисках Data Engineering Lead в международную финтех компанию в ЮВА.
Стек: AWS, Databricks, Spark, Terraform, Airflow, Python, Scala
Удаленный формат работы ( или гибрид). Рабочая тайм зона UTC+5/UTC+9 ( и очень важно либо уже находиться там, либо быть готовым к релокации ( поддержка переезда для сотрудника и семьи)
Основные задачи:
- Проектирование и разработка Data Lakes и Data Marts на AWS и Databricks
- Построение и управление ETL-пайплайнами в Airflow/Dagster на Python и Scala
- Автоматизация инфраструктуры с Terraform
- Оптимизация производительности BI-слоев и data pipelines
- Развивитие фреймворков качества данных для надежной аналитики
- Управление командой Data инженеров
Что важно:
- Опыт с Databricks, Spark, Terraform, Airflow, AWS, Python, Scala (как плюс)
- Опыт создания масштабируемых Data решений
- Опыт решения инфраструктурных задач
- Опыт в роли Lead/Head of Data
На все вопросы готова ответить в ЛС @akimova_hr
Коллеги, привет!
Я в поисках Data Engineering Lead в международную финтех компанию в ЮВА.
Стек: AWS, Databricks, Spark, Terraform, Airflow, Python, Scala
Удаленный формат работы ( или гибрид). Рабочая тайм зона UTC+5/UTC+9 ( и очень важно либо уже находиться там, либо быть готовым к релокации ( поддержка переезда для сотрудника и семьи)
Основные задачи:
- Проектирование и разработка Data Lakes и Data Marts на AWS и Databricks
- Построение и управление ETL-пайплайнами в Airflow/Dagster на Python и Scala
- Автоматизация инфраструктуры с Terraform
- Оптимизация производительности BI-слоев и data pipelines
- Развивитие фреймворков качества данных для надежной аналитики
- Управление командой Data инженеров
Что важно:
- Опыт с Databricks, Spark, Terraform, Airflow, AWS, Python, Scala (как плюс)
- Опыт создания масштабируемых Data решений
- Опыт решения инфраструктурных задач
- Опыт в роли Lead/Head of Data
На все вопросы готова ответить в ЛС @akimova_hr
#работа #вакансия #Middle #System #Analyst #Zabbix
☁️Позиция: Системный аналитик Zabbix
🏙Компания: HuntTech
💰зп: вилка: 260 - 325тр
📅формат работы: гибрид 50/50
📶Локация\Гражданство: РФ
занятость: Full-time
Контакт: @Feeelinggoood
📌Что предстоит делать:
- Сбор, формирование и подготовка функциональных требований, технических заданий на разработку/доработку автоматизированных систем;
- Настройка (совместно с техническими специалистами) компонентов вычислительной и прикладной инфраструктуры на площадке Заказчика;
- Участие в формировании списка задач для отдельных команд и рабочих групп;
- Разработка проектных решений и проектной документации;
- Подготовка технико-коммерческих предложений, спецификаций на оборудование и ПО, техническая поддержка пресейлов.
🔺Мы ждем от кандидата:
- Базовые навыки администрирования серверов Windows и Linux, либо уверенный пользователь;
- Опыт участия в проектах в роли ведущего специалиста, аналитика, архитектора или ИТ-лидера по направлению (системы мониторинга);
- Опыт проектирования инструментов мониторинга – Grafana, Zabbix, Elasticsearch/OpenSearch, Prometheus;
- Понимание технологии REST API, опыт построения sql-запросов;
- Опыт описания бизнес-процессов в нотации UML/BPMN;
- Опыт сбора, анализа и формализации функциональных требований, требований к изменениям в бизнес-процессе.
➕ Будет плюсом:
Опыт работы с системами класса CI/CD (GitLab CI, Jenkins, Argo CD и проч.), опыт автоматизации (на любом скриптовом языке программирования), опыт работы с высоконагруженными системами в отказоустойчивой конфигурации.
✉️ Как присоединиться к команде?
Если вы готов принять вызов и стать частью нашей команды -пиши: @Feeelinggoood
☁️Позиция: Системный аналитик Zabbix
🏙Компания: HuntTech
💰зп: вилка: 260 - 325тр
📅формат работы: гибрид 50/50
📶Локация\Гражданство: РФ
занятость: Full-time
Контакт: @Feeelinggoood
📌Что предстоит делать:
- Сбор, формирование и подготовка функциональных требований, технических заданий на разработку/доработку автоматизированных систем;
- Настройка (совместно с техническими специалистами) компонентов вычислительной и прикладной инфраструктуры на площадке Заказчика;
- Участие в формировании списка задач для отдельных команд и рабочих групп;
- Разработка проектных решений и проектной документации;
- Подготовка технико-коммерческих предложений, спецификаций на оборудование и ПО, техническая поддержка пресейлов.
🔺Мы ждем от кандидата:
- Базовые навыки администрирования серверов Windows и Linux, либо уверенный пользователь;
- Опыт участия в проектах в роли ведущего специалиста, аналитика, архитектора или ИТ-лидера по направлению (системы мониторинга);
- Опыт проектирования инструментов мониторинга – Grafana, Zabbix, Elasticsearch/OpenSearch, Prometheus;
- Понимание технологии REST API, опыт построения sql-запросов;
- Опыт описания бизнес-процессов в нотации UML/BPMN;
- Опыт сбора, анализа и формализации функциональных требований, требований к изменениям в бизнес-процессе.
➕ Будет плюсом:
Опыт работы с системами класса CI/CD (GitLab CI, Jenkins, Argo CD и проч.), опыт автоматизации (на любом скриптовом языке программирования), опыт работы с высоконагруженными системами в отказоустойчивой конфигурации.
✉️ Как присоединиться к команде?
Если вы готов принять вызов и стать частью нашей команды -пиши: @Feeelinggoood