Telegram Web Link
Я фанат Streamlit и часто использую его там, где многие бы ограничились Jupyter. Основные сценарии использования в чем-то похожи на Jupyter ноутбуки, но позволяют высунуть наружу не сами исходники, а только несколько контролов, которые и нужно крутить. Очень удобно для всяких демок - например, показать результат коллегам вне ML команды и дать им возможность потыкать что-то своими руками без единой строчки кода. И никакого богомерзкого JS писать не нужно!

Так вот, недавно я добрался до их коллекции компонентов и окончательно влюбился. Так, например, при помощи drawable canvas я набросал инструмент для разметки ровно в том формате, который мне был нужен, примерно за 3 минуты (т.е. взял исходники с гитхаба и дописал пять строк). Очень рекомендую!
Я по работе последние полтора года активно пользуюсь AWS (до этого - совсем поверхностно, на уровне aws s3 cp s3://bucket/my_awesome_data /tmp), но с использованием устоявшейся и местами слегка запутанной инфраструктуры. Потому казалось, что AWS - это классная махина, но порог входа для новых проектов достаточно высокий.

И вот вчера решил сделать небольшое приложение для pet-проекта: буквально пара ендпоинтов. Ну и сразу задался целью сделать модный serverless на лямбдах. В качестве фреймворка взял chalice.

Так вот, это бомба! Код пишется настолько прямолинейно, насколько возможно, никакой инфраструктурной возни. Чтобы сложить логи в Cloudwatch, нужно дописать одну строку. Тестирование не требует никаких особых приседаний. Чтобы задеплоиться, нужно вбить одну команду chalice deploy. Когда понадобилось задеплоить жирный пакет (более 50 мб зависимостей, что превышает лимит загрузки кода в лямбду напрямую), пришлось прикрутить деплоймент через CloudFormation, и это тоже заняло аж 15 минут.

Кажется, что для stateful приложений придется потратить еще на 15 минут больше, чтобы прикрутить какую-нибудь DynamoDB. Но все равно - близкий к идеальному опыт использования.
Недавно обсуждали с приятелем о том, как подходить к незнакомой ML задаче. И это повод как-то сформулировать фреймворк, которому следую я сам.

0. Собрать небольшой, но качественный датасет (или взять готовый, если задача позволяет; см. также мой старый пост)
1. Поверхностно понять продуктовую задачу и попытаться ее сформулировать в терминах ML. Например, "нужно распознавать ключевые фразы по аудио" ⇒ sound classification (disclaimer - я как раз почти ничего не знаю об этой задаче).
2. Уточнить формулировку в гугле, найти соответствующий раздел на paperswithcode, взять оттуда пяток свежих SotA статей.
3. Погуглить task name + survey для поиска обзорных статей по теме.
4. Бегло прочитать все это, опционально прочитать еще пару статей, которые часто цитируются в прочитанных.
5. Получив базовую интуицию, подытожить, что в прочитанных статьях является свистелками-перделками, а что - ядром подходов. Например, для sound classification будет логично, что перегнать звук в спектрограмму, аугментировать (pitch, mixup) и натравить CNN - это важно, а attention на последнем слое - не очень.
6. Построить бейзлайн (или с нуля, или на базе готовой реализации, найденной на paperswithcode).
7. ...
8. PROFIT

Дополнения и критика приветствуются в комментариях!
С огромным удовольствием прочитал книгу про становление и падение Silk Road (goodreads, bookmate) - крупнейшего магазина дарквеба, который начинался с торговли грибами, а на пике торговал всем подряд - от автоматического оружия до донорских органов. Это совершенно нетехническая книга, но она про технологии. Точнее, про то, как технологии меняют те аспекты жизни, о которых мы (по крайней мере я) мало думаем - например, о том как изменились цепочки поставок веществ и о том, как можно довольно долго сохранять анонимность, если она по-настоящему нужна.

Написано драматично и захватывающе, по стилю довольно сильно напоминает Bad Blood, прекрасную историю расцвета и такого же падения Theranos.
image_2021-06-29_19-54-41.png
250.8 KB
Дорогие подписчики присылают контент для рубрики "Нерды шутят". Статья, кстати, реально существует.
Эффект бабочки в опенсорсе: случайно обнаружил куски своего кода двухлетней давности в плагине для GIMP.

Мораль очевидна: контрибьютить в опенсорс, даже по мелочи - это хорошо и правильно! Никогда не знаешь, кому и как в это итоге поможет; хорошие технические решения непредсказуемо виральны.
Пара паттернов, которые меня в последнее время сильно настораживают в резюме:

1) Несоответствие уровней абстракций. Например, в скиллах человек перечисляет: умею AWS, machine learning, software design, REST API и YOLO v3. Чувак, если ты в рамках малого куска резюме не можешь обеспечить консистентность абстракций, то заранее страшновато смотреть на твой software design.

2) Неровная производная грейдов на предыдущих местах работы. Цепочка intern => engineer => senior engineer => lead engineer выглядит логично. Цепочка senior engineer => intern / junior => head of something вызывает некоторые вопросы: понятно, в какой дыре он был "сеньором", если дальше смог попасть только на стажировку; да и попадание из джунов в большие боссы намекает на некоторую инфляцию тайтлов на последнем месте работы. Конечно, соверешенно не проблема, что человек работал на какой-то галере - проблема в том, что он смело транслирует этот булшит в CV, а значит его остальное хвастовство можно смело делить на X в уме.

Вообще, хвастаться тоже надо уметь. Формулировки типа "Built 100+ ML models for in cloud environment using Random Forest, a predictive modeling technique, in R programming language" могут впечатлить только очень специфическую аудиторию, в определенных кругах это называется "гнилые понты". Play stupid games, win stupid prizes.
Сегодня с разных сторон прилетело удивительное количество интересных ссылок сугубо про компьютерное зрение, и я просто обязан поделиться хотя бы некоторыми из них:

- Два обзора недавнего CVPR 2021 с фокусом на разные темы: первый, второй. Если кто-то не в курсе, это крупнейшная академическая конференция про CV.
- Отличная статья про StyleGAN (и многое вокруг) от @CVML_team. Вообще, посты Антона на Хабре - едва ли не лучший русскоязычный контент про computer vision: и академическая широта, и прагматичный взгляд из индустрии, и хороший слог.
- Наконец, @BoreMeNo прислал ссылку на видео про робота для игры в пул. Там маловато деталей реализации, но в целом за 20 минут можно понять, что нужно знать и уметь для построения подобной умной железки. CV часть, на мой взгляд, довольно простая, а вот остальное 🤯
Сидели недавно в баре с приятелем, болтали про работу. И он сказал примерно следующее: "в такой-то части компании Х полный бардак, некоторые разработчики работают на второй работе и особо не скрывают этого". И это напомнило историю, которую мне пересказали в аналогичных условиях.

В некоторой большой российской корпорации была команда разработчиков - немаленькая, человек 10-15. И вот случилась в корпорации перестановка, эта команда попала в другую часть оргструктуры. На каком-то этапе вышестоящий менеджер (назовем его В.) начал вникать, чем команда занимается, и обнаружил, что делают они немного. Например, за один двухнедельный спринт пофиксили четыре бага, за следующий - два бага и одно мелкое улучшение. П - продуктивность!

В. решил узнать в чем дело, и пошел искать менеджера команды (назовем ее К.); она долго не отвечала, митинги откладывались и переносились. В. между делом спросил у разработчиков, как часто они взаимодействуют с К. - оказалось, что только на планировании спринта, раз в две недели.

Вся эта неопределенность тянулась какое-то время, но в итоге выяснилось, что К. уехала работать в Штаты еще полгода назад, но решила не увольняться, потому что ее отсутствие все равно оставалось незамеченным. В принципе, если бы не реорганизация и не появление В., эта все могло бы тянуться сильно дольше полугода. Сколько из ее подчиненных разработчиков параллельно работало на вторых работах, история умалчивает.

Расскажите в комментариях ваши любимые истории о том, как люди совмещают несколько работ, и к чему это приводит!
Прочитал прекрасный лонгрид про Трампа современное де-факто кастовое строение общества (очень рекомендую осилить целиком). Самые нетерпеливые читатели могут уже возмутиться "эй, мне обещали, что это канал про ML и software engineering, верните мои деньги!". Но погодите отписываться, это пост на самом деле про карьеру в software.

Вырву цитату из этой статьи:

Олред рассказывает, что за годы работы школы они поняли, что учеников надо научить не только правильно кодировать, но и правильно разговаривать, правильно одеваться и даже правильно выбирать имейл-адрес — иначе с устройством на работу возникают проблемы. У тех, кто приходит в Lambda, чтобы научиться кодировать, и у IT-менеджеров, которые их нанимают, просто разные культурные коды, и чтобы тебе доверяли как программисту, нужно не только программировать как программист, но и вести себя как программист. То есть показать, что ты принадлежишь к определенному социальному классу.

Этот тезис обязателен для осознания многим, например:
- тем, кто пытается вкатиться в индустрию без релевантного образования (а таких людей очень много);
- тем, кто в этом помогает (авторы всяких курсов программирования);
- тем, кто застрял в карьере на уровне code monkey (и недоволен этим).

Действительно, ставшие популярными behavioral интервью проверяют не только, не мудак ли кандидат, но и является ли он частью "касты технарей". Это необязательно значит быть архетипичным нердом, но какие-то общие ценности ожидаются. Знаменитое fake it till you make it - как раз про то, чтобы успешно мимикрировать под эту касту, и потом уже влиться в нее по-настоящему.

Разумеется, все вышесказанное никак не противоречит необходимости ботать алгоритмы, уметь пользоваться современными инструментами, сколько-то знать математику и в целом уметь программировать. Но этого недостаточно: при прочих равных из двух кандидатов, закончивших одинаковые курсы, пролиставших одинаковые учебники и сделавших одинаковые пет-проекты, первым получит работу тот, кто в свободное время читает научпоп про космос и играет в видеоигры, а не тот, кто с юности любит музеи современного искусства и артхаусное кино.
Я традиционно недолюбливаю Jupyter ноутбуки, основные причины такой нелюбви в свое время прекрасно описал Joel Grus. Конечно, в некоторых задачах они прям хороши (поиграть с визуализацией или подготовить сколько-то интерактивный отчет для executives), хотя и в подобных задачах я все чаще использую streamlit. Поэтому появление Google Colab в свое время тоже прошло мимо меня.

И вот недавно, когда Google выкатил дополнительный тарифный план Colab Pro+, я задумался: а можно ли этим хоть как-то пользоваться вне jupyter-инфраструктуры? И, оказывается, человечество уже все придумало - для SSH подключения к colab инстансу достаточно:
1) запустить colab ноутбук;
2) поставить там ngrok или cloudflared и запустить его в бэкграунд процессе;
2.1) в случае с cloudflared - поставить соответствующий клиент на локальной машине;
3) подключиться по SSH
4) PROFIT!

В итоге можно для мелких экспериментов бесплатно получить почти полноценный инстанс с Ubuntu, парой CPU ядер, CUDA и рут-доступом. Если лень делать это все руками, можно воспользоваться готовыми решениям, например, colab-ssh для cloudflared, сниппет для ngrok.
Наверняка почти все читатели что-то слышали о том, что Apple планирует сканировать ваши айфоны в поисках детского порно. Так вот, на Реддите утверждают, что экспортировали модель NeuralHash, которая используется для матчинга ваших фоток с базой запрещенного контента, и сконвертировали ее в ONNX. Кстати, это обычный MobilenetV3.

Сейчас, в условиях отсутствия в публичном доступе базы хэшей плохого контента, эта модель малополезна для злодеев, и представляет интерес в основном для любопытных инженеров. С другой стороны, если проверка осуществляется на девайсе, эта самая база тоже может быть найдена где-то среди файлов ios, и тогда технически продвинутые педофилы смогут легко обойти защиту Apple.
Today I learned: в pytest можно легко тестировать логирование. Не нужно самому возиться с моками для логгера, все уже готово - достаточно использовать дефолтную фикстуру caplog (пример использования для ленивых).

Очень удобно, если у вас бывает своеобразный код, где логи - это единственный side effect. С другой стороны, такой код может быть и звоночком - возможно, с дизайном что-то не так.
Три ссылки, объединенные темой "вряд ли мне это пригодится, но впечатляет!"

1) Пост в блоге Яндекса о том, как они в коллаборации с HuggingFace сделали DeDLOC - фреймворк для распределенного обучения больших deep learning на гетерогенном "кластере", а точнее - разношерстном наборе волонтерских GPU машин (и Google Colab инстансов, хаха).

2) CLI-тулза для семантического поиска по изображениям на базе CLIP. Т.е. cd photos && rclip "search query"

3) Огромный список open source проектов про sustainability природных ресурсов. Интересно, что в списке прекрасно сочетаются проекты вида "ML модель, чтобы делать Х (например, находить объекты со спутниковых снимков)" и "калькулятор CO2 выбросов от твоей видеокарты".
Возможно, вы знали, что существует такая задача как approximate matrix multiplication (я и не подозревал). Возможно, вы даже представляли, что современные методы приближения могут быть на порядок быстрее, чем точное вычисление. Но большинство из вас наверняка не видело эту свежую работу, которая утверждает, что их метод обеспечивает ускорение на два порядка.

Конечно, до прикладного применения еще очень далеко, но совершенно нельзя исключать, что в обозримом будущем это будет привычным инструментом в ML (как, например, квантизация float32=>float16).
Если вы вдруг забыли, кто такой Юрген Шмидтхубер, то он, обмазавшись нефтедолларами, спешит напомнить, что не только изобрел примерно весь современный диплернинг, но еще и бицуху накачал нормально 💪
Минутка рекламы. Хочу посоветовать канал @bdscience_ru за авторством широко известного в узких кругах Леши Чернобровова.

Мы познакомились с Лешей в 2017, когда он приехал на минский датафест и сделал отличный доклад про ML для ценообразования; впоследствии я не раз давал знакомым ссылку на видео.

Крупные компании платят Леше чемоданчики денег за консультации, а мы, тем временем, можем просто читать его канал.
Недавно объявили результаты Шнобелевской премии 2021. И там есть кое-что занятное для машинлернеров (особенно выходцев из ex-USSR).

Экономика. Награду заслужил французский исследователь Павло Блаватский. Он выяснил, что уровень ожирения, в том числе лица, на фото политиков некоторых [постсоветских] стран отражает их уровень коррумпированности. По его теории взятки получают чаще все более упитанные политики.

В абстракте оригинальной статьи написано, что body-mass index is estimated using a computer vision algorithm, это интересно! Полная статья стоит денег, но sci-hub нам поможет🏴‍☠️

Оказывается, что лауреат премии использовал для оценки BMI готовый алгоритм. Есть ссылка на некий Google Drive, но эта ссылка битая, приходится искать - я нашел только статью на arxiv. Итак, статья действительно есть, даже принята на какую-никакую, а конференцию. Ссылки в статье уже тоже в основном не работают.

Статья примерно такая: взяли датасет лиц с BMI лейблами, как-то почистили его, оставили 4к лиц, кое-как поделили их на трейн/тест (every person that has a face image in test set also had a face image in the training set), извлекли из них VGG фичи, обучили SVM регрессию поверх этих фичей и даже посчитали какие-то метрики: корреляция Пирсона по тестовой выборке составила 0.65. Оставшиеся 25% статьи поднимают этические вопросы.

Иными словами, как студенческая работа ок, но ни для чего серьезного это не годится. Соответственно, и та самая работа по экономике заведомо бестолкова, но не тем причинам, которые могли бы отметить в жюри премии. Garbage in - garbage out.
2025/07/03 16:48:41
Back to Top
HTML Embed Code: