Telegram Web Link
С 2022 по 2023 годы я вела в МГУ курс по основам AI. У курса был формат, где на каждом занятии был один jupyter notebook с теорией и практикой, и мы по нему шли. Курс я уже не веду, но ноутбуки у меня остались, и мне нравится, как я их сделала. И у меня была мысль перевести их на английский, немного дополнить, причесать и выложить на GitHub как открытый курс "DL Intro". И я даже потихоньку начала это делать, вот репозиторий, там уже есть первые два урока (Intro to NN, PyTorch, Backprop).

Но вот недавно я думала о том, какой рисерч делать дальше после недавней статьи (статья кстати вот, чуть позже о ней тоже напишу), и мне стало интересно исследовать многообразия, которые составляют векторы-выходы разных слоев диффузионной модели. Я начала читать статьи и думать над тем, как вообще такое делают, и в итоге залезла куда-то в дифференциальную геометрию. И тут ко мне пришла очень гениальная мысль: а что если спросить у GPT объяснить мне то, что я не понимаю? Или спросить что-то типа "вот я хочу вот это понять про многообразие, могу ли я это сделать и как?"
Тут если вам кажется, что эта мысль ничерта не гениальна и все делают так каждый день, то я до этого момента GPT не использовала вообще. Ну, 3-4 раза за все время, может, и по каким-то совсем отвлеченным поводам. Чувстсвую себя бабкой, честное слово))

Так вот, на мои эти вопросы GPT выдала очень классные саммари и предложения, и для некоторых вещей даже код написала (и даже почти совсем правильный). И если веруться к разговору про курс: теперь я думаю о том, что, возможно, с помощью GPT можно довольно быстро собрать неплохой такой курс по чему угодно. Так-то объяснения по диффгеому GPT выдавала понятные и достаточно развернутые, а если чего-то не хватает, то можно попросить пояснить. И теперь думаю о том, насколько усилия по составлению курсов людьми из головы становятся оправданы)

Думаю, что этот курс я все-таки доделаю и выложу (снова, вот ссылка, буду рада звездочкам 🙃), все же ноутбуки у меня в основном готовы, нужно их только причесать. Но в то же время пойду понимать, на что способна GPT, у меня теперь есть подписка на GPT и Claude, буду их мучить. Все-таки преподавание — это значительная часть моей работы, которую я люблю и хочу развивать, и хочется понимать, как делать эту работу лучше и быстрее. И не делать того, что можно не делать. Правда, в создании курсов я перфекционист, мне редко нравятся чужие объяснения, и я очень долго продумываю свои. Но посмотрим, может, GPT справится и удивит меня еще больше) Пока думаю, что, как минимум, в качестве помощника в составлении общей структуры курса и поиска дополнительных материалов GPT точно должна быть полезна.
Please open Telegram to view this post
VIEW IN TELEGRAM
Еще наблюдение про GPT и образование: мы сейчас делаем олимпиаду DLS. Она проходит в два этапа, отборочный и финальный. На этих выходных вот был отбор, финал будет в конце апреля. На каждом туре олимпиады дается несколько практических задач (а-ля обучите модель на таком-то датасете), и несколько теоретических на математику+ML, где надо дать численный ответ. На финальном этапе будет прокторинг (то есть, специальный человек будет смотреть на ваш экран все время, пока вы решаете задачи, и сделить, чтобы вы не читерили), а вот на отборочном его не было. То есть, участники могли пользоваться GPT/Claude/whatever. А значит, надо было попытаться составить такие задачи, которые эти всякие GPT-like штуки не могут слишком легко решить.

Поэтому перед стартом олимпиады мы сами скормили задачи ChatGPT, Deepseek и Claude, и смотрели, какие она стабильно решает, а где лажает. Из 7 теоретических задач студенческого трека были две такие, на которых все LLM стабильно лажали, выдавая разные, но неправильные ответы. Одна из этих задач — переформулированная задача про лапшу (ее стащила отсюда). А вторая задача — это я решила выяснить, кто из участников олимпиады ботал задачи с прошлого года (хе-хе 🤣), и дала новый вариант прошлогодней задачи "Неоднозначный PCA" (про нее я писала тут). Разница в условии с прошлым годом была только в точках, на которых строится PCA.

Так вот. После завершения отбора статистика правильных ответов по задачам, кажется, хорошо отражает то, насколько просто задачу решает ChatGPT =) На тех задачах, которые GPT решает правильно, участники дали 85%-95% правильных ответов, а вот на этих двух задачах правильных решений всего 45%. При этом задача про лапшу — это задача на простой теорвер, и я бы ожидала, что ее решат большее количество людей, чем некоторые другие задачи, если бы доступа к ChatGPT не было. Может, конечно, дело в чем-то другом (мало ли, может, мы где-то неправильно настроили чекер верных ответов, мы уже плохо соображали в ночь на субботу). Но пока что вывод такой, что люди правда пользуются ChatGPT для решения задач, если у них есть такая возможность ¯\_(ツ)_/¯

Теперь еще вот о чем думаю: мне в LinkedIn уже второй раз в сообщения прилетает предложение работы вида "придумывать задачи по математике, которые LLM не сможет решить". Видимо, собирают датасет для обучения более мощной LLM или чего-то такого. Теперь думаю, может, согласиться, и скормить им эти две задачи, будут easy money 🙃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Помните, рассказывала про курс по LLM в Лондоне, где читала несколько лекций? И упоминала, что у них скоро должен запуститься новый курс по LLM Engineering. Так вот, время пришло, курс запускается!

Итак, курс LLM Engineering Essentials от Стаса Федотова и Nebius Academy.
Рассчитан на разработчиков или ML-инженеров (то есть, не совсем новичков), которые хотят больше узнать о LLM-ках и начать создавать свои AI-сервисы. На курсе будет про то, как устроены LLM-модели (обещали даже мою лекцию включить, хех), как с ними работать, как их деплоить. Ну и, как обычно на хороших курсах — куча практики: в процессе вы сделаете чатбот из любимого фэнтези-персонажа и создадите собственную фабрику NPC!
Более конкретно, будет шесть больших тем: Working with LLM APIs, LLM workflows and agents, Context, Self-hosted LLMs, Optimization and monitoring, Fine-tuning.

Еще про курс:
- курс полностью бесплатный
- обучение полностью онлайн
- Старт 7 мая, курс рассчитан на 12 недель. 7 мая в 20:00 по Лондону будет вводный вебинар. Регистрация на него тут
- Во время обучения будут еженедельные Q&A со Стасом и другими лекторами — а это означает живой фидбэк и возможность задать кучу вопросов.

Все материалы лежат на GitHub курса, их уже можно начать разбирать.

Ссылки:
🎓 Сайт курса
💻 GitHub репо с материалами
📰 Регистрация на вводный вебинар
Please open Telegram to view this post
VIEW IN TELEGRAM
Полчаса назад в подмосковье стартовал первый тур отбора школьников на IOAI (межнар по AI). Отбор будет идти три дня, каждый тур по 6 часов. В первый и второй день будут по три задачи (таблички, CV, NLP), в третий день две (CV и NLP). Задачи мы старались придумать подобные тем, что были на прошлогоднем межнаре: то есть, очень интересными, где надо подумать и сделать что-то с фичами/моделями, а не просто Kaggle-style вида "вот датасет, обучите как-нибудь, чтобы было хорошо"

И вот что: отбор сделан как открытая олимпиада Northern Eurasia OAI 2025 (NEOAI) на Kaggle, и участвовать могут все желающие. Если хотите, присоединяйтесь) Сейчас открыты три задачи текущего тура (на них остается 5.5 часа), завтра и послезавтра в 10 утра по Москве откроются второй и третий туры. Leaderboard открытый, ваши посылки и посылки школьников с отбора будут одинаково видны. А в конце олимпиады (после трех туров) будет финальный лидерборд с рейтингом по всем задачам.
Разбор задач после олимпиады тоже будет, решения будут открыты.

Ссылка на соревнование: https://www.kaggle.com/competitions/neoai-2025/overview
Приходите, мы классные задачи придумали, правда)

P.S. Откройте бейзлайн сегодняшней задачи по NLP. Мы с Егором (который делал эту задачу) получили огромное удовольствие, когда придумали легенду 🤣
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый выпуск подкаста Deep Learning Stories с Андреем Райгородским!

Недавно ездила в Москву, и заехала на Физтех, чтобы записать этот выпуск) Андрей Михайлович Райгородский — директор Физтех-Школы Прикладной Математики и Информатики (ФПМИ) МФТИ, математик, доктор наук и очень крутой деятель образования в России. DLS, к слову, тоже в 2017 году была организована с его подачи.

О чем поговорили:
- высшее и школьное образование в сфере математики и AI: какое оно должно быть, как его развивать, чего не хватает и какие вызовы стоят
- наука в математике и AI

Ссылки:
- YouTube
- VK
- Apple Podcasts
- Spotify
- Яндекс.Музыка

Ставлю на то, что этот выпуск вызовет у вас сильное желание пойти учиться на ФПМИ МФТИ 🙃
Please open Telegram to view this post
VIEW IN TELEGRAM
Рисерческие программы, связанные с AI Safety

В моей рисерч деятельности я люблю копаться во внутренностях всяких AI моделей, что-то интересное про это понимать и потом на основе этого придумывать идеи для новых решений downstream задач. Например, моя последняя статья — про то, как контролировать генерацию диффузионной модели с помощью inference-time модификаций выходов слоев cross-attention. И так выходит, что вот это "копаться внутри моделей" сильно связано с interpretability, а применения этого связаны с AI Safety. В этой связи я недавно стала обращать внимание на всякие стажировки/рисерч программы/школы вокруг этих тем, и, как оказалось, их существует очень даже немало)

Если вам тоже такое интересно, то вот несколько ссылок:
(спасибо большое классным людям, которые делятся этими ссылками в чатиках!)

1. Одна из самых, наверное, известных программ по AI Safety — MATS (ML Alignment and Theory Scholars) от Berkeley. Это программа на 10 недель, где вы будете работать над рисерч проектом под руководством ментора из области. Подача на это лето уже закрыта, но, вроде как, следующая должна быть осенью. Если будете подаваться, не откладывайте это на последний момент: там достаточно объемные задания/вопросы, на которые нужно ответить.

На MATS попасть довольно сложно. По крайней мере, меня в прошлом году не взяли, и еще несколько людей вокруг меня тоже. Но у MATS есть список ссылок на альтернативные программы по AI Safety, которые они сами рекомендуют. Там есть курсы, школы, fellowships, и даже поиск фандинга для PhD и рисерча.

2. Еще есть вот список ссылок по Opportunities in AI Safety & Governance. Тут тоже очень-очень много всего разного.

Обратите только внимание, что иногда среди таких программ иногда встречаются не technical (где вы делаете AI Research), а философско-журналисткие на темы вроде "подумать и предложить roadmap регуляции AI в некоторой области". Иногда в одной и той же программе есть несколько треков, поэтому обращайте внимание, на что подаёте
И вот еще пара ссылок в тему к прошлому посту:

- Список школ вокруг ML/DL/AI топиков на 2025 год. Список правда огромный, кажется, что тут просто все школы по ML-тематике, которые только есть) Кажется, они делают такой список каждый год, так что и на 2026 потом должен быть.
- Если вы думаете про PhD, то у Meta есть совместные PhD программы с разными универами в нескольких городах (по крайней мере, Лондоне и Париже). То есть, это возможность делать PhD, при этом взаимодействуя с рисерчерами из Meta и получая нормальную зарплату, а не просто университетскую стипендию. Ну и "совместный PhD с Meta Research" просто звучит хорошо)

Если у вас есть еще подобные ссылки на всякие программы, делитесь в комментариях
На этой неделе проходит DataFest, и в этом году DLS участвует в секции ML & Education, которая пройдет 1 июня. В программе — 7 выступлений на тему AI образования и один круглый стол, где будет обсуждаться тема "что означает "хорошее" образование в AI"

Я тоже буду там выступать с докладом (если конечно доделаю презентацию))), и участвовать в круглом столе. А еще на круглый стол придет Саша Гущин — главный тренер сбороной России на межнар IOAI.

Программа секции, список участников и регистрация тут.
Все проходит онлайн.
Приходите!
В прошлую пятницу была на лекции Хинтона в Royal Institution, лекция называлась "Two paths to Intelligence". Если помните, я уже была на лекции Хинтона в Кембридже в 2023 году (вот посты про то, что там было), и общая тематика нового выступления была примерной такой же, как и два года назад. А именно, основными были две вещи:
- Цифровой и аналоговый интеллект: плюсы и минусы каждого.
- Риски AI: сценарий, как AI может прийти к власти, и почему AI больше похож на нас, людей, чем мы думаем.

Ниже чуть подробнее напишу про оба пункта. Лекция записывалась, и если где-то выложат запись, то я скину (пока я запись не нашла)
Цифровой и аналоговый интеллект. Еще два года назад Хинтон рассказывал, как начал интересоваться идеей построить (или, как он выражается, "вырастить") аналоговый интеллект. Это такой, который неотделим от физического тела (процессора) аналогично тому, как сознание людей неотделимо от конкретного мозга человека. Главным плюсом аналогового интеллекта была бы энергетическая эффективность, а главным минусом — невозможность распараллелить вычисления, и, в частности, обучение. Тейк такой: GPT-4 знает в 10k раз больше, чем любой из нас, и учится этому супербыстро, потому что при обучении мы могли сделать 10k копий одной и той же модели, учить каждую на своем куске данных, а потом смерджить знания (по-простому, мы могли использовать federated learning). Если интеллект аналоговый, то так сделать нельзя, и лучшая альтернатива — knowledge distillation. В качестве вывода Хинтон тут сказал: "Before 2023, I believed that we were a long way from super-intelligence, and making AI models more like the brain would make them more intelligent, but in early 2023 I realised that digital intelligence might actually be a much better form of intelligence than biological intelligence".
Вторая часть презентации, как и в 2023, снова была про риски AI. Общая идея Хинтона сейчас такая: "я не утверждаю, что нас ждет AI-апокалипсис, но в ближайшем будущем нас точно ждет что-то, чего никогда не было, и у нас нет никакого опыта взаимодейства с этим". Надо сказать, по сравнению с 2023 годом позиция стала намного более сдержанной. Такое ощущение, что лекция 2023 года была в тот момент, когда Хинтон преисполнился текущими возможностями LLM и навел у себя в голове паники, а сейчас эта паника спала. Тем не менее, Хинтон все равно считает, что многие люди слишком переоценивают "уникальность" человека и разницу между нами и AI, и это мешает осознать то, насколько AI сейчас уже мощный.
В частности, многие люди считают, что "субъективный опыт" — что-то уникальное, присущее только человеку, и у AI этого никогда не будет. В ответ Хинтон приводит пример, где рассуждение LLM выглядит так же, как и рассуждение человека, у которого был субъективный опыт. Вот этот пример:
Взяли шарик, перед шариком поставили призму, из-за которой наблюдателю кажется, что шарик лежит не в середние стола, а на правом краю. Сделали фото, дали GPT-4, спросили "где шарик". GPT-4 сказал, что справа. Потом ему сказали следующее: "теперь прими во внимание, что перед шариком мы поставили призму, которая искажает картинку". И GPT-4 ответил что-то вроде "а, окей, я понял, у меня был subjective experience того, что шарик справа, потому что призма искажает вид"

Плюс, в тему рисков AI снова было рассуждение о том, какой может быть вероятный сценарий захвата власти AI. Об этом писала в посте 2023 года, повторяться не буду, в этот раз посылы Хинтона были практически такими же. Единственное, в новой лекции к этой теме приводились пара примеров взаимодействия с LLM, которые подкрепляют эти сценарии. В этих сценариях LLM указывали на ее небезопасное поведение (например, пользователь заметил, что LLM скопировала себя на другой сервер), и LLM начинала отвечать стандартное "я не знаю, как это вышло, я всего лишь LLM и не могу копировать себя бла бла". Но если при этом залезть в мыслительный процесс LLM и посмотреть, что там происходило при генерации такого ответа, там будет что-то вроде "кажется, это не очень безопасно — говорить правду, лучше соврать/притвориться"
(пример на последней фотке к посту)
В целом, эта лекция была короче по времени и для более широкой аудитории, чем два года назад в Кемридже. В этот раз Хинтон начал с ооочень простого объяснения того, что такое нейронная сеть и как она обучается, а потом перешел к тому, как внутри нейросети представляются слова и смыслы. Наверное, цель этой части была показать, что LLM выучивают богатые представления слов, которые при проходе через LLM еще и связываются с контекстом, и что вообще LLM очень хороши в "понимании" языка. Но в итоге это вылилось еще и в основательное унижение ученых-лингвистов, которые, по мнению Хинтона, никак не хотели и все еще очень мало хотят верить, что язык — это больше, чем синтаксис и грамматика, и что всякие там нейронки способны язык "понять". Таня @rybolos_channel тоже была на этой лекции и сказала, что это все чушь😅

Ну и последнее: мне кажется, надо сделать книгу шуток от Хинтона, шутки у него конечно топ. Стоит сходить на его лекцию только ради них)
Помните, выше писала про программы по AI Safety/Alignment? Они обычно устроены так, что вы в течение какого-то времени под руководством ментора работаете над небольшим рисерч проектом индивидуально или в группе. И потом, если из рисерча получается что-то хорошее, пишете статью на воркшоп или конференцию.

Так вот, в своем рисерче я, как говорила, занимаюсь исследованием внутренних представлений моделей, и, в частности, representation engineering. Вот статья CASteer была как раз про то, как использовать подход representation engineering для контроля генерации диффузионной модели. И во время работы и размышлений над всем этим у меня накопились несколько идей того, что интересно было бы в этой сфере попробовать сделать. Но всем сразу я заняться не могу, и многие из этих идей тянут скорее на небольшой пет-проект, чем на полноценное исследование. Поэтому мне пришла мысль дать эти идеи в качестве итоговых проектов второй части курса DLS: там студенты как раз только что изучили устройство LLM, и, возможно, кому-то было бы интересно покопаться во внутренностях моделей и найти что-то интересное. Благо тема representation engineering еще такая, где редко нужно обучать сложные модели, и большинство экспериментов делаются достаточно быстро, не требуя мощных GPU

Короче, если не взяли на MATS, приходите в DLS в следующем семестре 😂
Сейчас проекты в DLS только начались, будут идти до 6 июля. Посмотрим, что в итоге получится, потом напишу сюда пост)
Please open Telegram to view this post
VIEW IN TELEGRAM
Принесла вам пару гайдов о том, как писать хорошие научные статьи

За ссылки спасибо моему менеджеру из лондонского Хуавея Измаилу (Ismail Elezi), он делился этими ссылками с нами, когда мы писали тексты статей к ICCV и NeurIPS. Эти гайды — не про то, как делать хороший рисерч, а именно как написать научную статью по своему исследованию так, чтобы было понятно, грамотно и убедительно. Даже самая умное и классное исследование легко может получить реджект на конференции, если статья написана так себе, поэтому это очень и очень важная часть работы рисерчера.

Итак, ссылки:
1. Пост на Medium: "Writing a good scientific paper" авторства Michael J. Black. Тут о том, что обязательно должно быть в статье, какими должны быть эксперименты, а также важные моменты, на которые нужно обратить внимание, о каждом из разделов статьи от Title до Supplementary.
2. В этом доке собраны несколько общих важных моментов относительно структуры статьи, стиля и грамматики. А еще даны ссылки на гайд по answering reviewer's comments и additional guidelines for scientific writing
3. Paper writing tips'n'tricks — док, который собрали Измаил и Aljosa Osep. Тут — о том, с чего начинать писать статью, важные моменты по каждому из разделов статьи, какие бывают частые ошибки и что делать, если дедлайн вот-вот, а написано почти ничего. И еще много ссылок на другие материалы по написанию статей в конце дока.
В прошлом году рассказывала про масштабное исследование специалистов DS/ML/AI от DevCrowd. В этом году они снова проводят это исследование и снова зовут всех в нем участвовать, поэтому я о нем снова пишу)

Это исследование — масштабный опрос для дата-инженеров, аналитиков, дата-сайентистов, ML-инженеров и их руководителей на следующие темы:
- что входит в обязанности той или иной профессии;
- какие навыки в профессии наиболее важны и каких знаний не хватает;
- сколько зарабатывают специалисты в зависимости от опыта и грейда;
- полезные для развития каналы, курсы и книги;

Проходите опрос (занимает 15 минут), помогайте коллегам составить актуальную картину положения дел в области. Результаты появятся в открытом доступе в конце сентября. Это поможет вам сравнить свои ожидания с рыночными, построить план своего развития, увидеть, как устроена работа над разными проектами у коллег, и просто понять, что происходит с индустрией.

➡️Пройти опрос

⏺️Тут результаты опроса прошлого года
⏺️А тут можно посмотреть другие исследования проекта
2025/06/29 03:23:21
Back to Top
HTML Embed Code: