Полчаса назад в подмосковье стартовал первый тур отбора школьников на IOAI (межнар по AI). Отбор будет идти три дня, каждый тур по 6 часов. В первый и второй день будут по три задачи (таблички, CV, NLP), в третий день две (CV и NLP). Задачи мы старались придумать подобные тем, что были на прошлогоднем межнаре: то есть, очень интересными, где надо подумать и сделать что-то с фичами/моделями, а не просто Kaggle-style вида "вот датасет, обучите как-нибудь, чтобы было хорошо"
И вот что: отбор сделан как открытая олимпиада Northern Eurasia OAI 2025 (NEOAI) на Kaggle, и участвовать могут все желающие. Если хотите, присоединяйтесь) Сейчас открыты три задачи текущего тура (на них остается 5.5 часа), завтра и послезавтра в 10 утра по Москве откроются второй и третий туры. Leaderboard открытый, ваши посылки и посылки школьников с отбора будут одинаково видны. А в конце олимпиады (после трех туров) будет финальный лидерборд с рейтингом по всем задачам.
Разбор задач после олимпиады тоже будет, решения будут открыты.
Ссылка на соревнование: https://www.kaggle.com/competitions/neoai-2025/overview
Приходите, мы классные задачи придумали, правда)
P.S. Откройте бейзлайн сегодняшней задачи по NLP. Мы с Егором (который делал эту задачу) получили огромное удовольствие, когда придумали легенду🤣
И вот что: отбор сделан как открытая олимпиада Northern Eurasia OAI 2025 (NEOAI) на Kaggle, и участвовать могут все желающие. Если хотите, присоединяйтесь) Сейчас открыты три задачи текущего тура (на них остается 5.5 часа), завтра и послезавтра в 10 утра по Москве откроются второй и третий туры. Leaderboard открытый, ваши посылки и посылки школьников с отбора будут одинаково видны. А в конце олимпиады (после трех туров) будет финальный лидерборд с рейтингом по всем задачам.
Разбор задач после олимпиады тоже будет, решения будут открыты.
Ссылка на соревнование: https://www.kaggle.com/competitions/neoai-2025/overview
Приходите, мы классные задачи придумали, правда)
P.S. Откройте бейзлайн сегодняшней задачи по NLP. Мы с Егором (который делал эту задачу) получили огромное удовольствие, когда придумали легенду
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый выпуск подкаста Deep Learning Stories с Андреем Райгородским!
Недавно ездила в Москву, и заехала на Физтех, чтобы записать этот выпуск) Андрей Михайлович Райгородский — директор Физтех-Школы Прикладной Математики и Информатики (ФПМИ) МФТИ, математик, доктор наук и очень крутой деятель образования в России. DLS, к слову, тоже в 2017 году была организована с его подачи.
О чем поговорили:
- высшее и школьное образование в сфере математики и AI: какое оно должно быть, как его развивать, чего не хватает и какие вызовы стоят
- наука в математике и AI
Ссылки:
- YouTube
- VK
- Apple Podcasts
- Spotify
- Яндекс.Музыка
Ставлю на то, что этот выпуск вызовет у вас сильное желание пойти учиться на ФПМИ МФТИ🙃
Недавно ездила в Москву, и заехала на Физтех, чтобы записать этот выпуск) Андрей Михайлович Райгородский — директор Физтех-Школы Прикладной Математики и Информатики (ФПМИ) МФТИ, математик, доктор наук и очень крутой деятель образования в России. DLS, к слову, тоже в 2017 году была организована с его подачи.
О чем поговорили:
- высшее и школьное образование в сфере математики и AI: какое оно должно быть, как его развивать, чего не хватает и какие вызовы стоят
- наука в математике и AI
Ссылки:
- YouTube
- VK
- Apple Podcasts
- Spotify
- Яндекс.Музыка
Ставлю на то, что этот выпуск вызовет у вас сильное желание пойти учиться на ФПМИ МФТИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Рисерческие программы, связанные с AI Safety
В моей рисерч деятельности я люблю копаться во внутренностях всяких AI моделей, что-то интересное про это понимать и потом на основе этого придумывать идеи для новых решений downstream задач. Например, моя последняя статья — про то, как контролировать генерацию диффузионной модели с помощью inference-time модификаций выходов слоев cross-attention. И так выходит, что вот это "копаться внутри моделей" сильно связано с interpretability, а применения этого связаны с AI Safety. В этой связи я недавно стала обращать внимание на всякие стажировки/рисерч программы/школы вокруг этих тем, и, как оказалось, их существует очень даже немало)
Если вам тоже такое интересно, то вот несколько ссылок:
(спасибо большое классным людям, которые делятся этими ссылками в чатиках!)
1. Одна из самых, наверное, известных программ по AI Safety — MATS (ML Alignment and Theory Scholars) от Berkeley. Это программа на 10 недель, где вы будете работать над рисерч проектом под руководством ментора из области. Подача на это лето уже закрыта, но, вроде как, следующая должна быть осенью. Если будете подаваться, не откладывайте это на последний момент: там достаточно объемные задания/вопросы, на которые нужно ответить.
На MATS попасть довольно сложно. По крайней мере, меня в прошлом году не взяли, и еще несколько людей вокруг меня тоже. Но у MATS есть список ссылок на альтернативные программы по AI Safety, которые они сами рекомендуют. Там есть курсы, школы, fellowships, и даже поиск фандинга для PhD и рисерча.
2. Еще есть вот список ссылок по Opportunities in AI Safety & Governance. Тут тоже очень-очень много всего разного.
Обратите только внимание, что иногда среди таких программ иногда встречаются не technical (где вы делаете AI Research), а философско-журналисткие на темы вроде "подумать и предложить roadmap регуляции AI в некоторой области". Иногда в одной и той же программе есть несколько треков, поэтому обращайте внимание, на что подаёте
В моей рисерч деятельности я люблю копаться во внутренностях всяких AI моделей, что-то интересное про это понимать и потом на основе этого придумывать идеи для новых решений downstream задач. Например, моя последняя статья — про то, как контролировать генерацию диффузионной модели с помощью inference-time модификаций выходов слоев cross-attention. И так выходит, что вот это "копаться внутри моделей" сильно связано с interpretability, а применения этого связаны с AI Safety. В этой связи я недавно стала обращать внимание на всякие стажировки/рисерч программы/школы вокруг этих тем, и, как оказалось, их существует очень даже немало)
Если вам тоже такое интересно, то вот несколько ссылок:
(спасибо большое классным людям, которые делятся этими ссылками в чатиках!)
1. Одна из самых, наверное, известных программ по AI Safety — MATS (ML Alignment and Theory Scholars) от Berkeley. Это программа на 10 недель, где вы будете работать над рисерч проектом под руководством ментора из области. Подача на это лето уже закрыта, но, вроде как, следующая должна быть осенью. Если будете подаваться, не откладывайте это на последний момент: там достаточно объемные задания/вопросы, на которые нужно ответить.
На MATS попасть довольно сложно. По крайней мере, меня в прошлом году не взяли, и еще несколько людей вокруг меня тоже. Но у MATS есть список ссылок на альтернативные программы по AI Safety, которые они сами рекомендуют. Там есть курсы, школы, fellowships, и даже поиск фандинга для PhD и рисерча.
2. Еще есть вот список ссылок по Opportunities in AI Safety & Governance. Тут тоже очень-очень много всего разного.
Обратите только внимание, что иногда среди таких программ иногда встречаются не technical (где вы делаете AI Research), а философско-журналисткие на темы вроде "подумать и предложить roadmap регуляции AI в некоторой области". Иногда в одной и той же программе есть несколько треков, поэтому обращайте внимание, на что подаёте
И вот еще пара ссылок в тему к прошлому посту:
- Список школ вокруг ML/DL/AI топиков на 2025 год. Список правда огромный, кажется, что тут просто все школы по ML-тематике, которые только есть) Кажется, они делают такой список каждый год, так что и на 2026 потом должен быть.
- Если вы думаете про PhD, то у Meta есть совместные PhD программы с разными универами в нескольких городах (по крайней мере, Лондоне и Париже). То есть, это возможность делать PhD, при этом взаимодействуя с рисерчерами из Meta и получая нормальную зарплату, а не просто университетскую стипендию. Ну и "совместный PhD с Meta Research" просто звучит хорошо)
Если у вас есть еще подобные ссылки на всякие программы, делитесь в комментариях
- Список школ вокруг ML/DL/AI топиков на 2025 год. Список правда огромный, кажется, что тут просто все школы по ML-тематике, которые только есть) Кажется, они делают такой список каждый год, так что и на 2026 потом должен быть.
- Если вы думаете про PhD, то у Meta есть совместные PhD программы с разными универами в нескольких городах (по крайней мере, Лондоне и Париже). То есть, это возможность делать PhD, при этом взаимодействуя с рисерчерами из Meta и получая нормальную зарплату, а не просто университетскую стипендию. Ну и "совместный PhD с Meta Research" просто звучит хорошо)
Если у вас есть еще подобные ссылки на всякие программы, делитесь в комментариях
На этой неделе проходит DataFest, и в этом году DLS участвует в секции ML & Education, которая пройдет 1 июня. В программе — 7 выступлений на тему AI образования и один круглый стол, где будет обсуждаться тема "что означает "хорошее" образование в AI"
Я тоже буду там выступать с докладом (если конечно доделаю презентацию))), и участвовать в круглом столе. А еще на круглый стол придет Саша Гущин — главный тренер сбороной России на межнар IOAI.
Программа секции, список участников и регистрация тут.
Все проходит онлайн.
Приходите!
Я тоже буду там выступать с докладом (если конечно доделаю презентацию))), и участвовать в круглом столе. А еще на круглый стол придет Саша Гущин — главный тренер сбороной России на межнар IOAI.
Программа секции, список участников и регистрация тут.
Все проходит онлайн.
Приходите!
В прошлую пятницу была на лекции Хинтона в Royal Institution, лекция называлась "Two paths to Intelligence". Если помните, я уже была на лекции Хинтона в Кембридже в 2023 году (вот посты про то, что там было), и общая тематика нового выступления была примерной такой же, как и два года назад. А именно, основными были две вещи:
- Цифровой и аналоговый интеллект: плюсы и минусы каждого.
- Риски AI: сценарий, как AI может прийти к власти, и почему AI больше похож на нас, людей, чем мы думаем.
Ниже чуть подробнее напишу про оба пункта. Лекция записывалась, и если где-то выложат запись, то я скину (пока я запись не нашла)
- Цифровой и аналоговый интеллект: плюсы и минусы каждого.
- Риски AI: сценарий, как AI может прийти к власти, и почему AI больше похож на нас, людей, чем мы думаем.
Ниже чуть подробнее напишу про оба пункта. Лекция записывалась, и если где-то выложат запись, то я скину (пока я запись не нашла)
Цифровой и аналоговый интеллект. Еще два года назад Хинтон рассказывал, как начал интересоваться идеей построить (или, как он выражается, "вырастить") аналоговый интеллект. Это такой, который неотделим от физического тела (процессора) аналогично тому, как сознание людей неотделимо от конкретного мозга человека. Главным плюсом аналогового интеллекта была бы энергетическая эффективность, а главным минусом — невозможность распараллелить вычисления, и, в частности, обучение. Тейк такой: GPT-4 знает в 10k раз больше, чем любой из нас, и учится этому супербыстро, потому что при обучении мы могли сделать 10k копий одной и той же модели, учить каждую на своем куске данных, а потом смерджить знания (по-простому, мы могли использовать federated learning). Если интеллект аналоговый, то так сделать нельзя, и лучшая альтернатива — knowledge distillation. В качестве вывода Хинтон тут сказал: "Before 2023, I believed that we were a long way from super-intelligence, and making AI models more like the brain would make them more intelligent, but in early 2023 I realised that digital intelligence might actually be a much better form of intelligence than biological intelligence".
Вторая часть презентации, как и в 2023, снова была про риски AI. Общая идея Хинтона сейчас такая: "я не утверждаю, что нас ждет AI-апокалипсис, но в ближайшем будущем нас точно ждет что-то, чего никогда не было, и у нас нет никакого опыта взаимодейства с этим". Надо сказать, по сравнению с 2023 годом позиция стала намного более сдержанной. Такое ощущение, что лекция 2023 года была в тот момент, когда Хинтон преисполнился текущими возможностями LLM и навел у себя в голове паники, а сейчас эта паника спала. Тем не менее, Хинтон все равно считает, что многие люди слишком переоценивают "уникальность" человека и разницу между нами и AI, и это мешает осознать то, насколько AI сейчас уже мощный.
В частности, многие люди считают, что "субъективный опыт" — что-то уникальное, присущее только человеку, и у AI этого никогда не будет. В ответ Хинтон приводит пример, где рассуждение LLM выглядит так же, как и рассуждение человека, у которого был субъективный опыт. Вот этот пример:
Взяли шарик, перед шариком поставили призму, из-за которой наблюдателю кажется, что шарик лежит не в середние стола, а на правом краю. Сделали фото, дали GPT-4, спросили "где шарик". GPT-4 сказал, что справа. Потом ему сказали следующее: "теперь прими во внимание, что перед шариком мы поставили призму, которая искажает картинку". И GPT-4 ответил что-то вроде "а, окей, я понял, у меня был subjective experience того, что шарик справа, потому что призма искажает вид"
Плюс, в тему рисков AI снова было рассуждение о том, какой может быть вероятный сценарий захвата власти AI. Об этом писала в посте 2023 года, повторяться не буду, в этот раз посылы Хинтона были практически такими же. Единственное, в новой лекции к этой теме приводились пара примеров взаимодействия с LLM, которые подкрепляют эти сценарии. В этих сценариях LLM указывали на ее небезопасное поведение (например, пользователь заметил, что LLM скопировала себя на другой сервер), и LLM начинала отвечать стандартное "я не знаю, как это вышло, я всего лишь LLM и не могу копировать себя бла бла". Но если при этом залезть в мыслительный процесс LLM и посмотреть, что там происходило при генерации такого ответа, там будет что-то вроде "кажется, это не очень безопасно — говорить правду, лучше соврать/притвориться"
(пример на последней фотке к посту)
В частности, многие люди считают, что "субъективный опыт" — что-то уникальное, присущее только человеку, и у AI этого никогда не будет. В ответ Хинтон приводит пример, где рассуждение LLM выглядит так же, как и рассуждение человека, у которого был субъективный опыт. Вот этот пример:
Взяли шарик, перед шариком поставили призму, из-за которой наблюдателю кажется, что шарик лежит не в середние стола, а на правом краю. Сделали фото, дали GPT-4, спросили "где шарик". GPT-4 сказал, что справа. Потом ему сказали следующее: "теперь прими во внимание, что перед шариком мы поставили призму, которая искажает картинку". И GPT-4 ответил что-то вроде "а, окей, я понял, у меня был subjective experience того, что шарик справа, потому что призма искажает вид"
Плюс, в тему рисков AI снова было рассуждение о том, какой может быть вероятный сценарий захвата власти AI. Об этом писала в посте 2023 года, повторяться не буду, в этот раз посылы Хинтона были практически такими же. Единственное, в новой лекции к этой теме приводились пара примеров взаимодействия с LLM, которые подкрепляют эти сценарии. В этих сценариях LLM указывали на ее небезопасное поведение (например, пользователь заметил, что LLM скопировала себя на другой сервер), и LLM начинала отвечать стандартное "я не знаю, как это вышло, я всего лишь LLM и не могу копировать себя бла бла". Но если при этом залезть в мыслительный процесс LLM и посмотреть, что там происходило при генерации такого ответа, там будет что-то вроде "кажется, это не очень безопасно — говорить правду, лучше соврать/притвориться"
(пример на последней фотке к посту)
В целом, эта лекция была короче по времени и для более широкой аудитории, чем два года назад в Кемридже. В этот раз Хинтон начал с ооочень простого объяснения того, что такое нейронная сеть и как она обучается, а потом перешел к тому, как внутри нейросети представляются слова и смыслы. Наверное, цель этой части была показать, что LLM выучивают богатые представления слов, которые при проходе через LLM еще и связываются с контекстом, и что вообще LLM очень хороши в "понимании" языка. Но в итоге это вылилось еще и в основательное унижение ученых-лингвистов, которые, по мнению Хинтона, никак не хотели и все еще очень мало хотят верить, что язык — это больше, чем синтаксис и грамматика, и что всякие там нейронки способны язык "понять". Таня @rybolos_channel тоже была на этой лекции и сказала, что это все чушь😅
Ну и последнее: мне кажется, надо сделать книгу шуток от Хинтона, шутки у него конечно топ. Стоит сходить на его лекцию только ради них)
Ну и последнее: мне кажется, надо сделать книгу шуток от Хинтона, шутки у него конечно топ. Стоит сходить на его лекцию только ради них)
Помните, выше писала про программы по AI Safety/Alignment? Они обычно устроены так, что вы в течение какого-то времени под руководством ментора работаете над небольшим рисерч проектом индивидуально или в группе. И потом, если из рисерча получается что-то хорошее, пишете статью на воркшоп или конференцию.
Так вот, в своем рисерче я, как говорила, занимаюсь исследованием внутренних представлений моделей, и, в частности, representation engineering. Вот статья CASteer была как раз про то, как использовать подход representation engineering для контроля генерации диффузионной модели. И во время работы и размышлений над всем этим у меня накопились несколько идей того, что интересно было бы в этой сфере попробовать сделать. Но всем сразу я заняться не могу, и многие из этих идей тянут скорее на небольшой пет-проект, чем на полноценное исследование. Поэтому мне пришла мысль дать эти идеи в качестве итоговых проектов второй части курса DLS: там студенты как раз только что изучили устройство LLM, и, возможно, кому-то было бы интересно покопаться во внутренностях моделей и найти что-то интересное. Благо тема representation engineering еще такая, где редко нужно обучать сложные модели, и большинство экспериментов делаются достаточно быстро, не требуя мощных GPU
Короче, если не взяли на MATS, приходите в DLS в следующем семестре😂
Сейчас проекты в DLS только начались, будут идти до 6 июля. Посмотрим, что в итоге получится, потом напишу сюда пост)
Так вот, в своем рисерче я, как говорила, занимаюсь исследованием внутренних представлений моделей, и, в частности, representation engineering. Вот статья CASteer была как раз про то, как использовать подход representation engineering для контроля генерации диффузионной модели. И во время работы и размышлений над всем этим у меня накопились несколько идей того, что интересно было бы в этой сфере попробовать сделать. Но всем сразу я заняться не могу, и многие из этих идей тянут скорее на небольшой пет-проект, чем на полноценное исследование. Поэтому мне пришла мысль дать эти идеи в качестве итоговых проектов второй части курса DLS: там студенты как раз только что изучили устройство LLM, и, возможно, кому-то было бы интересно покопаться во внутренностях моделей и найти что-то интересное. Благо тема representation engineering еще такая, где редко нужно обучать сложные модели, и большинство экспериментов делаются достаточно быстро, не требуя мощных GPU
Короче, если не взяли на MATS, приходите в DLS в следующем семестре
Сейчас проекты в DLS только начались, будут идти до 6 июля. Посмотрим, что в итоге получится, потом напишу сюда пост)
Please open Telegram to view this post
VIEW IN TELEGRAM
Принесла вам пару гайдов о том, как писать хорошие научные статьи
За ссылки спасибо моему менеджеру из лондонского Хуавея Измаилу (Ismail Elezi), он делился этими ссылками с нами, когда мы писали тексты статей к ICCV и NeurIPS. Эти гайды — не про то, как делать хороший рисерч, а именно как написать научную статью по своему исследованию так, чтобы было понятно, грамотно и убедительно. Даже самая умное и классное исследование легко может получить реджект на конференции, если статья написана так себе, поэтому это очень и очень важная часть работы рисерчера.
Итак, ссылки:
1. Пост на Medium: "Writing a good scientific paper" авторства Michael J. Black. Тут о том, что обязательно должно быть в статье, какими должны быть эксперименты, а также важные моменты, на которые нужно обратить внимание, о каждом из разделов статьи от Title до Supplementary.
2. В этом доке собраны несколько общих важных моментов относительно структуры статьи, стиля и грамматики. А еще даны ссылки на гайд по answering reviewer's comments и additional guidelines for scientific writing
3. Paper writing tips'n'tricks — док, который собрали Измаил и Aljosa Osep. Тут — о том, с чего начинать писать статью, важные моменты по каждому из разделов статьи, какие бывают частые ошибки и что делать, если дедлайн вот-вот, а написано почти ничего. И еще много ссылок на другие материалы по написанию статей в конце дока.
За ссылки спасибо моему менеджеру из лондонского Хуавея Измаилу (Ismail Elezi), он делился этими ссылками с нами, когда мы писали тексты статей к ICCV и NeurIPS. Эти гайды — не про то, как делать хороший рисерч, а именно как написать научную статью по своему исследованию так, чтобы было понятно, грамотно и убедительно. Даже самая умное и классное исследование легко может получить реджект на конференции, если статья написана так себе, поэтому это очень и очень важная часть работы рисерчера.
Итак, ссылки:
1. Пост на Medium: "Writing a good scientific paper" авторства Michael J. Black. Тут о том, что обязательно должно быть в статье, какими должны быть эксперименты, а также важные моменты, на которые нужно обратить внимание, о каждом из разделов статьи от Title до Supplementary.
2. В этом доке собраны несколько общих важных моментов относительно структуры статьи, стиля и грамматики. А еще даны ссылки на гайд по answering reviewer's comments и additional guidelines for scientific writing
3. Paper writing tips'n'tricks — док, который собрали Измаил и Aljosa Osep. Тут — о том, с чего начинать писать статью, важные моменты по каждому из разделов статьи, какие бывают частые ошибки и что делать, если дедлайн вот-вот, а написано почти ничего. И еще много ссылок на другие материалы по написанию статей в конце дока.
В прошлом году рассказывала про масштабное исследование специалистов DS/ML/AI от DevCrowd. В этом году они снова проводят это исследование и снова зовут всех в нем участвовать, поэтому я о нем снова пишу)
Это исследование — масштабный опрос для дата-инженеров, аналитиков, дата-сайентистов, ML-инженеров и их руководителей на следующие темы:
- что входит в обязанности той или иной профессии;
- какие навыки в профессии наиболее важны и каких знаний не хватает;
- сколько зарабатывают специалисты в зависимости от опыта и грейда;
- полезные для развития каналы, курсы и книги;
Проходите опрос (занимает 15 минут), помогайте коллегам составить актуальную картину положения дел в области. Результаты появятся в открытом доступе в конце сентября. Это поможет вам сравнить свои ожидания с рыночными, построить план своего развития, увидеть, как устроена работа над разными проектами у коллег, и просто понять, что происходит с индустрией.
➡️Пройти опрос
⏺️Тут результаты опроса прошлого года
⏺️А тут можно посмотреть другие исследования проекта
Это исследование — масштабный опрос для дата-инженеров, аналитиков, дата-сайентистов, ML-инженеров и их руководителей на следующие темы:
- что входит в обязанности той или иной профессии;
- какие навыки в профессии наиболее важны и каких знаний не хватает;
- сколько зарабатывают специалисты в зависимости от опыта и грейда;
- полезные для развития каналы, курсы и книги;
Проходите опрос (занимает 15 минут), помогайте коллегам составить актуальную картину положения дел в области. Результаты появятся в открытом доступе в конце сентября. Это поможет вам сравнить свои ожидания с рыночными, построить план своего развития, увидеть, как устроена работа над разными проектами у коллег, и просто понять, что происходит с индустрией.
➡️Пройти опрос
⏺️Тут результаты опроса прошлого года
⏺️А тут можно посмотреть другие исследования проекта
Смотрите, что сделали в Стенфорде: STORM — утилита для генерации научных репортов на заданную тему (бесплатно)
Работает очень просто: вы задаете тему (например, "Challenges and open questions in the topic of Uncertainty Estimation"), STORM идет в интернет, находит статьи, код и другие ссылки с информацией по этой теме, и в итоге собирает все в один большой репорт. Репорт во многом похож на survey статью по этой теме, но в более свободном формате: скорее, как очень подробный и тщательно собранный репорт в Notion. Есть ссылки на все источники.
По сути, это такая обертка над LLM, которая позволяет без подбора просптов генерить достаточно точные, достоверные и обстоятельные обзоры. У STORM есть статья и код. В статье описывается, как строилась утилита и приводятся метрики. В частности, пишут, что при моделировании процесса сборки репорта фокусировались на следующих вещах:
- рассмотрение различных точек зрения при исследовании заданной темы (это вот про академию/индустрию и т.п.)
- моделирование бесед, в которых авторы, представляющие разные точки зрения, задают вопросы эксперту по заданной теме. Эксперт при этом основывается на надежных интернет-источниках
- отбор собранной информации для создания плана репорта.
Если нажать на кнопку "See BrainSTORMing Process", там как раз будет видно, что сборка итогового репорта основана на использовании LLM с разными промптами от лица разного типа юзеров (academic/ubdustry/etc).
Ссылки:
- попробовать STORM (он бесплатный. Ну, по крайней мере, пока что)
- статья
- код
P.S. Нашла STORM в посте из Твиттера, и там было написано "STORM writes research papers like a PhD". Но репорты по теме — это не любая PhD статья, так что с таким заявлением не соглашусь, имхо оно вводит в заблуждение
Работает очень просто: вы задаете тему (например, "Challenges and open questions in the topic of Uncertainty Estimation"), STORM идет в интернет, находит статьи, код и другие ссылки с информацией по этой теме, и в итоге собирает все в один большой репорт. Репорт во многом похож на survey статью по этой теме, но в более свободном формате: скорее, как очень подробный и тщательно собранный репорт в Notion. Есть ссылки на все источники.
По сути, это такая обертка над LLM, которая позволяет без подбора просптов генерить достаточно точные, достоверные и обстоятельные обзоры. У STORM есть статья и код. В статье описывается, как строилась утилита и приводятся метрики. В частности, пишут, что при моделировании процесса сборки репорта фокусировались на следующих вещах:
- рассмотрение различных точек зрения при исследовании заданной темы (это вот про академию/индустрию и т.п.)
- моделирование бесед, в которых авторы, представляющие разные точки зрения, задают вопросы эксперту по заданной теме. Эксперт при этом основывается на надежных интернет-источниках
- отбор собранной информации для создания плана репорта.
Если нажать на кнопку "See BrainSTORMing Process", там как раз будет видно, что сборка итогового репорта основана на использовании LLM с разными промптами от лица разного типа юзеров (academic/ubdustry/etc).
Ссылки:
- попробовать STORM (он бесплатный. Ну, по крайней мере, пока что)
- статья
- код
P.S. Нашла STORM в посте из Твиттера, и там было написано "STORM writes research papers like a PhD". Но репорты по теме — это не любая PhD статья, так что с таким заявлением не соглашусь, имхо оно вводит в заблуждение
На почту сегодня пришло внезапное письмо, что мой подкаст Deep Learning Stories внесли в список 100 Best Artificial Intelligence Podcasts 😃
DLStories там под гордым номером 92, даже выше TED Tech, который под номером 95)) (хотя я не знаю, значит ли вообще что-то порядок в этом списке)
Скорее всего, этот список и рассылку авторам подкастов из него сделали в том числе с целью пиара (меня прямо попросили упомянуть об этом у себя в блоге), но, думаю, кто-то реально может найти в этом списке подкасты на интересующие темы из AI. Так что я только рада поделиться, список вот =)
Ну и, раз такое дело, то вот ссылки на подкаст DLStories, если вы вдруг еще не слушали:
- Apple Music
- Yandex Music
- YouTube
- Spotify
- Список выпусков на сайте DLS
DLStories там под гордым номером 92, даже выше TED Tech, который под номером 95)) (хотя я не знаю, значит ли вообще что-то порядок в этом списке)
Скорее всего, этот список и рассылку авторам подкастов из него сделали в том числе с целью пиара (меня прямо попросили упомянуть об этом у себя в блоге), но, думаю, кто-то реально может найти в этом списке подкасты на интересующие темы из AI. Так что я только рада поделиться, список вот =)
Ну и, раз такое дело, то вот ссылки на подкаст DLStories, если вы вдруг еще не слушали:
- Apple Music
- Yandex Music
- YouTube
- Spotify
- Список выпусков на сайте DLS
Please open Telegram to view this post
VIEW IN TELEGRAM