Telegram Web Link
Forwarded from Valentin Malykh
уважаемые коллеги, мы приглашаем вас на следующий семинар, который пройдет в корпусе ВШЭ на Покровском бульваре 16 ноября, в субботу в 15:00; выступать будут: Михаил Галкин расскажет то, что не смог рассказать про knowledge graphs на AI Journey, Дмитрий Пузырев расскажет про векторные представления Пуанкаре и Андрей Бут поделится свежими впечатлениями от поездки на EMNLP
https://sites.google.com/view/huawei-hse-nlp-seminar
ВНИМАНИЕ: чтобы пройти в корпус ВШЭ, нужно зарегистрироваться по ссылке https://forms.gle/mJqZ97w79Spbw6Qz8
ну и вишенка на торте 🍰: мы выложили видео с прошлого семинара! https://www.youtube.com/channel/UCN_Um4u-7F_DkNt2N1824UQ/ как это принято, “лайк, подписка и колокольчик”
Друзья, из-за накладок с пропускной системой Вышки мы будем вынуждены закрыть форму для записи завтра, 15 ноября, в 9:00 утра по Москве. Если вы хотите прийти на семинар в субботу (и ещё не регистрировались), то нужно успеть записаться — иначе мы попросту не сможем провести вас через пост охраны.

Спасибо за понимание 🦃
исследовано pinned «уважаемые коллеги, мы приглашаем вас на следующий семинар, который пройдет в корпусе ВШЭ на Покровском бульваре 16 ноября, в субботу в 15:00; выступать будут: Михаил Галкин расскажет то, что не смог рассказать про knowledge graphs на AI Journey, Дмитрий Пузырев…»
Наш семинар закончился, спасибо всем, кто пришёл 🐊 На следующей неделе на сайте появятся слайды, а до конца ноября постараемся выложить видео на ютуб канал https://www.youtube.com/channel/UCN_Um4u-7F_DkNt2N1824UQ

Скорее всего последние два семинара в этом году пройдут в декабре, все объявления появятся в этом канале.
Кстати, в декабре мы планируем провести ещё один большой совместный семинар с Huawei. Если вам есть, что рассказать, и вы хотите выступить с докладом на семинаре, то заполняйте форму https://forms.gle/dLamLLvpCi4Zwx5v7 (будет открыта до конца ноября), и мы с вами свяжемся 🐋
Мы смонтировали и выложили первое видео с прошедшего семинара, организованного совместно с Huawei: рассказ Андрея Бута о самых интересных статьях с недавно прошедшей в Гонконге конференции EMNLP 2019: https://www.youtube.com/channel/UCN_Um4u-7F_DkNt2N1824UQ

Видео с остальными двумя докладами, посвящёнными Poincare Embeddings и Knowledge Graphs, мы планируем выложить на выходных. Подписывайтесь на наш ютуб канал, чтобы ничего не пропустить 🐇
Привет! Немного с опозданием, но всё же анонсируем два завершающих этот год семинара 🐁

18 декабря (следующая среда)

Ближайший семинар снова будет проведён совместно с лабораторией Speech & Language Huawei. Семинар состоится по адресу Ленинградский проспект 36. ст. 11 (метро Динамо), в 19:00. На семинаре будет три доклада:

🎩 Павел Браславский (ВШЭ СПб / УрФУ / JetBrains Research) расскажет про автоматический анализ и генерацию юмора с обзорным докладом "LOL NLP: an overview of computational humor".
🕶 Михаил Кудинов (Huawei Research) проведёт краткий ликбез по технологиям генерации речи (Text-to-Speech) .
🌟 Арина Агеева (Сбербанк) поделится опытом по автоматической категоризации резюме при помощи BigARTM.

24 декабря (вторник 🎄)

Последний в этом году семинар пройдёт уже на привычной площадке Вышки по адресу Дурасовский переулок 1, аудитория R205 (корпус на Покровке), в 19:00.

В качестве рождественского подарка Лаборатория вычислительной прагматики Вышки привозит из Гамбурга исследовательницу Özge Sevgili Ergüven с докладом "Neural entity linking using graph embedding" 🍕 Будет много эмбеддингов на графах и всякого такого!

Регистрация

Теперь у нас одна форма сразу на два семинара:

https://forms.gle/u5Ur3YmjxzwypY2h7

Обратите внимание, что ФИО писать нужно полностью — иначе есть риск, что охрана не сможет вас пропустить. Не забудьте паспорт! 🙈

Регистрация (на оба семинара!) закроется 18.12 в 12:00!

Чуть больше информации (аннотации докладов и всё такое) скоро появится у нас на сайте:

https://sites.google.com/view/nlp-seminar/main

По всем вопросам можно писать в чатик семинаров @nlp_spb.

Запись скорее всего будет и появится на нашем ютуб канале (ссылка в описании).

П Р И Х О Д И Т Е !
исследовано pinned «Привет! Немного с опозданием, но всё же анонсируем два завершающих этот год семинара 🐁 18 декабря (следующая среда) Ближайший семинар снова будет проведён совместно с лабораторией Speech & Language Huawei. Семинар состоится по адресу Ленинградский проспект…»
Kind reminder: последний в этом году семинар уже завтра, не пропустите — специально привозим из Гамбурга приглашённого спикера. 19:00, Вышка на Покровке, всех ждём!

А видео с нашего последнего семинара уже почти готовы, и к концу недели появятся на нашем ютуб канале. Если подпишетесь, то сможете увидеть видеозаписи докладов самыми первыми🐎

https://www.youtube.com/watch?v=dsZ0cwPgn1g
По техническим причинам переносим семинар в аудиторию R204 (соседняя) и немного задерживаемся. Начнём в 19:15.
Приглашаем всех принять участие в соревновании RuREBus на конференции "Диалог 2020".

Соревнование включает в себя 3 задачи:
1. NER
2. Relation extraction с уже размеченными сущностями
3. End-to-end relation extraction на plain тексте.

Особенность дорожки в том, что в дополнение к train части будет выдана большая коллекция неразмеченных текстов из того же домена. Также датасет проектировался как приближенный к реальной бизнесс-задаче, поэтому типов сущностей и отношений довольно много и они нестандартны.

Подробности можно прочитать в репозитории:
https://github.com/dialogue-evaluation/RuREBus

Официальная страничка на "Диалоге":
http://www.dialog-21.ru/evaluation/

Тг чатик соревнования:
https://www.tg-me.com/joinchat-GH1hLBH6dv8tTviF-dBFLA
Всем привет! Пришло время возобновить семинар. Приглашаем вас на следующую встречу, которая состоится 13 февраля, в четверг, в 19-00.

Emergence of language in games

Екатерина Артемова (НУЛ ММВП ВШЭ) // Ekaterina Artemova (MMCP Lab, HSE)

This talk will provide an overview of recent works in emergent communications. It is assumed that artificial agents are capable of developing language through playing various co-operative games. In this type of games agents need to collaborate to perform some task, such as to guess an object or a word or to find a path. If a game starts from a tabula rasa setup, agents need to communicate and thus develop their own language. We will discuss several recent papers which model different types of games and communications as well as investigate the inner representations of the agents.


Когда: четверг, 13.02 , 19-00, аудитория R408, ссылка на регистрацию: https://cs.hse.ru/ai/computational-pragmatics/announcements/341051722.html?__t=5192178&_r=31281581338286.87077&__r=OK

Форма регистрации закроется в четверг, в 11 дня!

По всем вопросам можно писать в чатик семинаров @nlp_spb.
исследовано pinned «Всем привет! Пришло время возобновить семинар. Приглашаем вас на следующую встречу, которая состоится 13 февраля, в четверг, в 19-00. Emergence of language in games Екатерина Артемова (НУЛ ММВП ВШЭ) // Ekaterina Artemova (MMCP Lab, HSE) This talk will…»
Всем привет! До 13 марта продолжается набор в аспирантскую школу по компьютерным наукам ВШЭ. Мы, как начинающая исследовательская группа по NLP, готовы принять 1-2 аспирантов. Если вам интересна исследовательская работа и вы готовы к поступлению в аспирантуру, пишите Кате Артемовой (тлг: @eartemova, почта: [email protected]) .

Ссылка на аспирантскую школу: https://aspirantura.hse.ru/cs/news/323871305.html

Страница группы: https://cs.hse.ru/ai/computational-pragmatics/
И опять всем привет! Приглашаем вас на следующий семинар, которая состоится 20 февраля, в четверг, в 19-00.


Доклад будет посвящен методам, которыми можно "внедрить" априорные знания в хорошо известные трансформеры. Для этого часто используются некоторые заранее построенные системы знаний (они же Knowledge Bases или KB), чью структуру entity (сущностей) мы и будем пытаться внедрять в модели.
В своем выступлении я планирую успеть рассказать про статьи:
1. ERNIE: Enhanced Language Representation with Informative Entities
https://arxiv.org/pdf/1905.07129.pdf
2. ERNIE: Enhanced Representation through Knowledge Integration https://arxiv.org/pdf/1904.09223.pdf
3. KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation https://arxiv.org/pdf/1911.06136.pdf
4. Knowledge Enhanced Contextual Word Representations (aka KnowBERT) https://arxiv.org/pdf/1909.04164.pdf
Данил Карпушкин, Сбербанк ИИ лаборатория

Семинар состоится 20.02.2020, 19.00, ауд. R206, Покровский бульвар, 11.

Форма регистрации: https://cs.hse.ru/ai/computational-pragmatics/announcements/342958630.html
Ищем ассистентов для онлайн курса ФКН «Анализ текстовых данных».

В задачи ассистентов на этапе разработки курса входит:

- помощь преподавателям в оформлении презентаций (здесь важно быть скрупулёзным и обладать базовыми навыками создания презентаций)
- осмотр монтажей видеолекций и внесение замечаний по проблемам монтажа
- настройка оболочки курса на платформе: создать недели, уроки, разместить видео/задания/описания в соответствующие блоки

На этапе сопровождения:

- Сопровождение курса после его старта: ответы на форуме, решение технических проблем слушателей.

Если вам интересно - пишите в личные сообщения @eartemova :)
Всем привет!

Приглашаем на семинар НУЛ Моделей и методов вычислительной прагматики 12.03.2020, 19.00, ауд. R208

Non-Autoregressive Island in Autoregressive World (Неавторегрессионные языковые модели)
12 марта 2020, в четверг состоится заседания семинара Научно-учебной лаборатории моделей и методов вычислительной прагматики Департамента анализа данных и искусственного интеллекта.
Тема: "Non-Autoregressive Island in Autoregressive World" (Неавторегрессионные языковые модели)
Докладчик: Михаил Архипов, МФТИ, Лаборатория Нейронных Систем и Глубокого Обучения, DeepPavlov // Mikhail Arkhipov, MIPT, DeepPavlov.

The vast majority of current state-of-the-art models rely on autoregressive inference for modeling sequences. While showing top quality metrics this approach has several intrinsic drawbacks such as sequential inference and exposure bias. Despite the struggles* of the research community current parallel approaches show lower quality being in particular cases an order of magnitude faster. In this talk, we will review approaches to parallel inference and discuss recent papers devoted to the subject.
*an approximate list of struggles:
- Non-Autoregressive Neural Machine Translation
- Noisy parallel approximate decoding for conditional recurrent language model
- Fast Decoding in Sequence Models Using Discrete Latent Variables
- On the Discrepancy between Density Estimation and Sequence Generation
- Mask-Predict: Parallel Decoding of Conditional Masked Language Models


Ссылка на регистрацию (и на статьи, которые будут обсуждаться): https://cs.hse.ru/ai/computational-pragmatics/announcements/346764311.html?_r=243881583416779.59275&__t=5243815&__r=OK
Для тех, кто немного запутался, уточняем: семинар будет завтра, как всегда, у нас на Покровском бульваре, 11. На входе вам могут измерить температуру – ну вы понимаете :)
2025/07/10 11:29:23
Back to Top
HTML Embed Code: