Telegram Web Link
🎓 Хинтон и Хопфилд получили Нобелевскую премию по физике за создание искусственных нейронных сетей

Нобелевскую премию по физике 2024 года Джону Дж. Хопфилду и Джеффри Э. Хинтону «за основополагающие открытия и изобретения, которые позволяют осуществлять машинное обучение с использованием искусственных нейронных сетей».
52🤯37🔥12👍5🥴3🍌3😁2🤩1
🎓 Уже вторая Нобелевская премия за AI — на этот раз по химии. Половина премии за предсказание структуры белков» нейросетью Alpha Fold (от DeepMind)

Нобелевскую премию по химии 2024 года: одну половину — Дэвиду Бейкеру «за вычислительный дизайн белков», а другую половину — совместно Демису Хассабису и Джону М. Джамперу «за предсказание структуры белков».
51👍10🤯3🔥2🏆1
🔥 Сегодня Mistral AI представила новые модели — Ministral 3B и Ministral 8B

Ministral 3B и Ministral 8B, разработанные для on-device вычислений. Эти модели предлагают превосходную производительность в задачах reasoning, commonsense и function-calling, поддерживая контекст до 128k токенов.

⚙️ Ministral 3B разработана для сверхэффективного использования на устройствах с ограниченными ресурсами (e.g.: смартфоны). Ministral 8B предлагает больше возможностей для сложных задач. Обе модели поддерживают до 128k контекста и используют передовые методы pruning и quantization для снижения нагрузки на железо.

Бенчмарки показывают неплохой буст в сравнение с существующими Llama 3.1 / 3.2 и Gemma 2 моделями.


🤖 Ministral 8B: ссылка на модель
👍336🔥2🏆1👾1
Новая диффузионная модель от Nvidia: Sana

Основные особенности:

— DC-AE энкрдер, (если интересно вот ссылка) который понижает в 32 раза, вместо привычных 8ми для vqVAE, без сильных потерь

— Линейный DiT: по сути ViT, где фьюз происходит не через аттеншен, а через марицу рангом d << n (где, n это количество image token’ов). Подробнее про метод у Яныка на ютубе. Имхо это не аттеншн, но называйте как хотите.

— Вместо T5 взяли small LLM (decoder only), не прошло и 2 лет…

— Кастомный сэмплер: Flow-DPM-Solver

Обещают может и не лучшее качество, но супер быструю скорость и резолюшн 4096х4096 (благодаря DC-AE).

💻 Code (будет тут)
📝 paper
😈 demo на градио

p.s.: погененрил в демо, 1024х1024 работает норм, но пишет с ошибками.
13👍8🔥4🤬1
Состоялся релиз Stable Diffusion 3.5 8B Large

https://huggingface.co/stabilityai/stable-diffusion-3.5-large
16👍4👀3💊1
This media is not supported in your browser
VIEW IN TELEGRAM
📍 CoTracker3 — новый подход к трекингу точек

Модель команды Meta AI и Visual Geometry Group из Оксфорда обучали на реальных видео без аннотаций, используя псевдоразметку.

Особенности CoTracker3:
— Обучение на реальных видео в semi-supervised-режиме.
— Упрощённая архитектура требует 1000 раз меньший датасет без потери качества.
— Поддержка трекинга через окклюзии с другими объектами.

Результаты:
Модель значительно превосходит предыдущие трекеры (например, BootsTAPIR и LocoTrack) в задачах с обширной окклюзией и более стабильна. CoTracker3 демонстрирует высокую точность на стандартных бенчмарках. Из ограничений выделю трудности с трекингом на поверхностях без характерных особенностей, таких как небо или вода.

📄 paper
🤗 demo
💻 code
🔥203👍2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 OpenAI выкатили ChatGPT Search

подробнее тут
201
🕊3911🤔6💊4💅3👎2🤬2😢21🔥1
Стрим от OpenAI, День 2

Напоминаю, что вчера открыли доступ к полноценной o1, и представили новую pro подписку. Что было:

— Файнтюн o1 модели (позволяют обучать типу рассуждений, что полезно в узкоспециализированных доменах: право, генетика, etc)

👉 https://youtu.be/fMJMhBFa_Gc
11👌1
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
По Sora утекло новое видео, говорят показывают v2

* 1-минутные видео на выходе
* текст в видео
* текст+изображение в видео
* текст+видео в видео

Не долго мы жили без cam-rip в АИ видео ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29👍83😱3
Microsoft AI представили Phi-4 — Small Language Model 14 млрд

Так, результаты сопоставимы с гораздо более крупными моделями, такими как GPT-4 и Llama-3.

Ключевые особенности Phi-4:
Synthetic Data Generation: Используются подходы вроде chain-of-thought prompting для создания данных, стимулирующих системное мышление, завещание у нотариуса, кофе душистый
Post-Training Refinement: Direct Preference Optimization и rejection sampling для улучшения логической согласованности и точности ответов.
Extended Context Length: Увеличенная длина контекста до 16K токенов для сложных задач с длинными цепочками рассуждений.

Результаты:
GPQA: 56.1 (лучше GPT-4o с 40.9 и Llama-3 с 49.1).
MATH: 80.4

📝 Phi-4 Технический Репорт
👍23🔥116❤‍🔥3
З Новим роком! שנה טובה С Новым годом! 🎄
118🥰16🎉14❤‍🔥10🥴7💊4👍3🕊2👾1
2025/07/13 22:04:12
Back to Top
HTML Embed Code: