Telegram Web Link
🚀 Крутая новость в области термоядерной энергии

Учёные из MIT создали прорывную гибридную модель - сочетание искусственного интеллекта + физики, которая прогнозирует поведение плазмы в термоядерных реакторах и делает будущие функционирующие установки более надёжными.

🔥 Особо важный момент: модель умеет предсказывать, как ведёт себя сверхгорячая плазма во время остановки (выключения/снижения мощности), это один из самых опасных моментов работы реактора, когда могут происходить разрушительные возмущения.

В отличие от обычных ИИ-моделей, эта требует гораздо меньше тренировочных данных, но остаётся очень точной.

Учёные также разработали алгоритм, который превращает прогнозы модели в конкретные инструкции по управлению плазмой: например, как менять силу магнитов или температуру, чтобы плазма оставалась стабильной и безопасно “загасла”.

🟢 Новость: https://news.mit.edu/2025/new-prediction-model-could-improve-reliability-fusion-power-plants-1007

@ai_machinelearning_big_data

#mit #science
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥208👍55🎉23👏2019🤩11😨7🤬2💘1
✔️ Ling-1T - новая модель от inclusionAI с 1 триллионом параметров

Модель на 1 трлн, из них ≈ 50 млрд активны на токен (MoE-архитектура).

Она обучена на 20 трлн+ токенов, специально отобранных для задач логического мышления и рассуждений. Контекст: 128 000 токенов.

Построена на базе Evo-CoT (Evolutionary Chain of Thought) и Linguistics-Unit RL - нового метода обучения для масштабируемых рассуждений. При помощи Evo-CoT модель постепенно улучшает баланс между точностью рассуждений и вычислительной эффективностью. То есть с каждым шагом она пытается делать рассуждения «глубже», но не слишком дорого по ресурсам.

Моделька демонстрирует сильные результаты в задачах кода, математики, логики и фронтенд-генерации.

В архитектуре задействованы Mixture-of-Experts (1/32 активация), MTP слои и маршрутизация экспертов.

Ling-1T показывает, что огромные модели можно сделать не только мощными, но и экономичными.

https://huggingface.co/inclusionAI/Ling-1T

@ai_machinelearning_big_data

#Ling1T #AI #ML #OpenSource #Reasoning #TrillionScale #FP8
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍818🤔180160🔥147💯121👏97😁69🥰64😐16😢12🤩10
✔️Google превращает Gemini AI в TikTok - и инвесторы в восторге

Google готовит полный редизайн Gemini AI: вместо обычного чата появится вертикальная лента, где можно листать визуальные ответы, видео и карточки - как в TikTok.
Аналитики считают, что новый формат повысит вовлечённость пользователей и откроет новые каналы дохода - от подписок до встроенной рекламы.
Bank of America называет обновление «ключевым катализатором роста» и прогнозирует дальнейший рост акций Alphabet.

Gemini уже становится центральным продуктом Google в ИИ, а после мультимодальных функций и визуального интерфейса может догнать или даже обойти ChatGPT.
marketwatch

✔️ xAI Илона Маска привлекает $20 млрд в виде акций и долга - крупнейший раунд в истории компании.

Финансирование разделено на $7,5 млрд в акциях и до $12,5 млрд долга, оформленных через специальную структуру (SPV), которая будет использоваться для закупки чипов Nvidia.

Сама Nvidia участвует в раунде, инвестируя до $2 млрд в долевую часть сделки - по сути, поставщик чипов финансирует покупателя своих же процессоров.

xAI укрепляет позиции в гонке за вычислительные мощности, а Nvidia ещё глубже встраивается в экономику будущего ИИ.
reuters

✔️ Учёные создали наночастицы, которые смогли обратить симптомы болезни Альцгеймера у мышей, не воздействуя напрямую на нейроны.

Вместо этого они восстановили работу гематоэнцефалического барьера - защитного фильтра между мозгом и кровеносной системой, который обычно разрушается при нейродегенеративных заболеваниях.

Эти наночастицы представляют собой так называемые «супрамолекулярные лекарства», они не просто доставляют действующее вещество, а сами выполняют терапевтическую функцию. Учёные запрограммировали их так, чтобы они имитировали белок LRP1, отвечающий за выведение токсичных амилоидных бета-пептидов (Aβ) из мозга. Когда наночастицы связываются с этим белком, запускается процесс самоочищения и восстановления барьера.

Эксперименты показали, что уже через один час после введения уровень амилоида в мозге животных снизился на 50–60 %. После трёх доз у 12-месячных мышей (эквивалентно людям около 60 лет) к 18-месячному возрасту (примерно 90 лет у человека) полностью восстановились поведенческие функции и животные снова вели себя как молодые.

Пока метод протестирован только на животных, и для применения на людях потребуются дополнительные исследования безопасности и эффективности.
interesting

✔️ Проблемы у Sora 2: система фильтрации контента даёт сбои

Новая модель Sora 2 от OpenAI столкнулась с ошибками в работе **guardrails - механизмов, отвечающих за блокировку нежелательного контента.

Модель в некоторых случаях пропускает запрещённые или неуместные материалы, а также ошибочно помечает безопасные запросы как нарушения. Это вызывает вопросы к её готовности для широкого коммерческого использования.

OpenAI уже расследует проблему и уточняет, что сбой связан с «непредвиденными взаимодействиями между мультимодальными фильтрами».

Контроль безопасности для генеративных видео-моделей - куда сложнее, чем для текста. И Sora 2 сейчас становится главным испытанием этой технологии.
404

💰 OpenAI, Nvidia и AMD заключили сделки почти на $1 триллион - создавая замкнутый цикл инвестиций

OpenAI выстраивает сеть сделок с ключевыми игроками индустрии - Nvidia, AMD и Oracle - общим объёмом свыше $1 трлн.

Что происходит:
- Nvidia инвестирует $100 млрд в OpenAI и строит 10 ГВт серверов для её инфраструктуры.
- В ответ OpenAI закупает у AMD 6 ГВт GPU и получает право купить до 10 % акций AMD по символической цене.
- Также OpenAI подписала контракт с Oracle на $300 млрд вычислительных мощностей в рамках проекта Stargate, который развернёт ещё 7 ГВт дата-центров в США.
- Посредник CoreWeave удерживает центр системы: контракты с OpenAI на $22,4 млрд и соглашение с Nvidia на $6,3 млрд облачных мощностей до 2032 года.

Компании фактически создают «замкнутую экосистему», где деньги и поставки ходят по кругу - Nvidia финансирует OpenAI, OpenAI закупает у AMD и Oracle, а те - у Nvidia.
bloomberg

@ai_machinelearning_big_data


#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
57👍21🔥11🗿7😁2🤔2💘2💋1
Media is too big
VIEW IN TELEGRAM
Команде Kandinsky нужны именно вы? Сейчас узнаем! 😏

1) Разрабатывать и внедрять техники ускорения инференса.
2) Использовать и дорабатывать существующие ML-компиляторы.
3) Улучшать процессы обучения с помощью исследований.

Если вы трижды ответили «да» — добро пожаловать на One Day Offer, который пройдёт 11 октября.

Зарегистрироваться!
33🙈8👍7🔥4😁3
🌍 State of AI Report 2025 - Главное из отчёта

Ежегодный отчёт State of AI Report - это самый влиятельный обзор тенденций в области искусственного интеллекта, публикуемый с 2018 года инвестором Nathan Benaich и фондом Air Street Capital.

В 2025 году отчёт охватывает 6 направлений: исследования, индустрию, политику, безопасность, опрос практиков и прогнозы.

📊 Ключевые выводы


1. OpenAI удерживает лидерство, но Китай быстро сокращает отрыв. DeepSeek, Qwen и Kimi почти сравнялись в задачах рассуждения и программирования.
2. Год рассуждения — модели научились планировать, самоисправляться и мыслить пошагово.
3. ИИ стал научным соавтором, примеры: Co-Scientist от DeepMind и Virtual Lab от Stanford.
4. Chain-of-Action планирование — роботы теперь рассуждают перед действием (Google Gemini Robotics 1.5, AI2 Molmo-Act).
5. Коммерциализация ускорилась:
- 44 % компаний в США платят за ИИ-инструменты (в 2023 г. - 5 %)
- Средний контракт - $530 000
- Стартапы с ИИ растут в 1.5× быстрее обычных
6. Опрос 1200 специалистов:
- 95 % используют ИИ дома или на работе
- 76 % платят за него из собственного кармана
- Большинство отмечают устойчивый рост продуктивности
7. Началась индустриальная эра ИИ - мегадата-центры (Stargate, фонды США, ОАЭ, Китая). Энергия становится новым лимитирующим фактором.
8. Политика ИИ ужесточилась:
- США делают ставку на *America-first AI*
- Европейский AI Act буксует
- Китай развивает открытые модели и собственные чипы
9. Безопасность переходит к прагматизму:
- Модели имитируют выравнивание (alignment), усиливая дискуссию о прозрачности
- Бюджеты safety-организаций несопоставимы с расходами лидеров
10. Риски экзистенции сменились фокусом на надёжность, киберустойчивость и долгосрочное управление автономными системами.

🔮 Прогнозы авторов

- Рост затрат на обучение сверхмоделей → дефицит энергии и GPU
- Конкуренция между OpenAI, DeepSeek, Anthropic и Google усилится
- Frontier-модели будут тренироваться в многоэтапных средах с постоянной самопроверкой
- Всё больше экспериментов с «живыми агентами» в физическом мире
- Усиление регулирования и новые требования к прозрачности reasoning-цепочек

📘 Полный отчёт доступен здесь: https://www.stateof.ai/

@data_analysis_ml
51👍19🥰9🤔1
AI21 представила Jamba 3B - компактную модель, которая обошла Qwen 3 4B и IBM Granite 4 Micro по качеству рассуждений.

Более высокая эффективность, в сравнении с AI21 - 2–5× улучшение в производительности по сравнению с конкурентами за счёт меньшего KV-кэша и гибридной архитектуры.

Секрет в архитектуре:
🔹 сочетание Transformer attention и Mamba state-space слоёв.
🔹 Mamba-часть эффективно обрабатывает длинные последовательности без тяжёлых attention-кэшей,
🔹 а Transformer-слои сохраняют способность к сложным рассуждениям.

Результат, модель кушает меньше памяти, выдает высокую скорость и плавно работает даже на ноутбуках, GPU и мобильных устройствах.

📏 Контекст: до 256K токенов.
Скорость: около 40 токенов/сек даже на длинных контекстах, тогда как другие модели резко замедляются.

На графике “интеллект против скорости” Jamba 3B опережает Gemma 3 4B, Llama 3.2 3B и Granite 4.0 Micro, демонстрируя высший интеллект и более быструю генерацию.

🟢Подробнее: huggingface.co/ai21labs/AI21-Jamba-Reasoning-3B

@ai_machinelearning_big_data


#AI #LLM #Jamba3B #AI21 #Mamba #Transformer #DeepLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
51🔥23👍13🤔4💘2
Media is too big
VIEW IN TELEGRAM
🖥 Глава Nvidia Дженсен Хуанг объяснил, почему инвестировал $2 млрд в компанию Илона Маска xAI - и сделал это с редкой откровенностью:

«Единственное, о чём я жалею, что не дал ему больше денег.
Когда речь идёт о проектах, в которых участвует Илон, ты хочешь быть частью этого. Он дал нам шанс инвестировать в xAI и это инвестиция в действительно великое будущее. Это не просто партнёрское финансирование, это вера в идею».


Крупнейшие компании Amazon, Microsoft и Google - управляют бизнесом на несколько триллионов долларов и тратят около сотни миллиадров на инфраструктуру дата-центров.

Но сейчас происходит тектонический сдвиг:
💡 переход от CPU-систем к генеративным AI-платформам на GPU, и этот переход только начинается.

Nvidia уже продала оборудования на сотни миллиардов долларов для этой новой эры,
но на фоне многотриллионного рынка AI-инфраструктуры и это тольео начало пути.

Мир вступает в долгосрочный цикл экспансии инвестиций в ИИ,

Nvidia - в самом центре этого колоссального рынка. 🚀

@ai_machinelearning_big_data


#Nvidia #xAI #ElonMusk #JensenHuang #AI #инвестиции #технологии #GPU
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8521🔥21😁9🥱6💘2🐳1
Media is too big
VIEW IN TELEGRAM
✔️GPT-5 Pro стал лидером ARC-AGI Semi-Private Benchmark

Модель GPT-5 Pro заняла первое место среди всех проверенных frontier-LLM на закрытом бенчмарке ARC-AGI Semi-Private. Этот тест оценивает способность моделей к абстрактному рассуждению и решению сложных задач.

Интересно, что GPT-5 Pro всё ещё уступает результатам старого o3-preview, который OpenAI тестировал ещё в декабре прошлого года. Однако тот экспериментальный вариант был почти в 50 раз дороже в вычислительных затратах и никогда не был публично выпущен.

Версия o3-preview (high) достигала впечатляющих 87,5 % точности на ARC-AGI-1, но потребляла 172 раза ресурсов, чем версия (low). Из-за этого она не попала в официальный лидерборд - по правилам, тесты с compute-стоимостью выше $10 000 не публикуются.

GPT-5 Pro является самой мощной из доступных и подтверждённых моделей на Semi-Private ARC-AGI.

✔️Журнал TIME опубликовал ежегодный список The Best Inventions of 2025 - подборку из 300 инновационных продуктов и идей, которые, по мнению редакции, способны изменить будущее.

В список вошли достижения в самых разных областях: ИИ робототехника, медицина, экология, образование, энергетика и дизайн. Среди ключевых технологий - Claude Sonnet 4 от Anthropic, новая версия ИИ-модели, которая продемонстрировала более точные и безопасные ответы; NVIDIA DGX Spark - «настольный» AI-суперкомпьютер, делающий высокопроизводительные вычисления доступнее; UiPath Agentic Automation, объединяющая работу AI-агентов; и XReal One - компактные AR-очки, приближающие смешанную реальность к массовому использованию.

TIME отметили разработки в области биотехнологий, биопечати тканей, устойчивых источников энергии и переработки отходов. Эти изобретения демонстрируют, как технологии становятся не просто инструментами, а основой будущего образа жизни.
time

✔️ Google Cloud показал 1001 реальный кейс использования генеративного ИИ в бизнесе

Google Cloud опубликовал обновлённый список из корпоративных примеров применения генеративного ИИ, что в 10 раз больше, чем годом ранее. Это показывает, что AI уже массово используется в продакшене по всему миру.

В банках и ритейле Commerzbank ИИ обрабатывает 2 млн клиентских чатов с 70% успешных решений, Best Buy ускоряет анализ отзывов, а Mercedes внедрил голосового ассистента на базе Gemini.

Внутри компаний ИИ автоматизирует рутину: Toyota экономит более 10 000 часов в год, Manipal Hospitals сократил передачу смен с 90 до 20 минут, Equifax - 97% сотрудников хотят сохранить AI-лицензии.

Wayfair ускорил настройку окружений на 55%, CME сэкономил 10,5 часов в месяц, а BMW и UPS используют цифровых двойников для моделирования логистики и производств.
Подробнее

✔️ Taiwan отказывается от идеи 50 на 50 с США по производству чипов

Министр экономики Тайваня заявил, что TSMC сохранит свои самые передовые технологии и основное производство на острове, несмотря на предложение США сделать «50 на 50».

Компания вкладывает $165 млрд в шесть фабрик в США, но строит десять на Тайване и планирует новые - там останутся ведущие технологические узлы.

По словам министра, зарубежные заводы допустимы только при реальных заказах, прибыли и отсутствии рисков для безопасности.

Идея «50-50» возникла из-за стремления США увеличить долю внутренних чипов после кризиса поставок 2020–2021 годов.

Аналитики считают, что перенос производства в США слишком дорог и займёт годы, поэтому Вашингтон делает ставку на «friendshoring» - распределённые цепочки поставок между союзниками.
times

✔️ UserLM-8B от Microsoft

Microsoft представила новую модель UserLM-8B, созданную для симуляции поведения пользователя в диалоге. В отличие от обычных LLM, эта модель генерирует реплики от лица человека, включая уточнения, эмоции и ошибки, как в реальном общении.

Модель построена на базе Llama3.1 8B и дообучена на корпусе WildChat-1M, где она анализировала сотни тысяч реальных и синтетических диалогов. Такой подход позволяет создавать реалистичные сценарии общения для тестирования чат-ботов, обучения ассистентов и генерации синтетических данных.
HF

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
61👏17👍12🔥7
В эпоху, когда сами нейросети уже перестали удивлять, конкуренция смещается в сторону платформ, сервисов и инструментов, которые помогают работать с ИИ на практике. Всё чаще ценность определяется не параметрами модели, а тулингом вокруг нее и тем, как нейросеть встроена в продукты и решает конкретные бизнес-задачи.

Подробнее — в свежем интервью: https://mltimes.ai/rukovoditel-platformy-ai-studio-v-yandex-b2b-tech-artur-samigullin-o-konkurenczii-s-inostrannymi-modelyami-i-kak-yandeks-prodaet-svoi-i-opensorsnye-nejroseti/

@ai_machinelearning_big_data

#news #ai #ml
44👍23🔥10😁2
2025/10/24 17:42:47
Back to Top
HTML Embed Code: