Deutsche Bank+ Galaxy Digital и Flow Traders создают евро стейблкоин
Deutsche Bank через свое подразделение по управлению активами DWS, совместно с Galaxy Digital и Flow Traders, создали СП под названием AllUnity для выпуска регулируемого стейблкоина, привязанного к евро - EURAU.
Сегодня AllUnity официально получила лицензию на работу от регулятора, что подтверждает ее статус регулируемого эмитента стейблкоина.
Стейблкоин EURAU, будет использоваться как институциональными, так и частными клиентами для расчетов в блокчейн-сетях.
Помимо AllUnity, сам Deutsche Bank собирается выпустить собственные токенизированные депозиты и стейблкоины.
Deutsche Bank через свое подразделение по управлению активами DWS, совместно с Galaxy Digital и Flow Traders, создали СП под названием AllUnity для выпуска регулируемого стейблкоина, привязанного к евро - EURAU.
Сегодня AllUnity официально получила лицензию на работу от регулятора, что подтверждает ее статус регулируемого эмитента стейблкоина.
Стейблкоин EURAU, будет использоваться как институциональными, так и частными клиентами для расчетов в блокчейн-сетях.
Помимо AllUnity, сам Deutsche Bank собирается выпустить собственные токенизированные депозиты и стейблкоины.
Bloomberg.com
DWS, Flow Traders and Galaxy Are Forming a Firm to Issue an Euro Stablecoin
Deutsche Bank’s DWS Group, Dutch market maker Flow Traders Ltd. and crypto fund manager Galaxy Digital Holdings Ltd. are planning to form a company to issue an euro-denominated stablecoin, with the goal of driving more mainstream adoption of tokenized assets.
Андрей Карпатый, Nvidia и Meta о будущем ИИ-агентов.
Недавно вышли 2 интересные работы об агентных системах ИИ, которые дают разные перспективы на их развитие.
Первая работа от NVIDIA и Georgia Tech утверждает, что будущее агентного ИИ за малыми языковыми моделями (SLMs). Основная идея - для большинства повторяющихся специализированных задач огромные модели избыточны. SLMs, которые помещаются на обычный компьютер, могут эффективнее справляться с рутинными операциями, экономя ресурсы и деньги.
Вторая работа от Meta* проверяет, насколько хорошо современные ИИ могут воспроизводить научные результаты. Исследователи создали бенчмарк на основе соревнования по ускорению обучения GPT-2, где сообщество сократило время с 45 до 3 минут.
В результате даже лучшие модели (o3-mini, Claude 3.7, Gemini-2.5-Pro, DeepSeek-R1) восстанавливают менее половины улучшений, даже когда им дают подробные инструкции.
Исследователи выявили несколько ключевых проблем:
- Агенты часто не могут правильно реализовать даже описанные изменения
- Сложности с пониманием и применением новых техник
- Проблемы с отладкой собственного кода
- Трудности с оптимизацией производительности.
Получается , если большие модели не справляются с воспроизведением кода, как могут справиться малые?
Ответ в типах задач. NVIDIA говорит о простых повторяющихся операциях, а Meta тестирует сложное научное программирование с отладкой и оптимизацией. Это разные миры сложности.
Что это значит для нас?
1. Специализация работает, узкие модели для узких задач могут быть эффективнее универсальных
2. Автономность далека, даже с подробными инструкциями ИИ пока не может надёжно программировать
3. Будущее гибридное, вероятно, увидим системы из множества специализированных моделей разного размера.
Эти работы показывают, что путь к полноценным ИИ-агентам будет постепенным. Экономическая оптимизация через SLMs имеет смысл, но не стоит ожидать прорывов в сложных творческих задачах.
Интересный комментарий от Андрея Карпатого, он отмечает, что рекурсивное самоулучшение ИИ — это не внезапный скачок, а процесс, который уже идёт. От IDE до GitHub Copilot — мы постепенно автоматизируем всё больше.
При этом Карпатый напоминает: nanoGPT — это всего 750 строк учебного кода, а реальные системы в сотни раз сложнее.
Так что обе статьи правы - специализация неизбежна, но до автономных ИИ-исследователей ещё далеко.
*запрещенная в России организация.
Недавно вышли 2 интересные работы об агентных системах ИИ, которые дают разные перспективы на их развитие.
Первая работа от NVIDIA и Georgia Tech утверждает, что будущее агентного ИИ за малыми языковыми моделями (SLMs). Основная идея - для большинства повторяющихся специализированных задач огромные модели избыточны. SLMs, которые помещаются на обычный компьютер, могут эффективнее справляться с рутинными операциями, экономя ресурсы и деньги.
Вторая работа от Meta* проверяет, насколько хорошо современные ИИ могут воспроизводить научные результаты. Исследователи создали бенчмарк на основе соревнования по ускорению обучения GPT-2, где сообщество сократило время с 45 до 3 минут.
В результате даже лучшие модели (o3-mini, Claude 3.7, Gemini-2.5-Pro, DeepSeek-R1) восстанавливают менее половины улучшений, даже когда им дают подробные инструкции.
Исследователи выявили несколько ключевых проблем:
- Агенты часто не могут правильно реализовать даже описанные изменения
- Сложности с пониманием и применением новых техник
- Проблемы с отладкой собственного кода
- Трудности с оптимизацией производительности.
Получается , если большие модели не справляются с воспроизведением кода, как могут справиться малые?
Ответ в типах задач. NVIDIA говорит о простых повторяющихся операциях, а Meta тестирует сложное научное программирование с отладкой и оптимизацией. Это разные миры сложности.
Что это значит для нас?
1. Специализация работает, узкие модели для узких задач могут быть эффективнее универсальных
2. Автономность далека, даже с подробными инструкциями ИИ пока не может надёжно программировать
3. Будущее гибридное, вероятно, увидим системы из множества специализированных моделей разного размера.
Эти работы показывают, что путь к полноценным ИИ-агентам будет постепенным. Экономическая оптимизация через SLMs имеет смысл, но не стоит ожидать прорывов в сложных творческих задачах.
Интересный комментарий от Андрея Карпатого, он отмечает, что рекурсивное самоулучшение ИИ — это не внезапный скачок, а процесс, который уже идёт. От IDE до GitHub Copilot — мы постепенно автоматизируем всё больше.
При этом Карпатый напоминает: nanoGPT — это всего 750 строк учебного кода, а реальные системы в сотни раз сложнее.
Так что обе статьи правы - специализация неизбежна, но до автономных ИИ-исследователей ещё далеко.
*запрещенная в России организация.
Йошуа Бенжио:ИИ с рассуждением работает,но вводит в заблуждение, когда мы думаем, что понимаем через него внутренние процессы модели
Новая работа группы исследователей, среди которых лауреат премии Тьюринга, а также представители Google, Oxford и др. выявила серьезную проблему в том, как мы понимаем работу современных ИИ-систем.
Метод CoT заставляет ИИ показывать "пошаговые рассуждения" перед ответом. Это реально улучшает качество решений — ИИ лучше справляется со сложными задачами. Но исследователи обнаружили подвох в том, как мы это интерпретируем.
Ключевая находка - 25% недавних научных работ ошибочно считают CoT методом интерпретации ИИ. В критических областях цифры еще хуже:
- 38% работ по медицинскому ИИ
- 63% работ по беспилотным автомобилям.
Почему это опасно?
1. Скрытые предубеждения ИИ может принимать решения на основе скрытых предвзятостей, но в объяснениях их не упоминать. При этом рационализация выглядит убедительно.
2. Иллюзия прозрачности Модель может давать правильный ответ через внутренние процессы, которые мы не видим, а показанные "рассуждения" остаются ошибочными.
3. Неверное доверие. В медицине или праве ложная уверенность в понимании логики ИИ может иметь серьезные последствия.
Исследователи предполагают, что словесные объяснения CoT не отражают реальные вычислительные процессы в нейросетях. Это как если бы человека попросили объяснить, почему ему нравится определенная музыка — он даст разумное объяснение, но реальные нейронные процессы гораздо сложнее.
Авторы не призывают отказаться от CoT — метод действительно работает для улучшения результатов. Но предлагают:
1. Использовать CoT для повышения качества решений, а не для "понимания" ИИ
2. Не полагаться только на словесные объяснения в критических решениях
3. Разрабатывать отдельные методы проверки надежности рассуждений
4. Усилить человеческий контроль в важных областях.
Новая работа группы исследователей, среди которых лауреат премии Тьюринга, а также представители Google, Oxford и др. выявила серьезную проблему в том, как мы понимаем работу современных ИИ-систем.
Метод CoT заставляет ИИ показывать "пошаговые рассуждения" перед ответом. Это реально улучшает качество решений — ИИ лучше справляется со сложными задачами. Но исследователи обнаружили подвох в том, как мы это интерпретируем.
Ключевая находка - 25% недавних научных работ ошибочно считают CoT методом интерпретации ИИ. В критических областях цифры еще хуже:
- 38% работ по медицинскому ИИ
- 63% работ по беспилотным автомобилям.
Почему это опасно?
1. Скрытые предубеждения ИИ может принимать решения на основе скрытых предвзятостей, но в объяснениях их не упоминать. При этом рационализация выглядит убедительно.
2. Иллюзия прозрачности Модель может давать правильный ответ через внутренние процессы, которые мы не видим, а показанные "рассуждения" остаются ошибочными.
3. Неверное доверие. В медицине или праве ложная уверенность в понимании логики ИИ может иметь серьезные последствия.
Исследователи предполагают, что словесные объяснения CoT не отражают реальные вычислительные процессы в нейросетях. Это как если бы человека попросили объяснить, почему ему нравится определенная музыка — он даст разумное объяснение, но реальные нейронные процессы гораздо сложнее.
Авторы не призывают отказаться от CoT — метод действительно работает для улучшения результатов. Но предлагают:
1. Использовать CoT для повышения качества решений, а не для "понимания" ИИ
2. Не полагаться только на словесные объяснения в критических решениях
3. Разрабатывать отдельные методы проверки надежности рассуждений
4. Усилить человеческий контроль в важных областях.
alphaXiv
Chain-of-Thought Is Not Explainability | alphaXiv
View recent discussion. Abstract: Chains-of-thought (CoT) allow language models to verbalise multi-step rationales before producing their final answer. While this technique often boosts task performance and offers an impression of transparency into the model’s…
Anthropic теряет ключевых сотрудников, а Цукерберг заплатит по $300млн/4года новым 10 сотрудникам, которых он переманил для своей лаборатории по сверхразумному ИИ.
Битва за лучшие таланты продолжается, на этот раз Anthropic, у которой выручка выросла до $4 млрд в год, теряет ключевых сотрудников:
1. Борис Черный, инженер Claude Code
2. Кэт Уу, менеджер продукта Claude Code.
Они оба переходят в стартап Anysphere, который стоит за разработкой Cursor, приложения для кодирования с помощью ИИ. Cursor использует ИИ, в том числе от Anthropic, чтобы помогать разработчикам писать код.
Черный станет главным архитектором и руководителем инженерного отдела, а Уу — главой продуктов в Anysphere. Переход произошел на этой неделе. Anthropic представила Claude Code в феврале как отдельный продукт для кодирования.
Также стало известно, что Марк Цукерберг, пообещал новым сотрудникам лаборатории по созданию суперразума зарплаты до $300 млн за 4 года, из которых более $100 млн предоставляется в первый год работы. В зарплатных пакетах также акции Meta(запрещенная в РФ), которые в первый год полностью переходят во владение сотрудника.
Что ещё интересного? Каждый из 11 сотрудников новой лаборатории Цукерберга — иммигрант, получивший высшее образование за границей:
7 человек получили образование в Китае, 1 в Индии, 1 - Австралии , 1 - UK, 1 - Южной Африке. 8 человек имеют степень доктора наук.
Битва за лучшие таланты продолжается, на этот раз Anthropic, у которой выручка выросла до $4 млрд в год, теряет ключевых сотрудников:
1. Борис Черный, инженер Claude Code
2. Кэт Уу, менеджер продукта Claude Code.
Они оба переходят в стартап Anysphere, который стоит за разработкой Cursor, приложения для кодирования с помощью ИИ. Cursor использует ИИ, в том числе от Anthropic, чтобы помогать разработчикам писать код.
Черный станет главным архитектором и руководителем инженерного отдела, а Уу — главой продуктов в Anysphere. Переход произошел на этой неделе. Anthropic представила Claude Code в феврале как отдельный продукт для кодирования.
Также стало известно, что Марк Цукерберг, пообещал новым сотрудникам лаборатории по созданию суперразума зарплаты до $300 млн за 4 года, из которых более $100 млн предоставляется в первый год работы. В зарплатных пакетах также акции Meta(запрещенная в РФ), которые в первый год полностью переходят во владение сотрудника.
Что ещё интересного? Каждый из 11 сотрудников новой лаборатории Цукерберга — иммигрант, получивший высшее образование за границей:
7 человек получили образование в Китае, 1 в Индии, 1 - Австралии , 1 - UK, 1 - Южной Африке. 8 человек имеют степень доктора наук.
The Information
Anthropic Revenue Hits $4 Billion Annual Pace as Competition With Cursor Intensifies
Anysphere, the maker of Cursor, an artificial intelligence-powered coding app, has hired two leaders of Anthropic’s competing coding product, Claude Code, according to one of the leaders. The move is notable because Cursor relies on AI from Anthropic to power…
Греф не видит никаких перспектив цифрового рубля
«Я не понимаю, зачем мне как физическому лицу нужен такой вариант, как банку – тоже. И предприятиям – зачем это нужно я тоже пока не очень хорошо понимаю», – отметил Греф.
Все, что может дать цифровой рубль, могут сделать и безналичные расчеты, говорит глава Сбера. О том, что происходит с цифровым ₽, читайте здесь.
«Я не понимаю, зачем мне как физическому лицу нужен такой вариант, как банку – тоже. И предприятиям – зачем это нужно я тоже пока не очень хорошо понимаю», – отметил Греф.
Все, что может дать цифровой рубль, могут сделать и безналичные расчеты, говорит глава Сбера. О том, что происходит с цифровым ₽, читайте здесь.
Ведомости
Глава Сбербанка не верит в цифровой рубль
Финансовая система России и так достаточно развита с точки зрения цифровизации
👀ого! Самый крупный инвестфонд BlackRock говорит, что их биткоин-фонд зарабатывает больше денег, чем их крупный фонд S&P 500(IVV), несмотря на то, что у последнего значительно больше активов.
Это значит, что биткоин сейчас очень популярен среди инвесторов, и фонд с ним приносит хорошую прибыль благодаря высоким вложениям и комиссии.
За последние 18 месяцев IBIT привлек около $75 млрд от институциональных и розничных инвесторов, что составляет более 55% всех активов ETF на биткоин.
С текущей долей в 0,25% от активов фонд генерирует около $187,2 млн годового дохода. Это немного превышает $187,1 млн, которые приносит IVV, несмотря на то, что его активы в 9 раз больше ($624 млрд) при комиссии 0,03%.
Рост популярности биткоин-ETF связан с открытием доступа со стороны регулирующих органов США, что привлекает капитал от хедж-фондов, пенсионных фондов и банков, укрепляя доминирование биткоина над меньшими альткоинами.
Это значит, что биткоин сейчас очень популярен среди инвесторов, и фонд с ним приносит хорошую прибыль благодаря высоким вложениям и комиссии.
За последние 18 месяцев IBIT привлек около $75 млрд от институциональных и розничных инвесторов, что составляет более 55% всех активов ETF на биткоин.
С текущей долей в 0,25% от активов фонд генерирует около $187,2 млн годового дохода. Это немного превышает $187,1 млн, которые приносит IVV, несмотря на то, что его активы в 9 раз больше ($624 млрд) при комиссии 0,03%.
Рост популярности биткоин-ETF связан с открытием доступа со стороны регулирующих органов США, что привлекает капитал от хедж-фондов, пенсионных фондов и банков, укрепляя доминирование биткоина над меньшими альткоинами.
Bloomberg.com
BlackRock Bitcoin ETF Drives More Revenue Than Its S&P 500 Fund
At the world’s biggest asset manager, a Bitcoin exchange-traded fund now generates more revenue than its signature tracker of the S&P 500 Index.
Греф: через 3-5 лет в РФ будут массовые банкротства среди компаний, если не внедрят ИИ
Глава Сбера считает, что ИИ не панацея. Большинство отраслей в стране находятся от ИИ на расстоянии миллионов световых лет.
В компаниях нет базовых принципов менеджмента. Поэтому, чтобы там появился ИИ, нужно решить базовые проблемы менеджмента и оцифровать процессы. И только после этого начать внедрять ИИ.
Сегодня в России на повестке дня должна стоять задача по созданию условий, чтобы компании массово подключались/трансформировались с ИИ.
В среднесрочной перспективе в течение 3-5 лет будут массовые банкротства. Победят те, кто применят ИИ.
Глава Сбера считает, что ИИ не панацея. Большинство отраслей в стране находятся от ИИ на расстоянии миллионов световых лет.
В компаниях нет базовых принципов менеджмента. Поэтому, чтобы там появился ИИ, нужно решить базовые проблемы менеджмента и оцифровать процессы. И только после этого начать внедрять ИИ.
Сегодня в России на повестке дня должна стоять задача по созданию условий, чтобы компании массово подключались/трансформировались с ИИ.
В среднесрочной перспективе в течение 3-5 лет будут массовые банкротства. Победят те, кто применят ИИ.
VK Видео
Развитие экономики: как выйти на оптимальную траекторию роста. Пленарная сессия Финансового конгресса 2025
Финансовый конгресс Банка России 2025 Пленарная сессия «Развитие экономики: как выйти на оптимальную траекторию роста» Российская экономика в 2023–24 гг. продемонстрировала впечатляющий рост вопреки очень значительному осложнению внешнеэкономической обстановки.…
1-й RL-only open source ИИ-агент для программирования, который учится на своем опыте
Together AI и команда Agentica выпустили ИИ- агента для программирования DeepSWE, который построен на базе ИИ- модели Qwen3-32B.
DeepSWE обучен с помощью обучения с подкреплением, т.е. модель учится решать задачи через пробы и ошибки, получая обратную связь от результатов своей работы.
DeepSWE использует rLLM — модульный фреймворк от команды Agentica.
На бенчмарке SWEBench-Verified, где ИИ-агенты решают реальные GitHub issues, DeepSWE показал 42.2% успешных решений с первой попытки и 59% при использовании дополнительного времени на обдумывание.
Together AI и команда Agentica выпустили ИИ- агента для программирования DeepSWE, который построен на базе ИИ- модели Qwen3-32B.
DeepSWE обучен с помощью обучения с подкреплением, т.е. модель учится решать задачи через пробы и ошибки, получая обратную связь от результатов своей работы.
DeepSWE использует rLLM — модульный фреймворк от команды Agentica.
На бенчмарке SWEBench-Verified, где ИИ-агенты решают реальные GitHub issues, DeepSWE показал 42.2% успешных решений с первой попытки и 59% при использовании дополнительного времени на обдумывание.
Telegram
All about AI, Web 3.0, BCI
Together AI introduced DeepSWE is a new SOTA open-source software engineering model trained entirely using reinforcement learning, based on Qwen3-32B.
DeepSWE is trained with rLLM, Agentica’s modular RL post-training framework for agents.
rLLM makes it…
DeepSWE is trained with rLLM, Agentica’s modular RL post-training framework for agents.
rLLM makes it…
Похоже, в Китае развитие ИИ замедлилось, несмотря на изначальный энтузиазм по поводу #DeepSeek @blockchainrf
По иронии судьбы, китайский индекс Terrific 10 значительно уступает американскому Mag 7 после успешных торговых переговоров между США и Китаем в Женеве.
Стоимость акций компании Cambricon, ключевого китайского производителя графических процессоров, когда-то считавшегося китайским ответом Nvidia, резко упала по сравнению с акциями Nvidia.
Падение цены акций Cambricon связано не только с технологическим отставанием, но и с ограничениями в производственных мощностях — Cambricon, будучи в черном списке США, не может использовать передовые технологии TSMC.
Huawei, с другой стороны, имеет большее влияние благодаря своим связям с китайским правительством и доступу к мощностям SMIC. Их чип Ascend 910B лучше подходит для задач вывода,но он всё ещё уступает Nvidia по производительности и экосистеме.
Тем временем долгожданный запуск DeepSeek R2 откладывается, и официальная дата релиза пока неизвестна. Даже если они используют менее мощные чипы, экосистема CUDA от Nvidia все ещё доминирует, а китайские альтернативы - CANN от Huawei, пока не могут конкурировать из-за нестабильности и сложностей в использовании.
Станет ли отсутствие доступа к передовым чипам ИИ непреодолимым препятствием для амбиций Китая в ИИ?
@blockchainrf
По иронии судьбы, китайский индекс Terrific 10 значительно уступает американскому Mag 7 после успешных торговых переговоров между США и Китаем в Женеве.
Стоимость акций компании Cambricon, ключевого китайского производителя графических процессоров, когда-то считавшегося китайским ответом Nvidia, резко упала по сравнению с акциями Nvidia.
Падение цены акций Cambricon связано не только с технологическим отставанием, но и с ограничениями в производственных мощностях — Cambricon, будучи в черном списке США, не может использовать передовые технологии TSMC.
Huawei, с другой стороны, имеет большее влияние благодаря своим связям с китайским правительством и доступу к мощностям SMIC. Их чип Ascend 910B лучше подходит для задач вывода,но он всё ещё уступает Nvidia по производительности и экосистеме.
Тем временем долгожданный запуск DeepSeek R2 откладывается, и официальная дата релиза пока неизвестна. Даже если они используют менее мощные чипы, экосистема CUDA от Nvidia все ещё доминирует, а китайские альтернативы - CANN от Huawei, пока не могут конкурировать из-за нестабильности и сложностей в использовании.
Станет ли отсутствие доступа к передовым чипам ИИ непреодолимым препятствием для амбиций Китая в ИИ?
@blockchainrf
Состояние вычислительных мощностей ИИ: реальные цифры и тренды - свежий отчет.
Объемы инвестиций достигли критической массы. Microsoft, Google и Amazon инвестируют $255 млрд в ИИ-инфраструктуру в 2025 году. Meta* планирует построить дата-центр стоимостью $200+ млрд.
При всем шуме вокруг NVIDIA H100, он используется только в 0.55% всех исследовательских работ по ИИ.
Потенциал роста огромен, но пока большинство исследователей работает на более доступном оборудовании.
Специализация по задачам становится нормой. LLM-исследования концентрируются на AMD MI300/MI250, Huawei Ascend и NVIDIA H100/H200. Робототехника почти полностью перешла на NVIDIA Jetson. Универсальных решений больше нет.
Крупнейшие кластеры ИИ 2025 года:
1. JUPITER Booster (Германия): 24,000 GH200
2. Microsoft Eagle: 14,400 H100
3. Shaheen III (Саудовская Аравия): 2,800 H100
4. Meta: 2 кластера по 24,576 H100 каждый
Общий парк: ~500k H100 и ~111k A100 по всему миру. Meta планирует достичь 350k H100 к концу года.
Неожиданные тренды:
1. Впервые за 6 лет количество исследовательских работ, цитирующих ИИ-чипы, упало на 11%. Возможные причины-консолидация вокруг проверенных решений и рост коммерческих, а не академических проектов.
2. Рост стартапов. Cerebras, Groq, Graphcore и другие ИИ-стартапы показывают +19% роста упоминаний в исследованиях. Пока это капля в море, но тренд указывает на диверсификацию экосистемы.
3. Персидский залив становится новым центром ИИ-вычислений благодаря доступной энергии и капиталу. К 2026 году ожидается заметное присутствие кластеров ОАЭ и Саудовской Аравии в глобальной статистике.
Прогноз: к 2027 году глобальные ИИ-вычислительные мощности вырастут в 10 раз до эквивалента 100 млн H100.
Ведущие ИИ-компании будут контролировать 15-20% всех мировых мощностей каждая.
Эра "гаражных" ИИ-стартапов заканчивается. Входной билет в лигу создателей фронтирных моделей теперь стоит миллиарды долларов.
*запрещенная организация в РФ.
Объемы инвестиций достигли критической массы. Microsoft, Google и Amazon инвестируют $255 млрд в ИИ-инфраструктуру в 2025 году. Meta* планирует построить дата-центр стоимостью $200+ млрд.
При всем шуме вокруг NVIDIA H100, он используется только в 0.55% всех исследовательских работ по ИИ.
Потенциал роста огромен, но пока большинство исследователей работает на более доступном оборудовании.
Специализация по задачам становится нормой. LLM-исследования концентрируются на AMD MI300/MI250, Huawei Ascend и NVIDIA H100/H200. Робототехника почти полностью перешла на NVIDIA Jetson. Универсальных решений больше нет.
Крупнейшие кластеры ИИ 2025 года:
1. JUPITER Booster (Германия): 24,000 GH200
2. Microsoft Eagle: 14,400 H100
3. Shaheen III (Саудовская Аравия): 2,800 H100
4. Meta: 2 кластера по 24,576 H100 каждый
Общий парк: ~500k H100 и ~111k A100 по всему миру. Meta планирует достичь 350k H100 к концу года.
Неожиданные тренды:
1. Впервые за 6 лет количество исследовательских работ, цитирующих ИИ-чипы, упало на 11%. Возможные причины-консолидация вокруг проверенных решений и рост коммерческих, а не академических проектов.
2. Рост стартапов. Cerebras, Groq, Graphcore и другие ИИ-стартапы показывают +19% роста упоминаний в исследованиях. Пока это капля в море, но тренд указывает на диверсификацию экосистемы.
3. Персидский залив становится новым центром ИИ-вычислений благодаря доступной энергии и капиталу. К 2026 году ожидается заметное присутствие кластеров ОАЭ и Саудовской Аравии в глобальной статистике.
Прогноз: к 2027 году глобальные ИИ-вычислительные мощности вырастут в 10 раз до эквивалента 100 млн H100.
Ведущие ИИ-компании будут контролировать 15-20% всех мировых мощностей каждая.
Эра "гаражных" ИИ-стартапов заканчивается. Входной билет в лигу создателей фронтирных моделей теперь стоит миллиарды долларов.
*запрещенная организация в РФ.
www.stateof.ai
State of AI Report Compute Index
The State of AI Report Compute Index tracks the size of public, private and national HPC clusters.