Turbo ML Conf
Я часто пишу про конференции типа CVPR и ECCV и о том, почему это важно. Но не у всех есть возможность кататься по таким крупным ивентам. Круто, что в Москве тоже проходят подобные локальные ивенты (хоть и масштабом поменьше). Вот, например, скоро будет проходить Turbo ML Conf.
Обещают 5 потоков по всем основным направлениям в AI: NLP, Research & RnD, CV & Speech, RecSys, LLM Applications & Copilots.
Как я упоминал, на конференциях главное — нетворкинг, но бывает тяжело просто взять и заговорить с кем-то, так что организаторы замутили кучу интерактива и даже настолки, лол. Будет гораздо проще завести с кем-то диалог.
Дата — 19 июля.
Регистрация тут, бесплатно, но места ограничены, причём трансляции в этом году не будет.
@ai_newz
Я часто пишу про конференции типа CVPR и ECCV и о том, почему это важно. Но не у всех есть возможность кататься по таким крупным ивентам. Круто, что в Москве тоже проходят подобные локальные ивенты (хоть и масштабом поменьше). Вот, например, скоро будет проходить Turbo ML Conf.
Обещают 5 потоков по всем основным направлениям в AI: NLP, Research & RnD, CV & Speech, RecSys, LLM Applications & Copilots.
Как я упоминал, на конференциях главное — нетворкинг, но бывает тяжело просто взять и заговорить с кем-то, так что организаторы замутили кучу интерактива и даже настолки, лол. Будет гораздо проще завести с кем-то диалог.
Дата — 19 июля.
Регистрация тут, бесплатно, но места ограничены, причём трансляции в этом году не будет.
@ai_newz
Восхождение Oracle
Тут SemiAnalysis написали прекрасный отчёт о том, как поднялся этот компьют-гигант. Казалось бы, Oracle вошёл в игру гораздо позже AWS, Azure и Google, но сейчас по многим метрикам вырывается в лидеры.
Фишка в том, что они не пытались догонять, а сыграли по-своему, сделав несколько дичайших ставок, которые окупились.
Ставка №1: Сделка с Crusoe для OpenAI
Oracle заключила 15-летнюю сделку с относительно неопытным на тот момент девелопером Crusoe на строительство гигаваттного дата-центра. Стоимость обязательств Oracle по этой сделке, по оценкам, превышает $1 млрд в год. Весь этот компьют предназначался для их ключевого клиента — OpenAI.
Риск был колоссальным. В то время годовая выручка OpenAI составляла ~$2 млрд, причём подразделение работало в убыток. Oracle брала на себя обязательства по сделке, которая по масштабу была сопоставима со всей выручкой своего клиента. Но эта ставка позволила им запереть на себе самого важного игрока на рынке ИИ.
Ставка №2: ByteDance
И это не единичный случай. Oracle также заключила многомиллиардную сделку с ByteDance (материнская компания TikTok) на предоставление AI-вычислений для их операций за пределами Китая и США. Это ещё один гигантский клиент с колоссальными потребностями в обучении моделей, которого Oracle смогла увести у конкурентов, в первую очередь у AWS.
Но кроме успешного выбора клиентов, успех Oracle стоит на трёх китах: архитектура, прямые закупки и, самое главное, дешёвые деньги.
Архитектура их главный козырь. Oracle строит свои AI-кластеры на протоколе RoCE v2 (RDMA поверх Ethernet). Такая сеть на 400 Гбит/с обеспечивает GPU задержку и масштабируемость, сопоставимые с InfiniBand, но позволяет снизить цену кластеров на 15–20%, потому что они собираются на обычных стоечных и магистральных коммутаторах и использует стандартные кабели. Экономия на сети снижает общую стоимость владения инфраструктурой, поэтому OCI может удерживать цену GPU-часа ниже, чем большинство неоклаудов, и успешно конкурировать с крупными гиперскейлерами.
Второе преимущество перед конкурентами заключается в прямых закупках — Oracle закупает железо напрямую у ODM-производителей вроде Foxconn, минуя наценку брендов-посредников типа Dell и Supermicro. Меньше посредников — ниже цена. Справедливости ради, так делают все гиганты, включая Azure и AWS. Но для Oracle это лишь один из винтиков в машине по тотальной экономии.
Cost of Capital. Закупка GPU, для Oracle обходится фундаментально дешевле. Их основной бизнес по базам данных — это гигантская машина по производству наличных, которая даёт им доступ к самым дешёвым кредитам на рынке. Это заметное преимущество перед неоклаудами, которым такие кредиты не дают. В целом и Amazon может брать такие кредиты, но они проигрывают по остальным параметрам.
Линк
@ai_newz
Тут SemiAnalysis написали прекрасный отчёт о том, как поднялся этот компьют-гигант. Казалось бы, Oracle вошёл в игру гораздо позже AWS, Azure и Google, но сейчас по многим метрикам вырывается в лидеры.
Фишка в том, что они не пытались догонять, а сыграли по-своему, сделав несколько дичайших ставок, которые окупились.
Ставка №1: Сделка с Crusoe для OpenAI
Oracle заключила 15-летнюю сделку с относительно неопытным на тот момент девелопером Crusoe на строительство гигаваттного дата-центра. Стоимость обязательств Oracle по этой сделке, по оценкам, превышает $1 млрд в год. Весь этот компьют предназначался для их ключевого клиента — OpenAI.
Риск был колоссальным. В то время годовая выручка OpenAI составляла ~$2 млрд, причём подразделение работало в убыток. Oracle брала на себя обязательства по сделке, которая по масштабу была сопоставима со всей выручкой своего клиента. Но эта ставка позволила им запереть на себе самого важного игрока на рынке ИИ.
Ставка №2: ByteDance
И это не единичный случай. Oracle также заключила многомиллиардную сделку с ByteDance (материнская компания TikTok) на предоставление AI-вычислений для их операций за пределами Китая и США. Это ещё один гигантский клиент с колоссальными потребностями в обучении моделей, которого Oracle смогла увести у конкурентов, в первую очередь у AWS.
Но кроме успешного выбора клиентов, успех Oracle стоит на трёх китах: архитектура, прямые закупки и, самое главное, дешёвые деньги.
Архитектура их главный козырь. Oracle строит свои AI-кластеры на протоколе RoCE v2 (RDMA поверх Ethernet). Такая сеть на 400 Гбит/с обеспечивает GPU задержку и масштабируемость, сопоставимые с InfiniBand, но позволяет снизить цену кластеров на 15–20%, потому что они собираются на обычных стоечных и магистральных коммутаторах и использует стандартные кабели. Экономия на сети снижает общую стоимость владения инфраструктурой, поэтому OCI может удерживать цену GPU-часа ниже, чем большинство неоклаудов, и успешно конкурировать с крупными гиперскейлерами.
Второе преимущество перед конкурентами заключается в прямых закупках — Oracle закупает железо напрямую у ODM-производителей вроде Foxconn, минуя наценку брендов-посредников типа Dell и Supermicro. Меньше посредников — ниже цена. Справедливости ради, так делают все гиганты, включая Azure и AWS. Но для Oracle это лишь один из винтиков в машине по тотальной экономии.
Cost of Capital. Закупка GPU, для Oracle обходится фундаментально дешевле. Их основной бизнес по базам данных — это гигантская машина по производству наличных, которая даёт им доступ к самым дешёвым кредитам на рынке. Это заметное преимущество перед неоклаудами, которым такие кредиты не дают. В целом и Amazon может брать такие кредиты, но они проигрывают по остальным параметрам.
Линк
@ai_newz
Higgsfield Soul - новая text2image модель?
Ребята явно решили замахнуться на кусок пирога Midjourney. В твиттере сейчас только о них и говорят, называя их новый генератор картинок Soul самым реалистичным и эстетичным. Но так ли это?
Higgsfield — это изначально апка с видеогенераторами. Я про нее никогда не писал, потому что в целом это аггретатор моделей, а не какая-то новая модель. Просто на сайте есть куча пресетов и нейроэффектов (по сути, LoRA для видео). Иногда это даёт прикольный результат, и для определённых задач выходит лучше и быстрее, чем пытаться добиться того же через промпт в другом генераторе. Для художников удобно, но с технической точки зрения ничего любопытного.
А теперь про их новую t2i-модель — Soul. Судя по черри-пикам в твиттере, это и правда очень красивая и реалистичная модель. Что мы видим на самом сайте? Куча готовых пресетов и стилей. Я взял рандомный промпт из галереи (отмечу, что все они там очень длинные) и провёл тесты:
1. Оригинальный промпт + оригинальный пресет «office beach».
2. Оригинальный промпт + пресет «general» (то есть базовая, не затюненная версия модели).
3. Другой промпт из галереи + оригинальный пресет «office beach».
4. Другой промпт + его родной пресет «movie».
5. Другой промпт + пресет «general».
Для сравнения я прогнал те же промпты через Runway (6,7) и Flux dev (8,9).
Итог предсказуем: магии не случилось. Удивлен, что generation diversity ≈ 0, что видно из последней пикчи (10), они больше похожи на вариации одной общей картинки, а не на новые изображения. Есть подозрение, что они просто берут случайную фотку из трейна (ближайшуюу по клип скору) по заданному стилю и в этом же стиле перерисовывают, помешивая промпт и добавляя LoRA. По сути, это тот же Flux либо HiDream, но с пачкой действительно качественных LoRA-пресетов. Какие-то вещи повторить быстро и легко можно, но вряд ли выйдет создать что-то принципиально новое.
И что самое ироничное, со всеми этими «четырёхэтажными» промптами, которые даже не влезли в лимит Runway в 1000 знаков, последний, по-моему, справился даже лучше! Может, чуть меньше реализма, но с точки зрения стиля, атмосферы и эстетики... Просто посмотрите на ковбоя от Runway.
P.S. Все генерации сделаны с первого раза.
higgsfield.ai
@ai_newz
Ребята явно решили замахнуться на кусок пирога Midjourney. В твиттере сейчас только о них и говорят, называя их новый генератор картинок Soul самым реалистичным и эстетичным. Но так ли это?
Higgsfield — это изначально апка с видеогенераторами. Я про нее никогда не писал, потому что в целом это аггретатор моделей, а не какая-то новая модель. Просто на сайте есть куча пресетов и нейроэффектов (по сути, LoRA для видео). Иногда это даёт прикольный результат, и для определённых задач выходит лучше и быстрее, чем пытаться добиться того же через промпт в другом генераторе. Для художников удобно, но с технической точки зрения ничего любопытного.
А теперь про их новую t2i-модель — Soul. Судя по черри-пикам в твиттере, это и правда очень красивая и реалистичная модель. Что мы видим на самом сайте? Куча готовых пресетов и стилей. Я взял рандомный промпт из галереи (отмечу, что все они там очень длинные) и провёл тесты:
1. Оригинальный промпт + оригинальный пресет «office beach».
2. Оригинальный промпт + пресет «general» (то есть базовая, не затюненная версия модели).
3. Другой промпт из галереи + оригинальный пресет «office beach».
4. Другой промпт + его родной пресет «movie».
5. Другой промпт + пресет «general».
Для сравнения я прогнал те же промпты через Runway (6,7) и Flux dev (8,9).
Итог предсказуем: магии не случилось. Удивлен, что generation diversity ≈ 0, что видно из последней пикчи (10), они больше похожи на вариации одной общей картинки, а не на новые изображения. Есть подозрение, что они просто берут случайную фотку из трейна (ближайшуюу по клип скору) по заданному стилю и в этом же стиле перерисовывают, помешивая промпт и добавляя LoRA. По сути, это тот же Flux либо HiDream, но с пачкой действительно качественных LoRA-пресетов. Какие-то вещи повторить быстро и легко можно, но вряд ли выйдет создать что-то принципиально новое.
И что самое ироничное, со всеми этими «четырёхэтажными» промптами, которые даже не влезли в лимит Runway в 1000 знаков, последний, по-моему, справился даже лучше! Может, чуть меньше реализма, но с точки зрения стиля, атмосферы и эстетики... Просто посмотрите на ковбоя от Runway.
P.S. Все генерации сделаны с первого раза.
higgsfield.ai
@ai_newz