Forwarded from Psy Eyes
Дали доступ в Comfy Cloud.
Визуально отличия минимальны: те же воркфлоу, хотя почему-то нет новых из субграфов. Ворки с моделями доступными по API а-ля Veo 3.1, Sora 2, Kling, Hailuo 02, итд вообще остались без изменений.
А вот в ворках с опенсорсными моделями, теперь когда ты жмёшь на выбор у тебя появляется окно, где веса отображаются плитками и есть поиск. Правда они названы то wan2_1, то wan2.2_ и придётся полазить, чтобы найти нужное. Разрабам надо сгруппировать веса и привести в порядок названия. И подрубиться к хаггингу+гитхабу, чтобы иметь возможность запустить недостающее/желаемое.
Выбора GPU и хранилища для генераций как на Runpod здесь нет. При запуске ворка веса начнут скачиваться и на это уйдёт пара минут. Собственно не все веса есть в fp16/bf16, например нет Qwen. А вот fp8 есть любые, хотя в fp8 я не глядя могу генерить и у себя на компе.
Используя дефолтные шаблоны на изменение одной картинки в Qwen IE 2509 с лайтнинг лорами в 4 шага ушло ~33 сек. Что многовато совсем. Wan 2.2 видео в 720p 16fps пеклось 816 сек (~13 мин) и в итоге только шум на видео.
Консоль отключена и по логам не прочекать что под капотом и детали происходящего. Но по крайне мере генерит без кредитов пока тест (не касается API ворков).
В целом пока печально, ибо от облака ждёшь большего. Но на то это и тест с небольшим выделенным компьютом, чтобы ты им не сжёг за раз все вертолётные деньги от VC.
Если есть вопросы, что посмотреть-потестить пишите в комменты.
Comfy Cloud
Визуально отличия минимальны: те же воркфлоу, хотя почему-то нет новых из субграфов. Ворки с моделями доступными по API а-ля Veo 3.1, Sora 2, Kling, Hailuo 02, итд вообще остались без изменений.
А вот в ворках с опенсорсными моделями, теперь когда ты жмёшь на выбор у тебя появляется окно, где веса отображаются плитками и есть поиск. Правда они названы то wan2_1, то wan2.2_ и придётся полазить, чтобы найти нужное. Разрабам надо сгруппировать веса и привести в порядок названия. И подрубиться к хаггингу+гитхабу, чтобы иметь возможность запустить недостающее/желаемое.
Выбора GPU и хранилища для генераций как на Runpod здесь нет. При запуске ворка веса начнут скачиваться и на это уйдёт пара минут. Собственно не все веса есть в fp16/bf16, например нет Qwen. А вот fp8 есть любые, хотя в fp8 я не глядя могу генерить и у себя на компе.
Используя дефолтные шаблоны на изменение одной картинки в Qwen IE 2509 с лайтнинг лорами в 4 шага ушло ~33 сек. Что многовато совсем. Wan 2.2 видео в 720p 16fps пеклось 816 сек (~13 мин) и в итоге только шум на видео.
Консоль отключена и по логам не прочекать что под капотом и детали происходящего. Но по крайне мере генерит без кредитов пока тест (не касается API ворков).
В целом пока печально, ибо от облака ждёшь большего. Но на то это и тест с небольшим выделенным компьютом, чтобы ты им не сжёг за раз все вертолётные деньги от VC.
Если есть вопросы, что посмотреть-потестить пишите в комменты.
Comfy Cloud
❤11👍9🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Сунчанский выкатил новую модель для всех, в том числе бесплатных пользователей.
Теперь на Suno.ai есть выбор модели v4.5-all.
Ограничение: 5-10 фришных генераций в день. На один аккаунт.
Данных про разницу v4.5 и v4.5-all не приводится.
Ну а баяре (Кондаков, Тарасов) сидят на v5...
@cgevent
Теперь на Suno.ai есть выбор модели v4.5-all.
Ограничение: 5-10 фришных генераций в день. На один аккаунт.
Данных про разницу v4.5 и v4.5-all не приводится.
Ну а баяре (Кондаков, Тарасов) сидят на v5...
@cgevent
🔥22😁7❤3👍2👎1
Hailuo Minimax 2.3 уже засветился в бета-версии.
1080p, упор на визуальные эффекты, хорошая физика, очень хорошая анимация, кровищща и ужосы.
К - конкуренция это О - Отлично.
@cgevent
1080p, упор на визуальные эффекты, хорошая физика, очень хорошая анимация, кровищща и ужосы.
К - конкуренция это О - Отлично.
@cgevent
🔥49❤11👍6👎1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Обновление дорожной карты Sora:
Во-первых, больше инструментов для творчества. В ближайшие дни появятся камео персонажей: вы сможете создавать камео своей собаки, морской свинки, любимой мягкой игрушки и практически всего, что захотите. Вы также сможете создавать камео сгенерированных персонажей прямо из ваших видео Sora.
Мы ожидаем, что с помощью этой функции люди будут регистрировать множество новых сумасшедших камео. Чтобы их было легче найти, мы обновляем интерфейс генерации, чтобы показывать последние популярные камео в режиме реального времени.
Мы также добавляем в приложение базовые возможности редактирования видео, начиная с соединения нескольких клипов, и в ближайшее время добавим сюда очень мощные новые функции.
Во-вторых, мы работаем над тем, чтобы сделать социальный опыт намного лучше. Мы изучаем новые способы использования Sora с вашими друзьями (а не только с глобальной лентой) и более широким сообществом. Подумайте о каналах, специфичных для вашего университета, компании, спортивного клуба и т. д.
В-третьих, в последнее время лента новостей незаметно стала намного лучше, и в ближайшее время будут внесены дополнительные улучшения. Команда усердно работает над тем, чтобы сократить чрезмерную модерацию генерируемых сообщений (мы знаем, что это очень раздражает). Мы также работаем над повышением общей производительности приложения, чтобы оно работало быстрее везде.
Наконец, версия Sora для Android действительно скоро появится.
@cgevent
Во-первых, больше инструментов для творчества. В ближайшие дни появятся камео персонажей: вы сможете создавать камео своей собаки, морской свинки, любимой мягкой игрушки и практически всего, что захотите. Вы также сможете создавать камео сгенерированных персонажей прямо из ваших видео Sora.
Мы ожидаем, что с помощью этой функции люди будут регистрировать множество новых сумасшедших камео. Чтобы их было легче найти, мы обновляем интерфейс генерации, чтобы показывать последние популярные камео в режиме реального времени.
Мы также добавляем в приложение базовые возможности редактирования видео, начиная с соединения нескольких клипов, и в ближайшее время добавим сюда очень мощные новые функции.
Во-вторых, мы работаем над тем, чтобы сделать социальный опыт намного лучше. Мы изучаем новые способы использования Sora с вашими друзьями (а не только с глобальной лентой) и более широким сообществом. Подумайте о каналах, специфичных для вашего университета, компании, спортивного клуба и т. д.
В-третьих, в последнее время лента новостей незаметно стала намного лучше, и в ближайшее время будут внесены дополнительные улучшения. Команда усердно работает над тем, чтобы сократить чрезмерную модерацию генерируемых сообщений (мы знаем, что это очень раздражает). Мы также работаем над повышением общей производительности приложения, чтобы оно работало быстрее везде.
Наконец, версия Sora для Android действительно скоро появится.
@cgevent
🔥31👍10❤7👎1
This media is not supported in your browser
VIEW IN TELEGRAM
А в Veo тем временем прикрутили инструмент для аннотаций.
Он и раньше их понимал, но надо было где-то их рисовать, а теперь прямо во Flow для Ingredients or Frames to Video появилась иконка с карандашиком. Там мини Paint с текстом и стрелками.
Обратите внимание на видео, как там пишут промпт "используй инструкции из аннотации, а потом удали ее к буйволу".
А еще во Flow Scenebuilder появилась Portrait Mode.
@cgevent
Он и раньше их понимал, но надо было где-то их рисовать, а теперь прямо во Flow для Ingredients or Frames to Video появилась иконка с карандашиком. Там мини Paint с текстом и стрелками.
Обратите внимание на видео, как там пишут промпт "используй инструкции из аннотации, а потом удали ее к буйволу".
А еще во Flow Scenebuilder появилась Portrait Mode.
@cgevent
👍36😱9🔥5❤4
Media is too big
VIEW IN TELEGRAM
Hunyuan World 1.1 (WorldMirror)
Новая версия опенсорсного генератора миров от Хуньянь
В то время как наша ранее выпущенная версия Hunyuan World 1.0 (открытая, облегченная версия, развертываемая на потребительских графических процессорах) была ориентирована на генерацию 3D-миров из текста или изображений с одним ракурсом, Hunyuan World 1.1 значительно расширяет возможности ввода, открывая возможность создания миров из видео и из нескольких ракурсов.
Основные особенности:
Любой ввод (Any Input), максимальная гибкость и точность: гибко интегрирует различные геометрические входные данные (положения камеры, внутренние характеристики, карты глубины) для устранения структурных неоднозначностей и обеспечения геометрически согласованных 3D-результатов.
Любой вывод, результаты SOTA: эта элегантная архитектура одновременно генерирует несколько 3D-представлений: плотные облака точек, карты глубины с несколькими видами, параметры камеры, нормали поверхности и гауссовы сплаты
Скорость: как универсальная feed-forward модель, Hunyuan World 1.1 работает на одном графическом процессоре и предоставляет все 3D-атрибуты за один проход в течение нескольких секунд.
Думаю, что памяти будет жрать очень много, но можно проверить:
Код: https://github.com/Tencent-Hunyuan/HunyuanWorld-Mirror
Проект: https://3d-models.hunyuan.tencent.com/world/
Демо: https://huggingface.co/spaces/tencent/HunyuanWorld-Mirror
Бумага: https://3d-models.hunyuan.tencent.com/world/worldMirror1_0/HYWorld_Mirror_Tech_Report.pdf
Генераторы 3Д-миров появились, как дополнительные эволюционные ветки от видеогенераторов. И если от Гугла у нас уже есть ответочка на эту эволюцию в виде GENIE-3, то вот у OpenAI ничего такого нет (впрочем они и на поле генераторов картинок тормозят).
А Хуньяньский все это еще и опенсорсит!
@cgevent
Новая версия опенсорсного генератора миров от Хуньянь
В то время как наша ранее выпущенная версия Hunyuan World 1.0 (открытая, облегченная версия, развертываемая на потребительских графических процессорах) была ориентирована на генерацию 3D-миров из текста или изображений с одним ракурсом, Hunyuan World 1.1 значительно расширяет возможности ввода, открывая возможность создания миров из видео и из нескольких ракурсов.
Основные особенности:
Любой ввод (Any Input), максимальная гибкость и точность: гибко интегрирует различные геометрические входные данные (положения камеры, внутренние характеристики, карты глубины) для устранения структурных неоднозначностей и обеспечения геометрически согласованных 3D-результатов.
Любой вывод, результаты SOTA: эта элегантная архитектура одновременно генерирует несколько 3D-представлений: плотные облака точек, карты глубины с несколькими видами, параметры камеры, нормали поверхности и гауссовы сплаты
Скорость: как универсальная feed-forward модель, Hunyuan World 1.1 работает на одном графическом процессоре и предоставляет все 3D-атрибуты за один проход в течение нескольких секунд.
Думаю, что памяти будет жрать очень много, но можно проверить:
Код: https://github.com/Tencent-Hunyuan/HunyuanWorld-Mirror
Проект: https://3d-models.hunyuan.tencent.com/world/
Демо: https://huggingface.co/spaces/tencent/HunyuanWorld-Mirror
Бумага: https://3d-models.hunyuan.tencent.com/world/worldMirror1_0/HYWorld_Mirror_Tech_Report.pdf
Генераторы 3Д-миров появились, как дополнительные эволюционные ветки от видеогенераторов. И если от Гугла у нас уже есть ответочка на эту эволюцию в виде GENIE-3, то вот у OpenAI ничего такого нет (впрочем они и на поле генераторов картинок тормозят).
А Хуньяньский все это еще и опенсорсит!
@cgevent
👍22🔥9❤4👎2
This media is not supported in your browser
VIEW IN TELEGRAM
Как пишет мне Леша Борзых, если Grok Imagine сильно попросить, то он генерит не только приятное, но и полезное.
Самый незашоренный из всех закрытых видеогенераторов.
Муз. трек тут
@cgevent
Самый незашоренный из всех закрытых видеогенераторов.
Муз. трек тут
@cgevent
❤83🔥62👍17😁8😱6👎1🙏1
Вы будете смеяться, но у нас грядет еще один видеогенератор.
Avenger 0.5 Pro занимает (сейчас) второе место в рейтинге Image to Video на Video Arena.
Avenger 0.5 Pro — это последняя версия от Video Rebirth, сингапурского стартапа, занимающегося разработкой базовых моделей для генерации видео, который только что вышел из скрытого режима. Первые упоминания про Avenger 0.5 датируютсяпоздним неолитом июлем 2025.
Video Rebirth пишут, что их следующая модель будет выпущена в ближайшие недели и станет доступна для пользователей.
@cgevent
Avenger 0.5 Pro занимает (сейчас) второе место в рейтинге Image to Video на Video Arena.
Avenger 0.5 Pro — это последняя версия от Video Rebirth, сингапурского стартапа, занимающегося разработкой базовых моделей для генерации видео, который только что вышел из скрытого режима. Первые упоминания про Avenger 0.5 датируются
Video Rebirth пишут, что их следующая модель будет выпущена в ближайшие недели и станет доступна для пользователей.
@cgevent
👍21❤3🔥3😁3😱2
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Работа от Stasy Smith
История вдохновлена аттракционом невиданной щедрости от Krea с безлимитом Sora2. У меня был небольшой рассказик для одного славянофильского ресурса - как раз для Соры, если выбросить всё лишнее. Консистентность - через Реве и Нанобанану. Всё, что не взяла Сора - через Клинг (отрицание людей в стартовом кадре бесит!). Монтаж - CapCut, коррекция через Knedlive, апскейл - Топаз.
Затрачено времени - 3 вечера.
По деньгам - Сора бесплатная, Клинг - ну, где-то на 300 кредитов, Реве - бесплатно, Нанобанана - в креевской подписке.
Хотя реализм я не очень люблю, больше мультики...
Апскейл версия тут
@cgevent
Работа от Stasy Smith
История вдохновлена аттракционом невиданной щедрости от Krea с безлимитом Sora2. У меня был небольшой рассказик для одного славянофильского ресурса - как раз для Соры, если выбросить всё лишнее. Консистентность - через Реве и Нанобанану. Всё, что не взяла Сора - через Клинг (отрицание людей в стартовом кадре бесит!). Монтаж - CapCut, коррекция через Knedlive, апскейл - Топаз.
Затрачено времени - 3 вечера.
По деньгам - Сора бесплатная, Клинг - ну, где-то на 300 кредитов, Реве - бесплатно, Нанобанана - в креевской подписке.
Хотя реализм я не очень люблю, больше мультики...
Апскейл версия тут
@cgevent
👎35👍20😁15❤5
Новая версия шустрого видеогенератора LTX-2
Кстати, уже есть на fal.ai
Три версии видеомодели:
- Fast
- Pro
- Ultra (coming soon)
text-to-video and image-to-video
LTX-2 generates video in native 4K(штааа?), 1440p, 1080p, and 720p
No upscaling. No post hacks. Just clean, production-ready output. Не верю!
audio and lipsync включены
генерация в 25 или 50(!) fps.
6,8,10 секунд, скоро будет 15.
Пока только лежачие видео, портрет потом.
$0.04 per second
Ну и как водится пишут, что они самыя быстрыя в мире видеогенерильщики.
Пробуем на Fal.ai и конечно тут:
https://ltx.studio/
И кстати:
Full model weights and tooling will be released to the open-source community on GitHub in late November 2025, enabling developers, researchers, and studios to experiment, fine-tune, and build freely.
@cgevent
Кстати, уже есть на fal.ai
Три версии видеомодели:
- Fast
- Pro
- Ultra (coming soon)
text-to-video and image-to-video
LTX-2 generates video in native 4K(штааа?), 1440p, 1080p, and 720p
No upscaling. No post hacks. Just clean, production-ready output. Не верю!
audio and lipsync включены
генерация в 25 или 50(!) fps.
6,8,10 секунд, скоро будет 15.
Пока только лежачие видео, портрет потом.
$0.04 per second
Ну и как водится пишут, что они самыя быстрыя в мире видеогенерильщики.
Пробуем на Fal.ai и конечно тут:
https://ltx.studio/
И кстати:
Full model weights and tooling will be released to the open-source community on GitHub in late November 2025, enabling developers, researchers, and studios to experiment, fine-tune, and build freely.
@cgevent
👍33❤4
This media is not supported in your browser
VIEW IN TELEGRAM
На этот раз ComfyUI покусал Freepik.
И они, вслед за Runway тизерят нодовый интерфейс. Причем на видео - сборка сцены из ингредиентов и генерация видео.
Интересно, что первыми (после Комфи) были glif.app - у них до сих пор самый мощный набор функционала, но они не взлетают до небес, ибо сразу пришли с этими вот всеми нодами.
А когда большие игроки, с хорошей юзер-базой начинают подсовывать пользователям лапшичный суп - это уже выглядит как расширение возможностей.
Очень жду когда Гугл бахнет что-то подобное, и тогда вопрос прихода макаронного монстра в область генерации можно считать закрытым.
А еще Фрипик бахнул Magnific Precision v2 с тремя режимами:
- Sublime
- Photo
- Photo Denoiser
Кто подписан, го тестировать.
@cgevent
И они, вслед за Runway тизерят нодовый интерфейс. Причем на видео - сборка сцены из ингредиентов и генерация видео.
Интересно, что первыми (после Комфи) были glif.app - у них до сих пор самый мощный набор функционала, но они не взлетают до небес, ибо сразу пришли с этими вот всеми нодами.
А когда большие игроки, с хорошей юзер-базой начинают подсовывать пользователям лапшичный суп - это уже выглядит как расширение возможностей.
Очень жду когда Гугл бахнет что-то подобное, и тогда вопрос прихода макаронного монстра в область генерации можно считать закрытым.
А еще Фрипик бахнул Magnific Precision v2 с тремя режимами:
- Sublime
- Photo
- Photo Denoiser
Кто подписан, го тестировать.
@cgevent
🔥8👍6❤2
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs Voice Isolator
Eleven Labs выпустил довольно интересный сайд продукт - чистка звука на видео.
Это прямой конкурент Adobe Podcast и Nvidia Broadcast.
Поглядите видео, там все понятно.
Доступен в ElevenLabs Creative Platform и также в Studio (да у них есть наномонтажка)
На входе видео - на выходе видео с чистым звуком.
Откопал цены:
10 минут в месяц бесплатно
30 минут за 5 долларов в месяц
100 - за 11 долларов.
Подробный гайд:
https://youtu.be/QsgYv7-lfCM
Много красивых слов тут:
https://elevenlabs.io/voice-isolator
@cgevent
Eleven Labs выпустил довольно интересный сайд продукт - чистка звука на видео.
Это прямой конкурент Adobe Podcast и Nvidia Broadcast.
Поглядите видео, там все понятно.
Доступен в ElevenLabs Creative Platform и также в Studio (да у них есть наномонтажка)
На входе видео - на выходе видео с чистым звуком.
Откопал цены:
10 минут в месяц бесплатно
30 минут за 5 долларов в месяц
100 - за 11 долларов.
Подробный гайд:
https://youtu.be/QsgYv7-lfCM
Много красивых слов тут:
https://elevenlabs.io/voice-isolator
@cgevent
🔥37👍15❤11😱1
