Вы будете смеяться, но у нас грядет еще один видеогенератор.
Avenger 0.5 Pro занимает (сейчас) второе место в рейтинге Image to Video на Video Arena.
Avenger 0.5 Pro — это последняя версия от Video Rebirth, сингапурского стартапа, занимающегося разработкой базовых моделей для генерации видео, который только что вышел из скрытого режима. Первые упоминания про Avenger 0.5 датируютсяпоздним неолитом июлем 2025.
Video Rebirth пишут, что их следующая модель будет выпущена в ближайшие недели и станет доступна для пользователей.
@cgevent
Avenger 0.5 Pro занимает (сейчас) второе место в рейтинге Image to Video на Video Arena.
Avenger 0.5 Pro — это последняя версия от Video Rebirth, сингапурского стартапа, занимающегося разработкой базовых моделей для генерации видео, который только что вышел из скрытого режима. Первые упоминания про Avenger 0.5 датируются
Video Rebirth пишут, что их следующая модель будет выпущена в ближайшие недели и станет доступна для пользователей.
@cgevent
👍21❤3🔥3😁3😱2
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Работа от Stasy Smith
История вдохновлена аттракционом невиданной щедрости от Krea с безлимитом Sora2. У меня был небольшой рассказик для одного славянофильского ресурса - как раз для Соры, если выбросить всё лишнее. Консистентность - через Реве и Нанобанану. Всё, что не взяла Сора - через Клинг (отрицание людей в стартовом кадре бесит!). Монтаж - CapCut, коррекция через Knedlive, апскейл - Топаз.
Затрачено времени - 3 вечера.
По деньгам - Сора бесплатная, Клинг - ну, где-то на 300 кредитов, Реве - бесплатно, Нанобанана - в креевской подписке.
Хотя реализм я не очень люблю, больше мультики...
Апскейл версия тут
@cgevent
Работа от Stasy Smith
История вдохновлена аттракционом невиданной щедрости от Krea с безлимитом Sora2. У меня был небольшой рассказик для одного славянофильского ресурса - как раз для Соры, если выбросить всё лишнее. Консистентность - через Реве и Нанобанану. Всё, что не взяла Сора - через Клинг (отрицание людей в стартовом кадре бесит!). Монтаж - CapCut, коррекция через Knedlive, апскейл - Топаз.
Затрачено времени - 3 вечера.
По деньгам - Сора бесплатная, Клинг - ну, где-то на 300 кредитов, Реве - бесплатно, Нанобанана - в креевской подписке.
Хотя реализм я не очень люблю, больше мультики...
Апскейл версия тут
@cgevent
👎35👍20😁15❤5
Новая версия шустрого видеогенератора LTX-2
Кстати, уже есть на fal.ai
Три версии видеомодели:
- Fast
- Pro
- Ultra (coming soon)
text-to-video and image-to-video
LTX-2 generates video in native 4K(штааа?), 1440p, 1080p, and 720p
No upscaling. No post hacks. Just clean, production-ready output. Не верю!
audio and lipsync включены
генерация в 25 или 50(!) fps.
6,8,10 секунд, скоро будет 15.
Пока только лежачие видео, портрет потом.
$0.04 per second
Ну и как водится пишут, что они самыя быстрыя в мире видеогенерильщики.
Пробуем на Fal.ai и конечно тут:
https://ltx.studio/
И кстати:
Full model weights and tooling will be released to the open-source community on GitHub in late November 2025, enabling developers, researchers, and studios to experiment, fine-tune, and build freely.
@cgevent
Кстати, уже есть на fal.ai
Три версии видеомодели:
- Fast
- Pro
- Ultra (coming soon)
text-to-video and image-to-video
LTX-2 generates video in native 4K(штааа?), 1440p, 1080p, and 720p
No upscaling. No post hacks. Just clean, production-ready output. Не верю!
audio and lipsync включены
генерация в 25 или 50(!) fps.
6,8,10 секунд, скоро будет 15.
Пока только лежачие видео, портрет потом.
$0.04 per second
Ну и как водится пишут, что они самыя быстрыя в мире видеогенерильщики.
Пробуем на Fal.ai и конечно тут:
https://ltx.studio/
И кстати:
Full model weights and tooling will be released to the open-source community on GitHub in late November 2025, enabling developers, researchers, and studios to experiment, fine-tune, and build freely.
@cgevent
👍33❤4
This media is not supported in your browser
VIEW IN TELEGRAM
На этот раз ComfyUI покусал Freepik.
И они, вслед за Runway тизерят нодовый интерфейс. Причем на видео - сборка сцены из ингредиентов и генерация видео.
Интересно, что первыми (после Комфи) были glif.app - у них до сих пор самый мощный набор функционала, но они не взлетают до небес, ибо сразу пришли с этими вот всеми нодами.
А когда большие игроки, с хорошей юзер-базой начинают подсовывать пользователям лапшичный суп - это уже выглядит как расширение возможностей.
Очень жду когда Гугл бахнет что-то подобное, и тогда вопрос прихода макаронного монстра в область генерации можно считать закрытым.
А еще Фрипик бахнул Magnific Precision v2 с тремя режимами:
- Sublime
- Photo
- Photo Denoiser
Кто подписан, го тестировать.
@cgevent
И они, вслед за Runway тизерят нодовый интерфейс. Причем на видео - сборка сцены из ингредиентов и генерация видео.
Интересно, что первыми (после Комфи) были glif.app - у них до сих пор самый мощный набор функционала, но они не взлетают до небес, ибо сразу пришли с этими вот всеми нодами.
А когда большие игроки, с хорошей юзер-базой начинают подсовывать пользователям лапшичный суп - это уже выглядит как расширение возможностей.
Очень жду когда Гугл бахнет что-то подобное, и тогда вопрос прихода макаронного монстра в область генерации можно считать закрытым.
А еще Фрипик бахнул Magnific Precision v2 с тремя режимами:
- Sublime
- Photo
- Photo Denoiser
Кто подписан, го тестировать.
@cgevent
🔥8👍6❤2
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs Voice Isolator
Eleven Labs выпустил довольно интересный сайд продукт - чистка звука на видео.
Это прямой конкурент Adobe Podcast и Nvidia Broadcast.
Поглядите видео, там все понятно.
Доступен в ElevenLabs Creative Platform и также в Studio (да у них есть наномонтажка)
На входе видео - на выходе видео с чистым звуком.
Откопал цены:
10 минут в месяц бесплатно
30 минут за 5 долларов в месяц
100 - за 11 долларов.
Подробный гайд:
https://youtu.be/QsgYv7-lfCM
Много красивых слов тут:
https://elevenlabs.io/voice-isolator
@cgevent
Eleven Labs выпустил довольно интересный сайд продукт - чистка звука на видео.
Это прямой конкурент Adobe Podcast и Nvidia Broadcast.
Поглядите видео, там все понятно.
Доступен в ElevenLabs Creative Platform и также в Studio (да у них есть наномонтажка)
На входе видео - на выходе видео с чистым звуком.
Откопал цены:
10 минут в месяц бесплатно
30 минут за 5 долларов в месяц
100 - за 11 долларов.
Подробный гайд:
https://youtu.be/QsgYv7-lfCM
Много красивых слов тут:
https://elevenlabs.io/voice-isolator
@cgevent
🔥37👍15❤11😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Samsung Galaxy XR
Самсунг бахнули свою лыжную маску.
Смотрим и сравниваем рекламу от Эппле и Самсунжика.
Потом думаем и сравниваем области применения и пользовательские сценарии.
Получается все то же самое, но за 1800 долларов.
Смотреть кино за 1800 долларов - я пас.
Непонятно одно, зная, что Эппле полностью обосралась со своей Vision Pro, Самсунг выпускает аналогичный продукт, без радикальной отстройки по фичам и сценариям. В той же ценовой нише. Зачем?
Чтобы тоже обосраться не снимая свитер?
@cgevent
Самсунг бахнули свою лыжную маску.
Смотрим и сравниваем рекламу от Эппле и Самсунжика.
Потом думаем и сравниваем области применения и пользовательские сценарии.
Получается все то же самое, но за 1800 долларов.
Смотреть кино за 1800 долларов - я пас.
Непонятно одно, зная, что Эппле полностью обосралась со своей Vision Pro, Самсунг выпускает аналогичный продукт, без радикальной отстройки по фичам и сценариям. В той же ценовой нише. Зачем?
Чтобы тоже обосраться не снимая свитер?
@cgevent
😁43👍8❤4
This media is not supported in your browser
VIEW IN TELEGRAM
А вот это интересная утечка от Гугла.
На видео - версия GENIE 3 (генератора миров), которая позволяет пользователям создавать свои миры, и не только окружение, а еще и персонажей. Не уверен, что это фейк.
Забавные надписи внизу:
после создания мира у вас есть 60 секунд, чтобы походить по нему (надпись сверху: ошибка, требуется фидбек от пользователя)
каждая сессия может быть сохранена как видео и пошарена в сети.
Думаю до конца года услышим апдейты от Гугла...
@cgevent
На видео - версия GENIE 3 (генератора миров), которая позволяет пользователям создавать свои миры, и не только окружение, а еще и персонажей. Не уверен, что это фейк.
Забавные надписи внизу:
после создания мира у вас есть 60 секунд, чтобы походить по нему (надпись сверху: ошибка, требуется фидбек от пользователя)
каждая сессия может быть сохранена как видео и пошарена в сети.
Думаю до конца года услышим апдейты от Гугла...
@cgevent
👍15❤7🔥3😁2
Уже писал про 3Д-генератор hitem3D.
Он дает самую, пожалуй, высокодетализированную сетку.
Так вот, у них новая версия с дивным названием v1.5_1536 Pro и детализация еще выше.
Пробуем тут: https://www.hitem3d.ai/
Вроде есть бесплатные кредиты.
@cgevent
Он дает самую, пожалуй, высокодетализированную сетку.
Так вот, у них новая версия с дивным названием v1.5_1536 Pro и детализация еще выше.
Пробуем тут: https://www.hitem3d.ai/
Вроде есть бесплатные кредиты.
@cgevent
🔥25👍7❤6
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
🎸 Автор: Музыкант и видеомейкер Станислав Кузин
Видео лучше смотреть в качестве тут
🛠 Эксперимент: создание рок-клипа с нуля с помощью нейросетей
⏱️ Срок: около 2 месяцев (с перерывами и переделками)
💡 Как всё началось:
Около 7 лет назад я написал текст песни — как это часто бывает, отложил «до лучших времён». Недавно, просматривая старые записи, я решил перевести его на английский — и неожиданно в голове зазвучала новая мелодия. Так началась цепочка событий, которая закончилась полноценным клипом в стиле альтернативного рока, созданным почти полностью при помощи ИИ.
🎶 Работа с музыкой:
Начал с Suno — напевал слова, менял промпты, искал баланс между живым звучанием и нужным настроением. После примерно 500 итераций получился тот самый вариант, который «попал в жилу».
Чтобы сохранить индивидуальность, я купил недорогой, но качественный микрофон FIFINE и в kits.ai создал свой голосовой профиль, спев 10+ песен. Дальше — ручная работа: сведение, коррекция тона и тонкая подгонка вокала под минус в Audacity. В итоге получилось звучание, которое меня устроило.
🎬 Работа с видео:
Сценарий клипа переписывался около 10 раз — искал ту динамику, которая совпадёт с ритмом трека и эмоциональной дугой текста.
Основная генерация шла через OpenArt и Wan.video — я тестировал версии модели Wan 2.1, 2.2 и 2.5, каждая давала свой характер и возможности по движению камеры. Параллельно пробовал Minimax hailou02, Kling (от 2.1 до 2.5) и Pixverse 5 — каждая модель добавляла что-то своё: где-то лучше освещение, где-то движение, где-то пластика.
Чтобы собрать финальный 3,5-минутный ролик, я сгенерировал около 5 часов видео. Многие сцены приходилось собирать покадрово, стыкуя отдельные фрагменты, вычищая артефакты и дорабатывая эмоции персонажей.
📌 Инструменты и этапы:
• Музыка: Suno
• Голос: kits.ai
• Сведение и мастеринг : Audacity
• Видеогенерация: Wan.video (2.1–2.5), Minimax hailou02, Kling (2.1–2.5), Pixverse 5
• Финальный монтаж видео : OpenShot Video Editor
• Тесты, апскейлы и цветкор: вручную, сцена за сценой
🎧 Жанр: Альтернативный / Рок
💬 Идея:
Проверить, можно ли вдохнуть жизнь в старый текст и превратить его в современный клип, используя только нейросети и личное чувство ритма. Без студии, без команды, без бюджета — только идея, технологии и упрямство.
🚀 Результат:
Финальный клип стал миксом живой энергии и цифрового безумия — где нейросети не заменяют творчество, а расширяют его. Всё звучит и выглядит именно так, как когда-то представлялось «в голове» — только теперь это реально можно услышать и увидеть.
💰 Затраты: в основном на подписки ( 5 тысяч рублей ) и микрофон (в районе 3 тысяч рублей на Ozon).
📅 Итог: Полный цикл — от старого черновика песни до готового ИИ-рок-клипа длиной 3:30, собранного из 5 часов сгенерированного видео и сотен проб промптов - около 80 часов на первый трек.
Приоткрою небольшую завесу - что следующий трек, до Пререлиз версии занял около 6 часов ( и думаю не более 12 часов до официального релиза с полным клипом ). Считаю, что быстрее чем за 10 человеко-часов на качественный клип / песню создать в 2025 году невозможно.
@cgevent
🎸 Автор: Музыкант и видеомейкер Станислав Кузин
Видео лучше смотреть в качестве тут
🛠 Эксперимент: создание рок-клипа с нуля с помощью нейросетей
⏱️ Срок: около 2 месяцев (с перерывами и переделками)
💡 Как всё началось:
Около 7 лет назад я написал текст песни — как это часто бывает, отложил «до лучших времён». Недавно, просматривая старые записи, я решил перевести его на английский — и неожиданно в голове зазвучала новая мелодия. Так началась цепочка событий, которая закончилась полноценным клипом в стиле альтернативного рока, созданным почти полностью при помощи ИИ.
🎶 Работа с музыкой:
Начал с Suno — напевал слова, менял промпты, искал баланс между живым звучанием и нужным настроением. После примерно 500 итераций получился тот самый вариант, который «попал в жилу».
Чтобы сохранить индивидуальность, я купил недорогой, но качественный микрофон FIFINE и в kits.ai создал свой голосовой профиль, спев 10+ песен. Дальше — ручная работа: сведение, коррекция тона и тонкая подгонка вокала под минус в Audacity. В итоге получилось звучание, которое меня устроило.
🎬 Работа с видео:
Сценарий клипа переписывался около 10 раз — искал ту динамику, которая совпадёт с ритмом трека и эмоциональной дугой текста.
Основная генерация шла через OpenArt и Wan.video — я тестировал версии модели Wan 2.1, 2.2 и 2.5, каждая давала свой характер и возможности по движению камеры. Параллельно пробовал Minimax hailou02, Kling (от 2.1 до 2.5) и Pixverse 5 — каждая модель добавляла что-то своё: где-то лучше освещение, где-то движение, где-то пластика.
Чтобы собрать финальный 3,5-минутный ролик, я сгенерировал около 5 часов видео. Многие сцены приходилось собирать покадрово, стыкуя отдельные фрагменты, вычищая артефакты и дорабатывая эмоции персонажей.
📌 Инструменты и этапы:
• Музыка: Suno
• Голос: kits.ai
• Сведение и мастеринг : Audacity
• Видеогенерация: Wan.video (2.1–2.5), Minimax hailou02, Kling (2.1–2.5), Pixverse 5
• Финальный монтаж видео : OpenShot Video Editor
• Тесты, апскейлы и цветкор: вручную, сцена за сценой
🎧 Жанр: Альтернативный / Рок
💬 Идея:
Проверить, можно ли вдохнуть жизнь в старый текст и превратить его в современный клип, используя только нейросети и личное чувство ритма. Без студии, без команды, без бюджета — только идея, технологии и упрямство.
🚀 Результат:
Финальный клип стал миксом живой энергии и цифрового безумия — где нейросети не заменяют творчество, а расширяют его. Всё звучит и выглядит именно так, как когда-то представлялось «в голове» — только теперь это реально можно услышать и увидеть.
💰 Затраты: в основном на подписки ( 5 тысяч рублей ) и микрофон (в районе 3 тысяч рублей на Ozon).
📅 Итог: Полный цикл — от старого черновика песни до готового ИИ-рок-клипа длиной 3:30, собранного из 5 часов сгенерированного видео и сотен проб промптов - около 80 часов на первый трек.
Приоткрою небольшую завесу - что следующий трек, до Пререлиз версии занял около 6 часов ( и думаю не более 12 часов до официального релиза с полным клипом ). Считаю, что быстрее чем за 10 человеко-часов на качественный клип / песню создать в 2025 году невозможно.
@cgevent
👎60👍15❤5🔥2🙏1
Генератор музыки от OpenAI
Довольно огненная новость
Согласно источникам в сети, OpenAI разрабатывает генератор музыки. Причем подходит к делу столь основательно, что сотрудничает со студентами Джульярдской школы для аннотирования нотных партитур, как сообщают два человека, знакомые с проектом.
Джульярдская школа (Juilliard School) — одно из крупнейших американских высших учебных заведений в области искусства и музыки. Расположена в Нью-Йорке.
OpenAI планирует создание инструментов, которые позволяют пользователям генерировать музыку с помощью текстовых и аудио-промптов, например, просить ИИ добавить гитару к вокальной дорожке. Дополнительно этот инструмент мог бы также позволить добавлять музыку к видео.
OpenAI, вероятно, потребуется заключить соглашения с музыкальными лейблами, чтобы избежать судебных исков, поскольку Американская ассоциация звукозаписывающих компаний, представляющая Universal Music Group, Sony и Warner Bros., уже подала в суд на Suno и Udio за обучение своего ИИ на песнях, защищенных авторским правом, без разрешения или оплаты.
Хотя Сору вон научили без всяких соглашений и ничего.
Лишь бы не получилось, как с Адобченко, который кичился тем, что их модели для генерации картинок и видео все из себя безопасные с точки зрения авторского права, а теперь вынуждены добавлять к себе в экосистему все остальные модели с рынка, превращаясь в агрегатор моделей, ибо весь из себя безопасный Firefly никак не хочет взлетать.
Но новость, конечно, огонь.
@cgevent
Довольно огненная новость
Согласно источникам в сети, OpenAI разрабатывает генератор музыки. Причем подходит к делу столь основательно, что сотрудничает со студентами Джульярдской школы для аннотирования нотных партитур, как сообщают два человека, знакомые с проектом.
Джульярдская школа (Juilliard School) — одно из крупнейших американских высших учебных заведений в области искусства и музыки. Расположена в Нью-Йорке.
OpenAI планирует создание инструментов, которые позволяют пользователям генерировать музыку с помощью текстовых и аудио-промптов, например, просить ИИ добавить гитару к вокальной дорожке. Дополнительно этот инструмент мог бы также позволить добавлять музыку к видео.
OpenAI, вероятно, потребуется заключить соглашения с музыкальными лейблами, чтобы избежать судебных исков, поскольку Американская ассоциация звукозаписывающих компаний, представляющая Universal Music Group, Sony и Warner Bros., уже подала в суд на Suno и Udio за обучение своего ИИ на песнях, защищенных авторским правом, без разрешения или оплаты.
Хотя Сору вон научили без всяких соглашений и ничего.
Лишь бы не получилось, как с Адобченко, который кичился тем, что их модели для генерации картинок и видео все из себя безопасные с точки зрения авторского права, а теперь вынуждены добавлять к себе в экосистему все остальные модели с рынка, превращаясь в агрегатор моделей, ибо весь из себя безопасный Firefly никак не хочет взлетать.
Но новость, конечно, огонь.
@cgevent
❤15🔥12👍8😁2😱2👎1
Midjourney API?
Либо я все проспал, либо действительно свежая новость, ведь Midjourney появился на WavespeedAI - агрегаторе моделей по API (либо они используют говно и палки, чтобы выкликать Midjourney).
Список параметров забавный, но никаких sref там указать нельзя (см скрин).
И дорого. Очень дорого. Это шутка такая - 10 центов за картинку?
При этом с текстом на картинках не просто беда, а треш и угар. Да и в целом выглядит как предыдушее поколение моделей, коим оно, собственно, и является.
Глядите тут:
https://wavespeed.ai/models/midjourney/text-to-image
@cgevent
Либо я все проспал, либо действительно свежая новость, ведь Midjourney появился на WavespeedAI - агрегаторе моделей по API (либо они используют говно и палки, чтобы выкликать Midjourney).
Список параметров забавный, но никаких sref там указать нельзя (см скрин).
И дорого. Очень дорого. Это шутка такая - 10 центов за картинку?
При этом с текстом на картинках не просто беда, а треш и угар. Да и в целом выглядит как предыдушее поколение моделей, коим оно, собственно, и является.
Глядите тут:
https://wavespeed.ai/models/midjourney/text-to-image
@cgevent
👍11❤4😁1
