This media is not supported in your browser
VIEW IN TELEGRAM
На этот раз ComfyUI покусал Freepik.
И они, вслед за Runway тизерят нодовый интерфейс. Причем на видео - сборка сцены из ингредиентов и генерация видео.
Интересно, что первыми (после Комфи) были glif.app - у них до сих пор самый мощный набор функционала, но они не взлетают до небес, ибо сразу пришли с этими вот всеми нодами.
А когда большие игроки, с хорошей юзер-базой начинают подсовывать пользователям лапшичный суп - это уже выглядит как расширение возможностей.
Очень жду когда Гугл бахнет что-то подобное, и тогда вопрос прихода макаронного монстра в область генерации можно считать закрытым.
А еще Фрипик бахнул Magnific Precision v2 с тремя режимами:
- Sublime
- Photo
- Photo Denoiser
Кто подписан, го тестировать.
@cgevent
И они, вслед за Runway тизерят нодовый интерфейс. Причем на видео - сборка сцены из ингредиентов и генерация видео.
Интересно, что первыми (после Комфи) были glif.app - у них до сих пор самый мощный набор функционала, но они не взлетают до небес, ибо сразу пришли с этими вот всеми нодами.
А когда большие игроки, с хорошей юзер-базой начинают подсовывать пользователям лапшичный суп - это уже выглядит как расширение возможностей.
Очень жду когда Гугл бахнет что-то подобное, и тогда вопрос прихода макаронного монстра в область генерации можно считать закрытым.
А еще Фрипик бахнул Magnific Precision v2 с тремя режимами:
- Sublime
- Photo
- Photo Denoiser
Кто подписан, го тестировать.
@cgevent
🔥8👍6❤2
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs Voice Isolator
Eleven Labs выпустил довольно интересный сайд продукт - чистка звука на видео.
Это прямой конкурент Adobe Podcast и Nvidia Broadcast.
Поглядите видео, там все понятно.
Доступен в ElevenLabs Creative Platform и также в Studio (да у них есть наномонтажка)
На входе видео - на выходе видео с чистым звуком.
Откопал цены:
10 минут в месяц бесплатно
30 минут за 5 долларов в месяц
100 - за 11 долларов.
Подробный гайд:
https://youtu.be/QsgYv7-lfCM
Много красивых слов тут:
https://elevenlabs.io/voice-isolator
@cgevent
Eleven Labs выпустил довольно интересный сайд продукт - чистка звука на видео.
Это прямой конкурент Adobe Podcast и Nvidia Broadcast.
Поглядите видео, там все понятно.
Доступен в ElevenLabs Creative Platform и также в Studio (да у них есть наномонтажка)
На входе видео - на выходе видео с чистым звуком.
Откопал цены:
10 минут в месяц бесплатно
30 минут за 5 долларов в месяц
100 - за 11 долларов.
Подробный гайд:
https://youtu.be/QsgYv7-lfCM
Много красивых слов тут:
https://elevenlabs.io/voice-isolator
@cgevent
🔥36👍15❤11😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Samsung Galaxy XR
Самсунг бахнули свою лыжную маску.
Смотрим и сравниваем рекламу от Эппле и Самсунжика.
Потом думаем и сравниваем области применения и пользовательские сценарии.
Получается все то же самое, но за 1800 долларов.
Смотреть кино за 1800 долларов - я пас.
Непонятно одно, зная, что Эппле полностью обосралась со своей Vision Pro, Самсунг выпускает аналогичный продукт, без радикальной отстройки по фичам и сценариям. В той же ценовой нише. Зачем?
Чтобы тоже обосраться не снимая свитер?
@cgevent
Самсунг бахнули свою лыжную маску.
Смотрим и сравниваем рекламу от Эппле и Самсунжика.
Потом думаем и сравниваем области применения и пользовательские сценарии.
Получается все то же самое, но за 1800 долларов.
Смотреть кино за 1800 долларов - я пас.
Непонятно одно, зная, что Эппле полностью обосралась со своей Vision Pro, Самсунг выпускает аналогичный продукт, без радикальной отстройки по фичам и сценариям. В той же ценовой нише. Зачем?
Чтобы тоже обосраться не снимая свитер?
@cgevent
😁43👍8❤4
This media is not supported in your browser
VIEW IN TELEGRAM
А вот это интересная утечка от Гугла.
На видео - версия GENIE 3 (генератора миров), которая позволяет пользователям создавать свои миры, и не только окружение, а еще и персонажей. Не уверен, что это фейк.
Забавные надписи внизу:
после создания мира у вас есть 60 секунд, чтобы походить по нему (надпись сверху: ошибка, требуется фидбек от пользователя)
каждая сессия может быть сохранена как видео и пошарена в сети.
Думаю до конца года услышим апдейты от Гугла...
@cgevent
На видео - версия GENIE 3 (генератора миров), которая позволяет пользователям создавать свои миры, и не только окружение, а еще и персонажей. Не уверен, что это фейк.
Забавные надписи внизу:
после создания мира у вас есть 60 секунд, чтобы походить по нему (надпись сверху: ошибка, требуется фидбек от пользователя)
каждая сессия может быть сохранена как видео и пошарена в сети.
Думаю до конца года услышим апдейты от Гугла...
@cgevent
👍15❤7🔥3😁2
Уже писал про 3Д-генератор hitem3D.
Он дает самую, пожалуй, высокодетализированную сетку.
Так вот, у них новая версия с дивным названием v1.5_1536 Pro и детализация еще выше.
Пробуем тут: https://www.hitem3d.ai/
Вроде есть бесплатные кредиты.
@cgevent
Он дает самую, пожалуй, высокодетализированную сетку.
Так вот, у них новая версия с дивным названием v1.5_1536 Pro и детализация еще выше.
Пробуем тут: https://www.hitem3d.ai/
Вроде есть бесплатные кредиты.
@cgevent
🔥25👍7❤6
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
🎸 Автор: Музыкант и видеомейкер Станислав Кузин
Видео лучше смотреть в качестве тут
🛠 Эксперимент: создание рок-клипа с нуля с помощью нейросетей
⏱️ Срок: около 2 месяцев (с перерывами и переделками)
💡 Как всё началось:
Около 7 лет назад я написал текст песни — как это часто бывает, отложил «до лучших времён». Недавно, просматривая старые записи, я решил перевести его на английский — и неожиданно в голове зазвучала новая мелодия. Так началась цепочка событий, которая закончилась полноценным клипом в стиле альтернативного рока, созданным почти полностью при помощи ИИ.
🎶 Работа с музыкой:
Начал с Suno — напевал слова, менял промпты, искал баланс между живым звучанием и нужным настроением. После примерно 500 итераций получился тот самый вариант, который «попал в жилу».
Чтобы сохранить индивидуальность, я купил недорогой, но качественный микрофон FIFINE и в kits.ai создал свой голосовой профиль, спев 10+ песен. Дальше — ручная работа: сведение, коррекция тона и тонкая подгонка вокала под минус в Audacity. В итоге получилось звучание, которое меня устроило.
🎬 Работа с видео:
Сценарий клипа переписывался около 10 раз — искал ту динамику, которая совпадёт с ритмом трека и эмоциональной дугой текста.
Основная генерация шла через OpenArt и Wan.video — я тестировал версии модели Wan 2.1, 2.2 и 2.5, каждая давала свой характер и возможности по движению камеры. Параллельно пробовал Minimax hailou02, Kling (от 2.1 до 2.5) и Pixverse 5 — каждая модель добавляла что-то своё: где-то лучше освещение, где-то движение, где-то пластика.
Чтобы собрать финальный 3,5-минутный ролик, я сгенерировал около 5 часов видео. Многие сцены приходилось собирать покадрово, стыкуя отдельные фрагменты, вычищая артефакты и дорабатывая эмоции персонажей.
📌 Инструменты и этапы:
• Музыка: Suno
• Голос: kits.ai
• Сведение и мастеринг : Audacity
• Видеогенерация: Wan.video (2.1–2.5), Minimax hailou02, Kling (2.1–2.5), Pixverse 5
• Финальный монтаж видео : OpenShot Video Editor
• Тесты, апскейлы и цветкор: вручную, сцена за сценой
🎧 Жанр: Альтернативный / Рок
💬 Идея:
Проверить, можно ли вдохнуть жизнь в старый текст и превратить его в современный клип, используя только нейросети и личное чувство ритма. Без студии, без команды, без бюджета — только идея, технологии и упрямство.
🚀 Результат:
Финальный клип стал миксом живой энергии и цифрового безумия — где нейросети не заменяют творчество, а расширяют его. Всё звучит и выглядит именно так, как когда-то представлялось «в голове» — только теперь это реально можно услышать и увидеть.
💰 Затраты: в основном на подписки ( 5 тысяч рублей ) и микрофон (в районе 3 тысяч рублей на Ozon).
📅 Итог: Полный цикл — от старого черновика песни до готового ИИ-рок-клипа длиной 3:30, собранного из 5 часов сгенерированного видео и сотен проб промптов - около 80 часов на первый трек.
Приоткрою небольшую завесу - что следующий трек, до Пререлиз версии занял около 6 часов ( и думаю не более 12 часов до официального релиза с полным клипом ). Считаю, что быстрее чем за 10 человеко-часов на качественный клип / песню создать в 2025 году невозможно.
@cgevent
🎸 Автор: Музыкант и видеомейкер Станислав Кузин
Видео лучше смотреть в качестве тут
🛠 Эксперимент: создание рок-клипа с нуля с помощью нейросетей
⏱️ Срок: около 2 месяцев (с перерывами и переделками)
💡 Как всё началось:
Около 7 лет назад я написал текст песни — как это часто бывает, отложил «до лучших времён». Недавно, просматривая старые записи, я решил перевести его на английский — и неожиданно в голове зазвучала новая мелодия. Так началась цепочка событий, которая закончилась полноценным клипом в стиле альтернативного рока, созданным почти полностью при помощи ИИ.
🎶 Работа с музыкой:
Начал с Suno — напевал слова, менял промпты, искал баланс между живым звучанием и нужным настроением. После примерно 500 итераций получился тот самый вариант, который «попал в жилу».
Чтобы сохранить индивидуальность, я купил недорогой, но качественный микрофон FIFINE и в kits.ai создал свой голосовой профиль, спев 10+ песен. Дальше — ручная работа: сведение, коррекция тона и тонкая подгонка вокала под минус в Audacity. В итоге получилось звучание, которое меня устроило.
🎬 Работа с видео:
Сценарий клипа переписывался около 10 раз — искал ту динамику, которая совпадёт с ритмом трека и эмоциональной дугой текста.
Основная генерация шла через OpenArt и Wan.video — я тестировал версии модели Wan 2.1, 2.2 и 2.5, каждая давала свой характер и возможности по движению камеры. Параллельно пробовал Minimax hailou02, Kling (от 2.1 до 2.5) и Pixverse 5 — каждая модель добавляла что-то своё: где-то лучше освещение, где-то движение, где-то пластика.
Чтобы собрать финальный 3,5-минутный ролик, я сгенерировал около 5 часов видео. Многие сцены приходилось собирать покадрово, стыкуя отдельные фрагменты, вычищая артефакты и дорабатывая эмоции персонажей.
📌 Инструменты и этапы:
• Музыка: Suno
• Голос: kits.ai
• Сведение и мастеринг : Audacity
• Видеогенерация: Wan.video (2.1–2.5), Minimax hailou02, Kling (2.1–2.5), Pixverse 5
• Финальный монтаж видео : OpenShot Video Editor
• Тесты, апскейлы и цветкор: вручную, сцена за сценой
🎧 Жанр: Альтернативный / Рок
💬 Идея:
Проверить, можно ли вдохнуть жизнь в старый текст и превратить его в современный клип, используя только нейросети и личное чувство ритма. Без студии, без команды, без бюджета — только идея, технологии и упрямство.
🚀 Результат:
Финальный клип стал миксом живой энергии и цифрового безумия — где нейросети не заменяют творчество, а расширяют его. Всё звучит и выглядит именно так, как когда-то представлялось «в голове» — только теперь это реально можно услышать и увидеть.
💰 Затраты: в основном на подписки ( 5 тысяч рублей ) и микрофон (в районе 3 тысяч рублей на Ozon).
📅 Итог: Полный цикл — от старого черновика песни до готового ИИ-рок-клипа длиной 3:30, собранного из 5 часов сгенерированного видео и сотен проб промптов - около 80 часов на первый трек.
Приоткрою небольшую завесу - что следующий трек, до Пререлиз версии занял около 6 часов ( и думаю не более 12 часов до официального релиза с полным клипом ). Считаю, что быстрее чем за 10 человеко-часов на качественный клип / песню создать в 2025 году невозможно.
@cgevent
👎58👍15❤5🔥2🙏1
Генератор музыки от OpenAI
Довольно огненная новость
Согласно источникам в сети, OpenAI разрабатывает генератор музыки. Причем подходит к делу столь основательно, что сотрудничает со студентами Джульярдской школы для аннотирования нотных партитур, как сообщают два человека, знакомые с проектом.
Джульярдская школа (Juilliard School) — одно из крупнейших американских высших учебных заведений в области искусства и музыки. Расположена в Нью-Йорке.
OpenAI планирует создание инструментов, которые позволяют пользователям генерировать музыку с помощью текстовых и аудио-промптов, например, просить ИИ добавить гитару к вокальной дорожке. Дополнительно этот инструмент мог бы также позволить добавлять музыку к видео.
OpenAI, вероятно, потребуется заключить соглашения с музыкальными лейблами, чтобы избежать судебных исков, поскольку Американская ассоциация звукозаписывающих компаний, представляющая Universal Music Group, Sony и Warner Bros., уже подала в суд на Suno и Udio за обучение своего ИИ на песнях, защищенных авторским правом, без разрешения или оплаты.
Хотя Сору вон научили без всяких соглашений и ничего.
Лишь бы не получилось, как с Адобченко, который кичился тем, что их модели для генерации картинок и видео все из себя безопасные с точки зрения авторского права, а теперь вынуждены добавлять к себе в экосистему все остальные модели с рынка, превращаясь в агрегатор моделей, ибо весь из себя безопасный Firefly никак не хочет взлетать.
Но новость, конечно, огонь.
@cgevent
Довольно огненная новость
Согласно источникам в сети, OpenAI разрабатывает генератор музыки. Причем подходит к делу столь основательно, что сотрудничает со студентами Джульярдской школы для аннотирования нотных партитур, как сообщают два человека, знакомые с проектом.
Джульярдская школа (Juilliard School) — одно из крупнейших американских высших учебных заведений в области искусства и музыки. Расположена в Нью-Йорке.
OpenAI планирует создание инструментов, которые позволяют пользователям генерировать музыку с помощью текстовых и аудио-промптов, например, просить ИИ добавить гитару к вокальной дорожке. Дополнительно этот инструмент мог бы также позволить добавлять музыку к видео.
OpenAI, вероятно, потребуется заключить соглашения с музыкальными лейблами, чтобы избежать судебных исков, поскольку Американская ассоциация звукозаписывающих компаний, представляющая Universal Music Group, Sony и Warner Bros., уже подала в суд на Suno и Udio за обучение своего ИИ на песнях, защищенных авторским правом, без разрешения или оплаты.
Хотя Сору вон научили без всяких соглашений и ничего.
Лишь бы не получилось, как с Адобченко, который кичился тем, что их модели для генерации картинок и видео все из себя безопасные с точки зрения авторского права, а теперь вынуждены добавлять к себе в экосистему все остальные модели с рынка, превращаясь в агрегатор моделей, ибо весь из себя безопасный Firefly никак не хочет взлетать.
Но новость, конечно, огонь.
@cgevent
❤15🔥12👍8😁2😱2👎1
Midjourney API?
Либо я все проспал, либо действительно свежая новость, ведь Midjourney появился на WavespeedAI - агрегаторе моделей по API (либо они используют говно и палки, чтобы выкликать Midjourney).
Список параметров забавный, но никаких sref там указать нельзя (см скрин).
И дорого. Очень дорого. Это шутка такая - 10 центов за картинку?
При этом с текстом на картинках не просто беда, а треш и угар. Да и в целом выглядит как предыдушее поколение моделей, коим оно, собственно, и является.
Глядите тут:
https://wavespeed.ai/models/midjourney/text-to-image
@cgevent
Либо я все проспал, либо действительно свежая новость, ведь Midjourney появился на WavespeedAI - агрегаторе моделей по API (либо они используют говно и палки, чтобы выкликать Midjourney).
Список параметров забавный, но никаких sref там указать нельзя (см скрин).
И дорого. Очень дорого. Это шутка такая - 10 центов за картинку?
При этом с текстом на картинках не просто беда, а треш и угар. Да и в целом выглядит как предыдушее поколение моделей, коим оно, собственно, и является.
Глядите тут:
https://wavespeed.ai/models/midjourney/text-to-image
@cgevent
👍11❤4😁1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за моушен дизайнеров. Но нет, спасибо.
HeyGen решил влезть на совсем уж чужую поляну - Motion Design.
И выкатил ноую фичу, которая так и называется Motion Designer.
Смотрите большое видео - весь маркетинг построен на "моушен дезигнеры не нужны, аниматоры не нужны, опыт не нужен, афтер эффектговно тоже не нужен."
Но нет.
Подсобрал примеров. Ребята путают моушен с просто плашками-шевеляшками или анимированными слайдами в паверпойнте.
Наверно для очень примитивных перебивок между говорящими головами от HeyGen пойдет, но это не Motion Design.
@cgevent
HeyGen решил влезть на совсем уж чужую поляну - Motion Design.
И выкатил ноую фичу, которая так и называется Motion Designer.
Смотрите большое видео - весь маркетинг построен на "моушен дезигнеры не нужны, аниматоры не нужны, опыт не нужен, афтер эффект
Но нет.
Подсобрал примеров. Ребята путают моушен с просто плашками-шевеляшками или анимированными слайдами в паверпойнте.
Наверно для очень примитивных перебивок между говорящими головами от HeyGen пойдет, но это не Motion Design.
@cgevent
😁17👍9❤4👎2
