Telegram Web Link
This media is not supported in your browser
VIEW IN TELEGRAM
На этот раз ComfyUI покусал Freepik.

И они, вслед за Runway тизерят нодовый интерфейс. Причем на видео - сборка сцены из ингредиентов и генерация видео.

Интересно, что первыми (после Комфи) были glif.app - у них до сих пор самый мощный набор функционала, но они не взлетают до небес, ибо сразу пришли с этими вот всеми нодами.

А когда большие игроки, с хорошей юзер-базой начинают подсовывать пользователям лапшичный суп - это уже выглядит как расширение возможностей.

Очень жду когда Гугл бахнет что-то подобное, и тогда вопрос прихода макаронного монстра в область генерации можно считать закрытым.

А еще Фрипик бахнул Magnific Precision v2 с тремя режимами:
- Sublime
- Photo
- Photo Denoiser

Кто подписан, го тестировать.

@cgevent
🔥8👍62
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs Voice Isolator

Eleven Labs выпустил довольно интересный сайд продукт - чистка звука на видео.

Это прямой конкурент Adobe Podcast и Nvidia Broadcast.

Поглядите видео, там все понятно.

Доступен в ElevenLabs Creative Platform и также в Studio (да у них есть наномонтажка)

На входе видео - на выходе видео с чистым звуком.

Откопал цены:
10 минут в месяц бесплатно
30 минут за 5 долларов в месяц
100 - за 11 долларов.

Подробный гайд:
https://youtu.be/QsgYv7-lfCM

Много красивых слов тут:
https://elevenlabs.io/voice-isolator

@cgevent
🔥36👍1511😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Samsung Galaxy XR

Самсунг бахнули свою лыжную маску.

Смотрим и сравниваем рекламу от Эппле и Самсунжика.

Потом думаем и сравниваем области применения и пользовательские сценарии.

Получается все то же самое, но за 1800 долларов.

Смотреть кино за 1800 долларов - я пас.

Непонятно одно, зная, что Эппле полностью обосралась со своей Vision Pro, Самсунг выпускает аналогичный продукт, без радикальной отстройки по фичам и сценариям. В той же ценовой нише. Зачем?
Чтобы тоже обосраться не снимая свитер?

@cgevent
😁43👍84
This media is not supported in your browser
VIEW IN TELEGRAM
А вот это интересная утечка от Гугла.

На видео - версия GENIE 3 (генератора миров), которая позволяет пользователям создавать свои миры, и не только окружение, а еще и персонажей. Не уверен, что это фейк.

Забавные надписи внизу:
после создания мира у вас есть 60 секунд, чтобы походить по нему (надпись сверху: ошибка, требуется фидбек от пользователя)
каждая сессия может быть сохранена как видео и пошарена в сети.

Думаю до конца года услышим апдейты от Гугла...

@cgevent
👍157🔥3😁2
Уже писал про 3Д-генератор hitem3D.

Он дает самую, пожалуй, высокодетализированную сетку.

Так вот, у них новая версия с дивным названием v1.5_1536 Pro и детализация еще выше.

Пробуем тут: https://www.hitem3d.ai/

Вроде есть бесплатные кредиты.

@cgevent
🔥25👍76
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

🎸 Автор: Музыкант и видеомейкер Станислав Кузин
Видео лучше смотреть в качестве тут

🛠 Эксперимент: создание рок-клипа с нуля с помощью нейросетей
⏱️ Срок: около 2 месяцев (с перерывами и переделками)
💡 Как всё началось:
Около 7 лет назад я написал текст песни — как это часто бывает, отложил «до лучших времён». Недавно, просматривая старые записи, я решил перевести его на английский — и неожиданно в голове зазвучала новая мелодия. Так началась цепочка событий, которая закончилась полноценным клипом в стиле альтернативного рока, созданным почти полностью при помощи ИИ.
🎶 Работа с музыкой:
Начал с Suno — напевал слова, менял промпты, искал баланс между живым звучанием и нужным настроением. После примерно 500 итераций получился тот самый вариант, который «попал в жилу».
Чтобы сохранить индивидуальность, я купил недорогой, но качественный микрофон FIFINE и в
kits.ai создал свой голосовой профиль, спев 10+ песен. Дальше — ручная работа: сведение, коррекция тона и тонкая подгонка вокала под минус в Audacity. В итоге получилось звучание, которое меня устроило.
🎬 Работа с видео:
Сценарий клипа переписывался около 10 раз — искал ту динамику, которая совпадёт с ритмом трека и эмоциональной дугой текста.
Основная генерация шла через OpenArt и
Wan.video — я тестировал версии модели Wan 2.1, 2.2 и 2.5, каждая давала свой характер и возможности по движению камеры. Параллельно пробовал Minimax hailou02, Kling (от 2.1 до 2.5) и Pixverse 5 — каждая модель добавляла что-то своё: где-то лучше освещение, где-то движение, где-то пластика.
Чтобы собрать финальный 3,5-минутный ролик, я сгенерировал около 5 часов видео. Многие сцены приходилось собирать покадрово, стыкуя отдельные фрагменты, вычищая артефакты и дорабатывая эмоции персонажей.
📌 Инструменты и этапы:
• Музыка: Suno
• Голос:
kits.ai
• Сведение и мастеринг : Audacity
• Видеогенерация:
Wan.video (2.1–2.5), Minimax hailou02, Kling (2.1–2.5), Pixverse 5
• Финальный монтаж видео : OpenShot Video Editor
• Тесты, апскейлы и цветкор: вручную, сцена за сценой
🎧 Жанр: Альтернативный / Рок
💬 Идея:
Проверить, можно ли вдохнуть жизнь в старый текст и превратить его в современный клип, используя только нейросети и личное чувство ритма. Без студии, без команды, без бюджета — только идея, технологии и упрямство.
🚀 Результат:
Финальный клип стал миксом живой энергии и цифрового безумия — где нейросети не заменяют творчество, а расширяют его. Всё звучит и выглядит именно так, как когда-то представлялось «в голове» — только теперь это реально можно услышать и увидеть.
💰 Затраты: в основном на подписки ( 5 тысяч рублей ) и микрофон (в районе 3 тысяч рублей на Ozon).
📅 Итог: Полный цикл — от старого черновика песни до готового ИИ-рок-клипа длиной 3:30, собранного из 5 часов сгенерированного видео и сотен проб промптов - около 80 часов на первый трек.
Приоткрою небольшую завесу - что следующий трек, до Пререлиз версии занял около 6 часов ( и думаю не более 12 часов до официального релиза с полным клипом ). Считаю, что быстрее чем за 10 человеко-часов на качественный клип / песню создать в 2025 году невозможно.


@cgevent
👎58👍155🔥2🙏1
Генератор музыки от OpenAI

Довольно огненная новость

Согласно источникам в сети, OpenAI разрабатывает генератор музыки. Причем подходит к делу столь основательно, что сотрудничает со студентами Джульярдской школы для аннотирования нотных партитур, как сообщают два человека, знакомые с проектом.

Джульярдская школа (Juilliard School) — одно из крупнейших американских высших учебных заведений в области искусства и музыки. Расположена в Нью-Йорке.

OpenAI планирует создание инструментов, которые позволяют пользователям генерировать музыку с помощью текстовых и аудио-промптов, например, просить ИИ добавить гитару к вокальной дорожке. Дополнительно этот инструмент мог бы также позволить добавлять музыку к видео.

OpenAI, вероятно, потребуется заключить соглашения с музыкальными лейблами, чтобы избежать судебных исков, поскольку Американская ассоциация звукозаписывающих компаний, представляющая Universal Music Group, Sony и Warner Bros., уже подала в суд на Suno и Udio за обучение своего ИИ на песнях, защищенных авторским правом, без разрешения или оплаты.

Хотя Сору вон научили без всяких соглашений и ничего.

Лишь бы не получилось, как с Адобченко, который кичился тем, что их модели для генерации картинок и видео все из себя безопасные с точки зрения авторского права, а теперь вынуждены добавлять к себе в экосистему все остальные модели с рынка, превращаясь в агрегатор моделей, ибо весь из себя безопасный Firefly никак не хочет взлетать.

Но новость, конечно, огонь.

@cgevent
15🔥12👍8😁2😱2👎1
Midjourney API?

Либо я все проспал, либо действительно свежая новость, ведь Midjourney появился на WavespeedAI - агрегаторе моделей по API (либо они используют говно и палки, чтобы выкликать Midjourney).

Список параметров забавный, но никаких sref там указать нельзя (см скрин).

И дорого. Очень дорого. Это шутка такая - 10 центов за картинку?

При этом с текстом на картинках не просто беда, а треш и угар. Да и в целом выглядит как предыдушее поколение моделей, коим оно, собственно, и является.

Глядите тут:

https://wavespeed.ai/models/midjourney/text-to-image

@cgevent
👍114😁1
Ну, за моушен дизайнеров. Но нет, спасибо.

HeyGen решил влезть на совсем уж чужую поляну - Motion Design.

И выкатил ноую фичу, которая так и называется Motion Designer.

Смотрите большое видео - весь маркетинг построен на "моушен дезигнеры не нужны, аниматоры не нужны, опыт не нужен, афтер эффект говно тоже не нужен."

Но нет.

Подсобрал примеров. Ребята путают моушен с просто плашками-шевеляшками или анимированными слайдами в паверпойнте.

Наверно для очень примитивных перебивок между говорящими головами от HeyGen пойдет, но это не Motion Design.

@cgevent
😁17👍94👎2
2025/10/26 09:41:07
Back to Top
HTML Embed Code: