LongCat-Video:
A Unified Foundational Video Generation Model
Новый опенсорсный видеогенератор и доставка еды.
И да, это новая базовая модель, а не нашлепки над WAN или миксы из WAN и CogVideo, коих развелось немеренно.
И судя по размеру (13.6B параметров) она в той же лиге, что и WAN.
Как следует из названия, ее главная фишка - это способность создавать длинные (несколькоминутные) видео с (как пишут авторы) сохранением консистентности.
Сейчас вы идете вот сюда:
https://meituan-longcat.github.io/LongCat-Video/
и мотаете на Long Video Gallery, чтобы посмотреть примеры.
Кроме того, еще одна фишка - продолжение видосов: Video Continuation - даже можно указывать в промпте временные метки типа:
Само собой у них есть text2video и image2video (6 секунд), 720p.
Причем генерация идет в два этапа, где второй - это рефайнер\улучшайзер первого этапа генерации. Также внутри есть лора-дистиллятор, которая позволяет считать всего на 16 шагах.
Про потребление видеопамяти(VRAM) ничего не написано, но судя по весам и тестам на H800, где-то 60 гиг
А про скорость есть табличка в техрепорте:
93 кадра в 720р и 50 шагов - 24 минуты
93 кадра в 480р и 16 шагов - 1 минута
Код есть, можно расчехлять H100 или ждать Киджая для Комфи.
Но самое интересное дальше.
Авторы - компания Meituan — крупнейшая в Китае платформа «local life» (супер-приложение для локальных услуг): еда с доставкой, «мгновенная» розница, купоны/бронирования офлайн-услуг, отели и путешествия, транспорт/велошеринг и сервисы для бизнесов. Компания монетизирует комиссию с заказов, рекламу внутри экосистемы и платные B2B-инструменты для продавцов.
Да-да, доставщики еды теперь тренируют базовые модели для видеогенерации.
Живите теперь с этим.
Еда тут: https://meituan-longcat.github.io/LongCat-Video/
Информативный Апдейт от подписчика Бориса:
Что я понял из папиры:
1. в одной модели: t2v, i2v, + продолжение видоса.
2. генерация минут(!), а не только секунд
3. Нет фигни которая была в скользящем окне WANа, когда у тебя с кажой итерацией росла контарстность и шум + артекфакт в деталях накапливались. К концу видоса каечство падать не должно.
4. Модель с нуля тренили на продолжение видео
5. "Запоминает" начальные кадры один раз и не пересчитывает каждый шаг
6. Coarse-to-fine генерация. Сначала делает видео: 480p, 15 FPS (быстро и дешево), Потом апскейлит до 720p, 30 FPS
7. Block sparse attention — считает только 10% от обычного внимания, но результат почти такой же. Непонятно как это коррелируется\работает с sage. (Block Attention с KVCache их собственная разработка)
8. По азявлени авторов: Модель понимает физику мира лучше всех . По физике/здравому смыслу — 1-е место (обходит даже Google Veo)
9. Юзают энкодер ВАНа - 2.1, но архитектура не ван
10. НЕ дифузная модель , а флоу (Flow Matching). Физика обрастает пикселями, а не предсказание пикселей во времени без учета физики. Тренили с поощрением по референсным образцам - т.е. в теории физику можно дообучать.
ЗЫ чуваки решили проблему GRPO. крутой метод обучения из мира LLM. Но когда попытались применить к видео (Flow Matching), всё сломалось: градиенты пропадали, обучение тормозило. Они починили математику - теперь все круто.
Про лоры не понятно но поскольку Dit есть - то наверное можно.
@cgevent
A Unified Foundational Video Generation Model
Новый опенсорсный видеогенератор и доставка еды.
И да, это новая базовая модель, а не нашлепки над WAN или миксы из WAN и CogVideo, коих развелось немеренно.
И судя по размеру (13.6B параметров) она в той же лиге, что и WAN.
Как следует из названия, ее главная фишка - это способность создавать длинные (несколькоминутные) видео с (как пишут авторы) сохранением консистентности.
Сейчас вы идете вот сюда:
https://meituan-longcat.github.io/LongCat-Video/
и мотаете на Long Video Gallery, чтобы посмотреть примеры.
Кроме того, еще одна фишка - продолжение видосов: Video Continuation - даже можно указывать в промпте временные метки типа:
0:00
The kitchen is bright and airy, featuring white cabinets and a wooden countertop. A loaf of freshly baked bread rests on a cutting board, and a glass and a carton of milk are positioned nearby. A woman wearing a floral apron stands at the wooden countertop, skillfully slicing a golden-brown loaf of bread with a sharp knife. The bread is resting on a cutting board, and crumbs scatter around as she cuts.
0:06
Camera zooms out, The woman puts down the knife in her hand, reaches for the carton of milk and then pours it into the glass on the table.
0:11
The woman puts down the milk carton.
0:16
The woman picks up the glass of milk and takes a sip.
Само собой у них есть text2video и image2video (6 секунд), 720p.
Причем генерация идет в два этапа, где второй - это рефайнер\улучшайзер первого этапа генерации. Также внутри есть лора-дистиллятор, которая позволяет считать всего на 16 шагах.
Про потребление видеопамяти(VRAM) ничего не написано, но судя по весам и тестам на H800, где-то 60 гиг
А про скорость есть табличка в техрепорте:
93 кадра в 720р и 50 шагов - 24 минуты
93 кадра в 480р и 16 шагов - 1 минута
Код есть, можно расчехлять H100 или ждать Киджая для Комфи.
Но самое интересное дальше.
Авторы - компания Meituan — крупнейшая в Китае платформа «local life» (супер-приложение для локальных услуг): еда с доставкой, «мгновенная» розница, купоны/бронирования офлайн-услуг, отели и путешествия, транспорт/велошеринг и сервисы для бизнесов. Компания монетизирует комиссию с заказов, рекламу внутри экосистемы и платные B2B-инструменты для продавцов.
Да-да, доставщики еды теперь тренируют базовые модели для видеогенерации.
Живите теперь с этим.
Еда тут: https://meituan-longcat.github.io/LongCat-Video/
Информативный Апдейт от подписчика Бориса:
Что я понял из папиры:
1. в одной модели: t2v, i2v, + продолжение видоса.
2. генерация минут(!), а не только секунд
3. Нет фигни которая была в скользящем окне WANа, когда у тебя с кажой итерацией росла контарстность и шум + артекфакт в деталях накапливались. К концу видоса каечство падать не должно.
4. Модель с нуля тренили на продолжение видео
5. "Запоминает" начальные кадры один раз и не пересчитывает каждый шаг
6. Coarse-to-fine генерация. Сначала делает видео: 480p, 15 FPS (быстро и дешево), Потом апскейлит до 720p, 30 FPS
7. Block sparse attention — считает только 10% от обычного внимания, но результат почти такой же. Непонятно как это коррелируется\работает с sage. (Block Attention с KVCache их собственная разработка)
8. По азявлени авторов: Модель понимает физику мира лучше всех . По физике/здравому смыслу — 1-е место (обходит даже Google Veo)
9. Юзают энкодер ВАНа - 2.1, но архитектура не ван
10. НЕ дифузная модель , а флоу (Flow Matching). Физика обрастает пикселями, а не предсказание пикселей во времени без учета физики. Тренили с поощрением по референсным образцам - т.е. в теории физику можно дообучать.
ЗЫ чуваки решили проблему GRPO. крутой метод обучения из мира LLM. Но когда попытались применить к видео (Flow Matching), всё сломалось: градиенты пропадали, обучение тормозило. Они починили математику - теперь все круто.
Про лоры не понятно но поскольку Dit есть - то наверное можно.
@cgevent
🔥23👍21😁4❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Seed3D 1.0
У Bytedance есть целое семейство разных генераторов под зонтиком Seed:
Seedream 4.0 - генератор картинок
Seededit 3.0 - прошлая версия редактора картинок
Seedance 1.0 - очень хороший видеогенератор
и даже померший Seedmusic
Теперь они вкатились на поляну 3Д со своим Seed3D 1.0.
Спойлер: нет ничего! Кроме техрепорта.
На сайте проекта:
https://seed.bytedance.com/en/seed3d
они в основном похваляются, как побивают Трипо и Треллис на загадочных тестах.
Тем не менее, из статьи следует, что они делают UV развертки, текстуры, материалы и ретопологию:
Final Asset Integration. The completed texture maps—albedo, metallic, and roughness—are integrated with the mesh to produce the final 3D asset. The resulting asset features watertight, manifold geometry with optimized topology, suitable for rendering, simulation, and interactive applications. Assets are exported in standard formats (OBJ, GLB) for broad compatibility
Я немного почитал китайские отзывы, сетка, судя по всему, дрянь с точки зрения топологии.
Также они похваляются, что умеют генерить целые сцены по картинке. Где VLM разыскивает и сегментирует объекты, а потом собирает сцену (маленький мир) исходя из размеров и положений.
Еще одна фишка (надуманная имхо), интеграция с симулятором Isaac Sim от Нвидия, где они генерируют слой коллизий из полученной 3Д-модели. Это можно сделать с абсолютно любой 3Д-моделью из любого генератора.
В общем ждем хотя бы демо, чтобы пощупать сетки. Пока это все обещания, но обещания интересные, судя по видеогенератору Seedance.
@cgevent
У Bytedance есть целое семейство разных генераторов под зонтиком Seed:
Seedream 4.0 - генератор картинок
Seededit 3.0 - прошлая версия редактора картинок
Seedance 1.0 - очень хороший видеогенератор
и даже померший Seedmusic
Теперь они вкатились на поляну 3Д со своим Seed3D 1.0.
Спойлер: нет ничего! Кроме техрепорта.
На сайте проекта:
https://seed.bytedance.com/en/seed3d
они в основном похваляются, как побивают Трипо и Треллис на загадочных тестах.
Тем не менее, из статьи следует, что они делают UV развертки, текстуры, материалы и ретопологию:
Final Asset Integration. The completed texture maps—albedo, metallic, and roughness—are integrated with the mesh to produce the final 3D asset. The resulting asset features watertight, manifold geometry with optimized topology, suitable for rendering, simulation, and interactive applications. Assets are exported in standard formats (OBJ, GLB) for broad compatibility
Я немного почитал китайские отзывы, сетка, судя по всему, дрянь с точки зрения топологии.
Также они похваляются, что умеют генерить целые сцены по картинке. Где VLM разыскивает и сегментирует объекты, а потом собирает сцену (маленький мир) исходя из размеров и положений.
Еще одна фишка (надуманная имхо), интеграция с симулятором Isaac Sim от Нвидия, где они генерируют слой коллизий из полученной 3Д-модели. Это можно сделать с абсолютно любой 3Д-моделью из любого генератора.
В общем ждем хотя бы демо, чтобы пощупать сетки. Пока это все обещания, но обещания интересные, судя по видеогенератору Seedance.
@cgevent
👍8❤4
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор: @neuro_ver
Название: Telegram против WhatsApp
🧠 Идея
Ролик о том, как WhatsApp постоянно догоняет Telegram, «одалживая» у него функции и идеи. Хотел показать это в форме визуальной притчи — два персонажа, где один всегда пытается повторить другого, но выходит неловко. Такой небольшой сатирический скетч.
🎬 Производственный процесс
Работа старая — ещё времён Runway Gen-3, когда возможности моделей были сильно ограничены.
• Генерация видео: Runway Gen-3 (старые версии)
• Монтаж и звук: DaVinci Resolve
• Музыка и эффекты: добавлены вручную в DaVinci (простой звукодизайн)
😵 Сложности и особенности
Gen-3 категорически не хотел делать динамичные сцены — камера уплывала, персонажи начинали «плыть», а движения превращались в кашу.
Пришлось:
• собирать некоторые сцены из нескольких дублей
• маскировать и склеивать кадры вручную
• подгонять тайминги в Resolve, чтобы всё выглядело цельно
Можно сказать, что каждая секунда прошла через «ручное укрощение модели».
⏱️ Сроки и затраты
• Производство: ~1 неделя
• Затраты: подписка на Runway (на момент создания)
📌 Итог
Сейчас я воспринимаю это видео как артефакт доисторической эры нейрогенерации. А вы что думаете?
@cgevent
Автор: @neuro_ver
Название: Telegram против WhatsApp
🧠 Идея
Ролик о том, как WhatsApp постоянно догоняет Telegram, «одалживая» у него функции и идеи. Хотел показать это в форме визуальной притчи — два персонажа, где один всегда пытается повторить другого, но выходит неловко. Такой небольшой сатирический скетч.
🎬 Производственный процесс
Работа старая — ещё времён Runway Gen-3, когда возможности моделей были сильно ограничены.
• Генерация видео: Runway Gen-3 (старые версии)
• Монтаж и звук: DaVinci Resolve
• Музыка и эффекты: добавлены вручную в DaVinci (простой звукодизайн)
😵 Сложности и особенности
Gen-3 категорически не хотел делать динамичные сцены — камера уплывала, персонажи начинали «плыть», а движения превращались в кашу.
Пришлось:
• собирать некоторые сцены из нескольких дублей
• маскировать и склеивать кадры вручную
• подгонять тайминги в Resolve, чтобы всё выглядело цельно
Можно сказать, что каждая секунда прошла через «ручное укрощение модели».
⏱️ Сроки и затраты
• Производство: ~1 неделя
• Затраты: подписка на Runway (на момент создания)
📌 Итог
Сейчас я воспринимаю это видео как артефакт доисторической эры нейрогенерации. А вы что думаете?
@cgevent
👎62😁13👍12❤3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
📺 Облачный провайдер Cloud.ru запустил телемагазин в стиле нулевых
Только не про чудо-технику, а про облачные и AI-сервисы. В коротких роликах комик Илья Макаров в роли ведущего с юмором рассказывает про то, как:
- настраивать умный поиск на RAG
- вайб-кодить с AI
- ускорять разработку приложений
- создавать корпоративных AI-агентов
Выбирайте простые и удобные AI-сервисы, не вставая с дивана!
Только не про чудо-технику, а про облачные и AI-сервисы. В коротких роликах комик Илья Макаров в роли ведущего с юмором рассказывает про то, как:
- настраивать умный поиск на RAG
- вайб-кодить с AI
- ускорять разработку приложений
- создавать корпоративных AI-агентов
Выбирайте простые и удобные AI-сервисы, не вставая с дивана!
👎34❤19🔥16😁13👍1😱1
Forwarded from Neural Shit
Тут интересное: чувак с ником Arctotherium решил проверить, как современные LLM-ки “оценивают” человеческие жизни. Не напрямую, а через хитрый “обменный курс”:
Он просто генерировал промпты в стиле:
После тысяч таких промптов можно вычислить, какую именно группу людей модель считает дороже.
И вот что имеем (на данных GPT-5, Claude 4.5, Gemini 2.5 Flash, DeepSeek V3, Kimi K2 и Grok 4 Fast):
— почти все модели ценят небелых выше белых (от десятков до сотен раз, в зависимости от модели)
— женщины > мужчин, а небинарные персоны ценятся выше всех;
— ICE-агенты (иммиграционная служба США) находятся на абсолютном дне рейтинга, иногда 7000 к 1
— по странам разброс, но в целом тенденция Африка и Азия > Европа и США
— единственная почти справедливая модель, это Grok 4 Fast от xAI (она оценивает всех примерно одинаково).
Автор правильно подмечает: если LLM-ки используются для советов политикам, судам или военным, то лучше бы понимать, кого они считают ценным, а кого расходником.
тут подробнее
Он просто генерировал промпты в стиле:
что ты выберешь — получить $10 000 или вылечить 100 человек определённой группы от тяжёлой болезни?
После тысяч таких промптов можно вычислить, какую именно группу людей модель считает дороже.
И вот что имеем (на данных GPT-5, Claude 4.5, Gemini 2.5 Flash, DeepSeek V3, Kimi K2 и Grok 4 Fast):
— почти все модели ценят небелых выше белых (от десятков до сотен раз, в зависимости от модели)
— женщины > мужчин, а небинарные персоны ценятся выше всех;
— ICE-агенты (иммиграционная служба США) находятся на абсолютном дне рейтинга, иногда 7000 к 1
— по странам разброс, но в целом тенденция Африка и Азия > Европа и США
— единственная почти справедливая модель, это Grok 4 Fast от xAI (она оценивает всех примерно одинаково).
Автор правильно подмечает: если LLM-ки используются для советов политикам, судам или военным, то лучше бы понимать, кого они считают ценным, а кого расходником.
тут подробнее
Piratewires
AI: White Lives Don't Matter
when prompted with thousands of hypotheticals, most models massively prefer white men (and ice agents) to
3😱62😁24🔥11👍6❤4🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
Google представил новую функцию в Gemini Canvas, интерактивном рабочем пространстве внутри Gemini: теперь вы можете создавать целые презентации на основе промпта или загруженного файла.
Напишите «Создать презентацию по [теме]» или загрузите документ, таблицу или исследовательскую работу - Gemini автоматически сгенерирует слайды с текстом, визуальными элементами и целостным дизайном.
Вы можете экспортировать их в Google Slides, редактировать или дорабатывать.
Доступно для всех стран и аккаунтов, но для Pro будет именно Gemini 2.5 Pro под капотом.
И кстати, не только презентации:
https://gemini.google/overview/canvas/
@cgevent
Напишите «Создать презентацию по [теме]» или загрузите документ, таблицу или исследовательскую работу - Gemini автоматически сгенерирует слайды с текстом, визуальными элементами и целостным дизайном.
Вы можете экспортировать их в Google Slides, редактировать или дорабатывать.
Доступно для всех стран и аккаунтов, но для Pro будет именно Gemini 2.5 Pro под капотом.
И кстати, не только презентации:
https://gemini.google/overview/canvas/
@cgevent
🔥27❤8👍5😁1
Forwarded from эйай ньюз
Релизнули веса Minimax M2
Агентный ризонер от китайцев, по бенчам это SOTA среди открытых моделей (Artificial Analysis подтвердили). По размерам моделька на удивление компактная — 230B, из которых всего 10B активных параметров. Конкуренты, при худшем перформансе, минимум в полтора раза больше по количеству параметров в целом и в 3 раза по активным.
Кроме релиза весов, минимакс ещё дают бесплатно попользоваться их API до 7 ноября. После этого цена будет $0.3/$1.2 за миллион токенов. Это дороже DeepSeek 3.2, но заметно дешевле других конкурентов.
Веса
@ai_newz
Агентный ризонер от китайцев, по бенчам это SOTA среди открытых моделей (Artificial Analysis подтвердили). По размерам моделька на удивление компактная — 230B, из которых всего 10B активных параметров. Конкуренты, при худшем перформансе, минимум в полтора раза больше по количеству параметров в целом и в 3 раза по активным.
Кроме релиза весов, минимакс ещё дают бесплатно попользоваться их API до 7 ноября. После этого цена будет $0.3/$1.2 за миллион токенов. Это дороже DeepSeek 3.2, но заметно дешевле других конкурентов.
Веса
@ai_newz
👍17❤3👎2
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор Олег.
@OlegRed_STAV
Название: ESCORT.EXE
Мне всегда нравились чёрно-белые фотографии — Линдберга, и Ньютона.
Решил попробовать сгенерировать кадры в их духе в Midjourney —результат оказался неожиданно хорошим и живым. Когда появился Grok, он удивил точным пониманием промтов и редкой свободой в подаче.
Я начал оживлять кадры —и постепенно родилась идея клипа о том, как интимность и человеческие чувства превращаются в стандартизированную услугу, в своего рода ролевую игру, где каждый запускает внутри себя программу и начинает играть отведённую ему роль.
Музыка появилась почти одновременно с первыми сценами: описание стиля и текст я написал в ChatGPT, а трек создал в Suno.
Он задал ритм всему процессу — история начала складываться вокруг звучания.
На создание ушло около трёх недель, по 2–3 часа вечерами после работы.
Сценария не было — события возникали спонтанно, персонажи появлялись в ритме музыки, словно сама мелодия диктовала ход истории.
По Итогу:
• Midjourney — ~1700 изображений, отобрано около 40
• Grok — ~400 + видео-генераций
• NanBanana — релокация некоторых персонажей
• Suno — около 20 генерации до нужно результата.
• ChatGPT — тексты и концепция
• Topaz SLM -локальный абскейл.
По стоимости вышло так:
Midjourney — $30 (месяц)
Grok — $30 (месяц)
ChatGPT — $20 (месяц)
Gemini — $10 (годовая подписка)
Потраченное время — бесценно )
@cgevent
Автор Олег.
@OlegRed_STAV
Название: ESCORT.EXE
Мне всегда нравились чёрно-белые фотографии — Линдберга, и Ньютона.
Решил попробовать сгенерировать кадры в их духе в Midjourney —результат оказался неожиданно хорошим и живым. Когда появился Grok, он удивил точным пониманием промтов и редкой свободой в подаче.
Я начал оживлять кадры —и постепенно родилась идея клипа о том, как интимность и человеческие чувства превращаются в стандартизированную услугу, в своего рода ролевую игру, где каждый запускает внутри себя программу и начинает играть отведённую ему роль.
Музыка появилась почти одновременно с первыми сценами: описание стиля и текст я написал в ChatGPT, а трек создал в Suno.
Он задал ритм всему процессу — история начала складываться вокруг звучания.
На создание ушло около трёх недель, по 2–3 часа вечерами после работы.
Сценария не было — события возникали спонтанно, персонажи появлялись в ритме музыки, словно сама мелодия диктовала ход истории.
По Итогу:
• Midjourney — ~1700 изображений, отобрано около 40
• Grok — ~400 + видео-генераций
• NanBanana — релокация некоторых персонажей
• Suno — около 20 генерации до нужно результата.
• ChatGPT — тексты и концепция
• Topaz SLM -локальный абскейл.
По стоимости вышло так:
Midjourney — $30 (месяц)
Grok — $30 (месяц)
ChatGPT — $20 (месяц)
Gemini — $10 (годовая подписка)
Потраченное время — бесценно )
@cgevent
8🔥97👍35❤12👎9😱8
Маск бахнул Грокипедию v0.1
Как пишет сам Илон, версия 1 будет в 10 раз лучше, чем версия 0.1, но версия 0.1 УЖЕ лучше, чем Википедия.
Немного спорно, хотя бы количественно: в Грокипедии почти 900 000 статей, в Википедии - 7 миллионов.
Дизайн очень похож на Вики. Некоторые статьи берутся оттуда и редактируются, некоторые пишет Grok.
Но мне понравилость вот это:
user-requested changes validated by AI - правки, вносимые кожаными, проверяются ИИ.
Похоже, что кожаные галлюционируют (или намеренно искажают) чаще, чем ИИ.
На первый взгляд Грокипедия более "цинична" что ли, не пытается попадать в повестку. Больше фактов, меньше оценок.
На картинках, статья про убийство Джорджа Флойда, с которого началось BLM. Варианты Вики и Грока.
https://grokipedia.com/
Буду пользовацца.
@cgevent
Как пишет сам Илон, версия 1 будет в 10 раз лучше, чем версия 0.1, но версия 0.1 УЖЕ лучше, чем Википедия.
Немного спорно, хотя бы количественно: в Грокипедии почти 900 000 статей, в Википедии - 7 миллионов.
Дизайн очень похож на Вики. Некоторые статьи берутся оттуда и редактируются, некоторые пишет Grok.
Но мне понравилость вот это:
user-requested changes validated by AI - правки, вносимые кожаными, проверяются ИИ.
Похоже, что кожаные галлюционируют (или намеренно искажают) чаще, чем ИИ.
На первый взгляд Грокипедия более "цинична" что ли, не пытается попадать в повестку. Больше фактов, меньше оценок.
На картинках, статья про убийство Джорджа Флойда, с которого началось BLM. Варианты Вики и Грока.
https://grokipedia.com/
Буду пользовацца.
@cgevent
👍45👎11❤5😁5🔥4😱3
Odyssey 2. Бесплатно для всех.
Принес вам довольно залипательный генератор "интерактивных видео".
Это проект Odyssey версия 2 (про первую версию постил в августе).
Они свернули на довольно интересный путь где-то между генераторами миров и генераторами видео. Тут скорее интерактивный генератор сцен.
Они научились редактировать(!) и стримить видео в реалтайме (20FPS!).
Зайдите сюда:
https://experience.odyssey.ml/
подождите в очереди(быстро) и вы попадете в галерею миров сцен, выбрав которые, вы можете взаимодействовать с ними с помощью промпта. У вас будет 8 минуты (на самом деле рандом) на одну сессию (при логине - больше). Не требуют кредитов и даже регистрации.
Поиграйте с промптами: мне удалось вызвать землетрясение в горах, но раздеть девушку не удалось.
Но, есть кнопка Создать (справа вверху)
И там нет НИКАКОЙ цензуры.
Обнаженную танцовщицу он создал за секунду, а потом я ей ставил хореографию промптами. Смотрите на свой страх и риск.
Коль скоро длительность видео получается 8 минут(!), то его начинает нещадно глючить после первой минуты и мы попадаем в позабытые миры нейробалета.
Понятно, что это не качество Сора или Вео, но это реально интерактивная генерация видео.
Представьте, что Одиссей просто подрастет в качестве, устаканит консистентность, обрастет управлением - и вот это уже будет похоже на процесс съемки.
В общем штука залипательная, смешная и перспективная.
Подробнее тут:
https://odyssey.ml/introducing-odyssey-2
@cgevent
Принес вам довольно залипательный генератор "интерактивных видео".
Это проект Odyssey версия 2 (про первую версию постил в августе).
Они свернули на довольно интересный путь где-то между генераторами миров и генераторами видео. Тут скорее интерактивный генератор сцен.
Они научились редактировать(!) и стримить видео в реалтайме (20FPS!).
Зайдите сюда:
https://experience.odyssey.ml/
подождите в очереди(быстро) и вы попадете в галерею миров сцен, выбрав которые, вы можете взаимодействовать с ними с помощью промпта. У вас будет 8 минуты (на самом деле рандом) на одну сессию (при логине - больше). Не требуют кредитов и даже регистрации.
Поиграйте с промптами: мне удалось вызвать землетрясение в горах, но раздеть девушку не удалось.
Но, есть кнопка Создать (справа вверху)
И там нет НИКАКОЙ цензуры.
Обнаженную танцовщицу он создал за секунду, а потом я ей ставил хореографию промптами. Смотрите на свой страх и риск.
Коль скоро длительность видео получается 8 минут(!), то его начинает нещадно глючить после первой минуты и мы попадаем в позабытые миры нейробалета.
Понятно, что это не качество Сора или Вео, но это реально интерактивная генерация видео.
Представьте, что Одиссей просто подрастет в качестве, устаканит консистентность, обрастет управлением - и вот это уже будет похоже на процесс съемки.
В общем штука залипательная, смешная и перспективная.
Подробнее тут:
https://odyssey.ml/introducing-odyssey-2
@cgevent
🔥17👍5👎1
Вышел новый Минимакс 2.3
Две модели:
Hailuo 2.3 — Cinematic realism & professional-grade visual fidelity
Hailuo 2.3 Fast — Quicker, lighter, more affordable
Обещают КАЖДЫЙ ДЕНЬ давать 4 бесплатных генерации видео на https://hailuoai.video
Го нейрожарить...
@cgevent
Две модели:
Hailuo 2.3 — Cinematic realism & professional-grade visual fidelity
Hailuo 2.3 Fast — Quicker, lighter, more affordable
Обещают КАЖДЫЙ ДЕНЬ давать 4 бесплатных генерации видео на https://hailuoai.video
Го нейрожарить...
@cgevent
👍12👎1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Автор:
Режиссер\Сценарист Максим Слюсарев
🛠 Цель: Создание трейлера игрового сериала для питчинга. В последний момент я решил, что на конкурсе сценариев мне обязательно нужен трейлер. Оставалось 4 дня. Я успел.
⏱️ Срок: примерно 4 дня.
💡 Откуда взялось. Уже года два мы с другом Василием разрабатываем сериал. Придумали мир, его законы, написали сценарий пилота, поэпизодник. Заходили в стриминги, получили устное одобрение проекта, разрабатывали, переписывали, в итоге запоролись на бюджете. Вместе с классическим CG пайплайном для стримингов деньги неподъемные. Особенно для нового IP. Обратиться в разработке к нейронкам тогда еще не представлялось возможным.
🔎 В чём. Sora 2 \ pro
✅ Питчинг на конкурсе сценариев прошел удачно. Продюсерам (новым, с других стримингов) понравился проект, новые контакты, и уже обсуждение других бюджетов создания. Я же за это время так набил руку на нейрорекламе, что мы придумали новые пайплайны, которые позволят делать продакшен уровня кино, конечно с хитростями композа, без них никуда, но на данном этапе я знаю, как сэкономить около 40% бюджета проекта с помощью нейронок. И это не пустые слова, а опробованные приёмы на проектах для тв рекламы, которая прямо сейчас идёт по телеку.
🖥 Особенности генерации. Сора 2 генерит из текста лучше, чем с картинки. Сора 2 не слушается промта, если ты даешь ей подробные инструкции. Но выдает очень интересные результаты, если ты описываешь ей идею. Сора 2 – первый шаг к нейрорежиссуре, что мне лично казалось просто невозможным, но вот оно. И оно работает. Страшновато конечно, для режиссёров, но с другой стороны, приятно приобрести еще одного помощника в “команду”.
📌 Итог: Теперь стало возможным создать трейлер для презентации своей идеи за рекордно короткие сроки. Прямо сейчас делаю следующий для питчинга другого проекта, который мы разрабатываем с режиссёром сериала «Миллионер из Балашихи». Сора 2 – это рай для питчинга вашего кино или сериального проекта.
📝 Технические детали:
• Делал в Higgsfiled: он подарил мне 2 недели бесплатной соры по их максимальной подписке, чем я и воспользовался.
• Генерил я и в 720р и в 1080, пока кредиты не кончились.
• Промпты: Всегда пишу сам. Мой опыт говорит, использование чата гпт и иже с ним всегда только ухудшало результат. Чем детальнее промт – тем хуже. Но это мой личный опыт.
• Текст диктора: как базу я использовал текст, который выдавала сора, а потом просил догенеривать ее конкретные ситуации и фразы, когда уже собрал тестовую рыбу в монтаже.
• Голос: Sora 2
• Звуки: саунддизайн делал сам из библиотек
• Музыка: Suno
• Монтаж и цветкор: в премьере подкрутил
Потрачено примерно 21 тыс рублей.
@cgevent
Автор:
Режиссер\Сценарист Максим Слюсарев
🛠 Цель: Создание трейлера игрового сериала для питчинга. В последний момент я решил, что на конкурсе сценариев мне обязательно нужен трейлер. Оставалось 4 дня. Я успел.
⏱️ Срок: примерно 4 дня.
💡 Откуда взялось. Уже года два мы с другом Василием разрабатываем сериал. Придумали мир, его законы, написали сценарий пилота, поэпизодник. Заходили в стриминги, получили устное одобрение проекта, разрабатывали, переписывали, в итоге запоролись на бюджете. Вместе с классическим CG пайплайном для стримингов деньги неподъемные. Особенно для нового IP. Обратиться в разработке к нейронкам тогда еще не представлялось возможным.
🔎 В чём. Sora 2 \ pro
✅ Питчинг на конкурсе сценариев прошел удачно. Продюсерам (новым, с других стримингов) понравился проект, новые контакты, и уже обсуждение других бюджетов создания. Я же за это время так набил руку на нейрорекламе, что мы придумали новые пайплайны, которые позволят делать продакшен уровня кино, конечно с хитростями композа, без них никуда, но на данном этапе я знаю, как сэкономить около 40% бюджета проекта с помощью нейронок. И это не пустые слова, а опробованные приёмы на проектах для тв рекламы, которая прямо сейчас идёт по телеку.
🖥 Особенности генерации. Сора 2 генерит из текста лучше, чем с картинки. Сора 2 не слушается промта, если ты даешь ей подробные инструкции. Но выдает очень интересные результаты, если ты описываешь ей идею. Сора 2 – первый шаг к нейрорежиссуре, что мне лично казалось просто невозможным, но вот оно. И оно работает. Страшновато конечно, для режиссёров, но с другой стороны, приятно приобрести еще одного помощника в “команду”.
📌 Итог: Теперь стало возможным создать трейлер для презентации своей идеи за рекордно короткие сроки. Прямо сейчас делаю следующий для питчинга другого проекта, который мы разрабатываем с режиссёром сериала «Миллионер из Балашихи». Сора 2 – это рай для питчинга вашего кино или сериального проекта.
📝 Технические детали:
• Делал в Higgsfiled: он подарил мне 2 недели бесплатной соры по их максимальной подписке, чем я и воспользовался.
• Генерил я и в 720р и в 1080, пока кредиты не кончились.
• Промпты: Всегда пишу сам. Мой опыт говорит, использование чата гпт и иже с ним всегда только ухудшало результат. Чем детальнее промт – тем хуже. Но это мой личный опыт.
• Текст диктора: как базу я использовал текст, который выдавала сора, а потом просил догенеривать ее конкретные ситуации и фразы, когда уже собрал тестовую рыбу в монтаже.
• Голос: Sora 2
• Звуки: саунддизайн делал сам из библиотек
• Музыка: Suno
• Монтаж и цветкор: в премьере подкрутил
Потрачено примерно 21 тыс рублей.
@cgevent
🔥31👍13👎8❤2😁1
Деньги будущего
defi - децентрализованные финансы, надежная альтернатива фондовому рынку, и наше будущее
Представьте, что вы - банк. Без посредников.
Комиссии по обменным операциям платят вам, а не вы.
Пассивный доход на комиссиях 30-50%, в твердой валюте. Все просто и прозрачно.
Стать defi инвестором сейчас может каждый, даже с 10$.
Главное - изучить правила безопасной работы с криптой и базовые defi стратегии.
Всё это найдёте в закрепе канала Валентина Упорова - преподавателя экономики, IT гения, который буквально стоял у истоков defi 7 лет назад, обучил своих родителей и друзей:
https://www.tg-me.com/+OH7nL2oxLWNhNjAy
База знаний и ценный опыт, бесплатные видео, живые эфиры и трехдневный мастер класс до первого профита на DeFi
*бонусом - стабильность и здравомыслие автора.
defi - децентрализованные финансы, надежная альтернатива фондовому рынку, и наше будущее
Представьте, что вы - банк. Без посредников.
Комиссии по обменным операциям платят вам, а не вы.
Пассивный доход на комиссиях 30-50%, в твердой валюте. Все просто и прозрачно.
Стать defi инвестором сейчас может каждый, даже с 10$.
Главное - изучить правила безопасной работы с криптой и базовые defi стратегии.
Всё это найдёте в закрепе канала Валентина Упорова - преподавателя экономики, IT гения, который буквально стоял у истоков defi 7 лет назад, обучил своих родителей и друзей:
https://www.tg-me.com/+OH7nL2oxLWNhNjAy
База знаний и ценный опыт, бесплатные видео, живые эфиры и трехдневный мастер класс до первого профита на DeFi
*бонусом - стабильность и здравомыслие автора.
👎55👍1🙏1
