Telegram Web Link
This media is not supported in your browser
VIEW IN TELEGRAM
Где вдохновение? Или истории не всегда начинаются со сценария

В генеративном кино, так точно! Можно сначала найти эмоционально насыщенный кадр и оттолкнуться от него, развивая историю. Кто визуал, тому точно будет полезен этот метод поиска визуальных образов

Мой любимый промпт в Midjourney (да и в целом любых других нейронках) для такого метода поиска вдохновения — «a film that no one has ever done before»

В комбинации с разными sref и мудбордами разных киношных жанров, может получиться, что-то очень крутое. Вот я в том году рассказывал про мудборды в MJ. Можно еще подкручивать параметр странности weird, чтобы дать творческую волю машине

Больше фишек генеративного кино — byai.ru
❤‍🔥10👍8🤗1
Media is too big
VIEW IN TELEGRAM
Эй, нейросеть, измени синий овал на НЛО и подними дом

Aleph — это кроличья нора рабочих процессов. Помимо прикладных — удалить/заменить, больше всего меня интересует в этой модели управление ракурсами внутри пространства, добавление эффектов при работе с примитивами и точечное управление с помощью тех же примитивов

Это почти то же самое, как у Veo 3 работают контекстные подсказки на исходном изображении

Мы идём к тому, что сложные интерфейсы будут упрощаться и останется общение с моделью на языке задачи — текстовом, визуальном, референсном

Вот например промпт видео с нло —
Синий овал — это летающая тарелка НЛО, пролетающая над домом, а частицы — её луч света, поднимающий дом. Удалите аннотации синего овала и точки.


Все самые новые рабочие процессы для создания видео — byai.ru
3🔥12👍4❤‍🔥2👀1
Forwarded from ШишКИНО
Вот это я понимаю рекламная кампания.

Только вдумайтесь в этот мета-контекст: Киану Ривз рекламирует компанию, которая с помощью нейросетей создает инструменты кибер-безопасности.

Джонни Мнемоник и Нео с внешностью Джона Уика воюет против размножающихся злых клонов? Рекламное агентство, которое продавило этот концепт должно получить все награды мира.

Режиссером мини-серии выступил Дэвид Литч (один из создателей первого «Джона Уика»).
1🔥17👍2🌚21
Почему великие режиссёры снимают киношную рекламу и что это значит для вас

Ридли Скотт, Дэвид Линч, Тимур Бекмамбетов — все создавали рекламу в формате коротких историй. Для кого-то это был старт карьеры, для кого-то — способ обкатать идеи, для кого-то — заработать на свой полный метр (как Нил Бломкамп сделал «Район №9»)

ИИ-кино реклама — может быть таким же трамплином для любого. Нейросети позволяют создавать короткометражки быстрее, дешевле и с любыми визуальными решениями. Именно так вы сможете тренировать свой стиль, нарабатывать портфолио и запускать авторские проекты

В боте АЙ ВИДЕО мы собрали лучшие рекламные работы разных режиссеров, изучите пожалуйста, это очень интересно. И ждем вас на нашем образовательном проекте — https://byai.ru
5👍7🔥4🕊2
This media is not supported in your browser
VIEW IN TELEGRAM
Сейчас в эйай-видеопроизводстве есть четыре пути, и каждый из них может привести к деньгам, если работать, а не просто залипать в ленту

Путь создателя — собрать с нуля десятки тысяч подписчиков на YouTube, IG, TikTok, просто выкладывая короткий и интересный ИИ-контент — не такая сложная задача, особенно если начать с VEO3

Путь фрилансера — все хотят себе креативные видео или сюжеты с интеграцией продукта. Запросов очень много, но не все готовы достойно платить

Найм — внутри компаний «человек, который шарит за ИИ» становится незаменимым сотрудником

IP-путь — следующие «Симпсоны» или «Южный парк» будут созданы не большими студиями, а маленькими командами или соло-авторами с ИИ. Через несколько лет это уже будет нормой

Ниша, которая самая сложная, но демонстрирующая ваше мастерство — это кино. Где в основе лежит сильная история, последовательная раскадровка, работа с камерой и над консистентностью сцен. А ведь создавать кино можно, выбрав любой из четырёх путей выше. Это сложная ниша, но в ней минимальная конкуренция. Лучше уже сейчас углубляться в режиссуру и развивать свои гибкие навыки — насмотренность, чувство вкуса, арт-дирекшен. Потому что в будущем сложные технические навыки станут не нужны, ведь инструменты и рабочие процессы упрощаются

Теория — инструментарий — практика. От идеи до готовой истории. Присоединяйтесь — byai.ru
1👍14🔥73💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Собрал много вариантов использования Runway Reference

Вопрос не в том, что Runway References может делать, а в том, чего он не может…

Это супер инструмент, позволяющий из одного изображения переосмыслить всю сцену в новые ракурсы, сохраняя при этом единство персонажей и окружения

https://byai.ru/runwayreferences
422🔥7👍3
Video-to-music

Попробовал новую функцию у Elevenlabs, где загружается видео, а нейронка анализирует контекст видео и генерит музыку

То есть нейронка понимает динамику и атмосферу в видео

Мне такое нравится, забираю в продакшн
1👍22🔥76
Media is too big
VIEW IN TELEGRAM
Что такое AI slop?

Так называют поток однотипных картинок, текстов и видео, которые рождаются нажатием кнопки «сгенерировать» — без смысла, без стиля, без авторского высказывания

Это «ИИ-помои» — контент ради количества, а не ради идеи

Образовательный проект BYAI — это про киношное мышление, сценарий, драматургию, композицию, свет и атмосферу. Мы используем нейросети не для того, чтобы штамповать случайные кадры, а чтобы воплощать замыслы и находить свой стиль

Если вам важно не «потоковое AI slop», а настоящее осознанное кино с идеей и глубиной — велком на проект. Начало 02.09.25 — https://byai.ru
3🔥632🤷‍♂1
Мощнейшие кейфреймы Kling 2.1

Учитывая, что теперь модели хорошо вникают в контекст ключевого изображения и могут практически конструировать пространство и достраивать мир, взяв за основу всё, что есть в первом ключевом изображении, можно простраивать такие «пролёты» или «пробежки» в рамках первого и последнего кадра — в пределах 10 секунд генерации

Нужно подробно прописать в промпте, через какие детали происходит перелёт/пробежка, как двигается камера — от первого ключевого кадра до последнего

Кейфрейминг вообще недооцененная многими технология, можно как весь сюжет построить только на них, так и точечно строить сложные последовательности, комбинируя c i2v. Тоже самое и про last frame – когда у нас есть понимание, как должен закончиться кадр, а мы строим все, что происходит до него. Это как монтажное мышление, нужно понимать, где это применимо и заранее закладывать это решение в пайплайн

Credit — StevieMac03 / wenvis_ai
🔥154🤯2🤪2
This media is not supported in your browser
VIEW IN TELEGRAM
Похоже это лучшая на сегодняшний день контекстная модель для редактирования изображений естественным языком и референсами

Это Nano Banana
При редактировании очень хорошая согласованность тонов, детализации и атмосферы — все идеально соответствует референсам. Можно генерить с 4 референсными изображениями без потери качества. Чётко понимает естественный язык в промптинге

Минусы:
– Иногда слишком бережно относится к объекту и игнорит правки по свету/цвету
– Слабее справляется с фоном и кадрами в полный рост
– Есть мелкие косяки с перспективой

Это однозначно уходит в рабочие пайплайны, особенно при работе с ракурсами при построении повествования и работе над визуальной сюжетностью

Собрал кейсы использования на разных задачах и промпты. Вот как вы тоже можете это попробовать — http://byai.ru/nanobanano
2👍116🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Netflix сказал нейросетям «да»

Они выпустил официальный гайд по использованию генеративного ИИ в производстве контента. Это не «вау, нейронки спасут кино», а чёткие правила, где по их мнению можно, а где нельзя, и как всё это должно работать в реальном пайплайне

Основные моменты:
– ИИ это инструмент и автор остаётся ответственным за продукт
– Нельзя нарушать авторские права и юзать защищённый материал
– Обязательно указывать, что в проекте применялся ИИ
– Уже внедрено в превизы, концепт-арт, дубляж, VFX и всё, что ускоряет, а не заменяет творчество

А вообще такое уже в не первый раз в истории кино:
В 70-е Dolby-звук считался дорогой игрушкой, пока Звёздные войны не показали, что без него звук уже не кино. В 2000-м фильм «О, брат, где же ты?» стал первым фильмом с полной цифровой цветокоррекцией, до этого цвет меняли химически, на плёнке

CGI тоже начинался с недоверия – Трон в 82-м не признали «настоящими эффектами», а через 10 лет, Терминатор 2 и Парк Юрского периода закрепили за CGI статус основной технологии. После этого студии начали создавать собственные пайплайны на его основе

Нейросети проходит тот же маршрут – «игрушка – скепсис – большие проекты – стандартизация». Netflix своей статьей закрепляет этот переход

Я думаю, что это сигнал всему рынку, что время «игрушек для энтузиастов» закончилось, начинается стадия стандартизации. Ну а пока не началась, я поиздевался над их лого в VEO 3
2🔥238👍5❤‍🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
В согласованности персонажей больше нет проблем

Сложности есть (были) с согласованностью пространства. С появлением контекстных моделей (Sora Image, Google Whisp, Flux Context, Nano Banana, Seedream) управляемость, уровень контроля действий и локаций — все это, как будто бы стало решаться. Но добиться 100% согласованности пространства всё равно практически было невозможно

Пути два — создать трёхмерную сцену в Blender — либо построить примитив и сделать поверх image-to-image рендер, либо сразу собрать сцену по классике, с текстурами, из отдельных image-to-3d элементов. Или посмотреть в сторону свежего обновления Worldlabs AI — сгенерить локацию из одного изображения, сделать снимки нужных ракурсов и затем в контексте объединить локацию с персонажами

Так у нас получаются эталоны условно 360-градусных локаций и 360-градусные персонажи

Далее идут итерации генераций. Можно подключать референсы поз, чтобы точнее передавать нужные положения «актёров»

Широкими мазками так. Есть множество деталей и нюансов в этом пайплайне, но все они технически решаемы

2026 год станет годом моделей мира созданных в ИИ. Интерактивные исследуемые 3D-миры, созданные из одного или нескольких изображений. Скриньте
👍149👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Как фермер пугало нес

Сравнивая Wan 2.5 и Kling 2.5 в разных анимационных стилях, пришел к некоторым выводам:

У Wan очень часто проблема с ходьбой, у Kling к 7 секунде теряется консистентность лица персонажа. Kling более режиссерски подходит к генерации, обратите внимание на стиль ходьбы, Wan обычно без наиграности

У Kling чаще всего мелкие детали на фоне, которые должны двигаться — в некотором ступоре и морфятся, а у Wan 2.5 с первых секунд все четко получалось в большинстве раз

Достраивание мира у Wan менее интересно в плане деталей и насыщенности, чем у Kling — этот и продолжил историю с чайками, придумал горы на фоне и в конце добавил дерево с забором слева, сменив однообразие. Тут промпт не описывал, что именно должно быть достроено

Wan умеет и звуки и голос на русском с липсинком, как и Veo 3. Но в моем случае, выразительность и жестикуляция хуже получалась, чем у Veo, но об этом я напишу еще отдельно
217👍10🔥2
Media is too big
VIEW IN TELEGRAM
Режиссерское цитирование и какие тут параллели с нейросетями?

Режиссёры часто «цитируют» друг друга. Иногда это прямая отсылка к чужой работе, иногда просто так устроен визуальный язык кино и по другому не получится. В голове уже лежит библиотека кадров, ракурсов и движений камеры, чему и учат в киношколах. И я сейчас не затрагиваю часть драматургии, только визуал. Это когда-то придумали и это стало нормой. Потому что так глазу привычнее и проще воспринимать

Поэтому кино что-то берёт у аниме, аниме у кино

И нейросети работают почти так же. Они обучены на базе, которую создали авторы до

И вот где начинается авторство – там, где ты не просто следуешь правилам, а осознанно нарушаешь их и придаёшь этому свою интонацию
112👍7👌1
2025/10/28 03:42:01
Back to Top
HTML Embed Code: