Forwarded from AI Product | Igor Akimov
Anthropic запустили Claude Skills – способ научить Claude делать специфические задачи именно так, как нужно вам.
Суть простая: вы создаёте папку с инструкциями, скриптами и файлами, а Claude сам подгружает нужный скилл, когда это релевантно задаче. Никакого ручного выбора – модель сама определяет, что нужно.
Что умеют скиллы:
- Взаимодействуют друг с другом – Claude сам понимает, какие навыки нужны, и комбинирует их
- Работают везде одинаково – создали один раз, используете в веб-приложении, Claude Code и через API
- Могут включать исполняемый код для задач, где нужна генерация и расчеты.
Примеры довольно рабочие:
Box использует скиллы для трансформации файлов в презентации и документы по корпоративным стандартам.
Canva планирует встраивать скиллы в агентов для создания дизайнов.
Включается в настройках (Settings - Features - Skills). Для создания есть встроенный "skill-creator" – он сам спросит про ваш воркфлоу и соберёт структуру.
Подробности: https://www.anthropic.com/news/skills
Примеры скиллов: https://github.com/anthropics/skills
Видео: https://youtu.be/IoqpBKrNaZI
Суть простая: вы создаёте папку с инструкциями, скриптами и файлами, а Claude сам подгружает нужный скилл, когда это релевантно задаче. Никакого ручного выбора – модель сама определяет, что нужно.
Что умеют скиллы:
- Взаимодействуют друг с другом – Claude сам понимает, какие навыки нужны, и комбинирует их
- Работают везде одинаково – создали один раз, используете в веб-приложении, Claude Code и через API
- Могут включать исполняемый код для задач, где нужна генерация и расчеты.
Примеры довольно рабочие:
Box использует скиллы для трансформации файлов в презентации и документы по корпоративным стандартам.
Canva планирует встраивать скиллы в агентов для создания дизайнов.
Включается в настройках (Settings - Features - Skills). Для создания есть встроенный "skill-creator" – он сам спросит про ваш воркфлоу и соберёт структуру.
Подробности: https://www.anthropic.com/news/skills
Примеры скиллов: https://github.com/anthropics/skills
Видео: https://youtu.be/IoqpBKrNaZI
Anthropic
Claude Skills: Customize AI for your workflows
Build custom Skills to teach Claude specialized tasks. Create once, use everywhere—from spreadsheets to coding. Available across Claude.ai, API, and Code.
❤19👍13👎6🔥1😁1
А еще Антропик бахнул новую версию 4.5 "маленькой" модели Haiku.
Она в ДВА раза быстрее и в ТРИ раза дешевле!
И, конечно же, на первой же картинке в блоге Антропика она побивает, внимание:
GPT-5, Gemini 2.5 Pro и даже Sonnet 4.
Подробности тут:
https://www.anthropic.com/news/claude-haiku-4-5
@cgevent
Она в ДВА раза быстрее и в ТРИ раза дешевле!
И, конечно же, на первой же картинке в блоге Антропика она побивает, внимание:
GPT-5, Gemini 2.5 Pro и даже Sonnet 4.
Подробности тут:
https://www.anthropic.com/news/claude-haiku-4-5
@cgevent
😁14👎7👍6❤3😱1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
Мне всегда нравился жанр роад-муви — дорожное приключение, как правило, двух друзей или напарников. Когда вышел сериал "Настоящий детектив" с Макконахи и Харрельсоном я параллельно читал «Одноэтажную Америку» Ильфа и Петрова. И как-то так меня вдохновили две эти вселенные плюс другие подобные фильмы и сериалы, что я написал короткий сценарий. А точнее синопсис, как бы мог выглядеть такой мэшап. Сейчас одним предложением его можно охарактеризовать так: советские писатели оказываются втянуты в игру спецслужб, где есть место и высоким технологиям, и мистическим культам США 1930-х. Написал пару листов и забыл, так как таких набросков было не мало.
Периодически по работе моушн-дизайнером и для своих творческих проектов я создавал либо мультяшные истории со скелетной анимацией, либо какие-то коллажные ролики в стилистике перекладной анимации в After Effects и Adobe Character. Делал клипы, мультики по типу Масяни и тд, но быстро к ним охладевал, так как не было обратной реакции, а времени и сил уходило немало. Думаю многим знакомо это чувство. И вот ура, появились нейросети и увидеть воплощение своей идеи занимает пару нажатий (по крайней мере так думают заказчики). И вот как я делаю эти пару нажатий: пишу сценарий в чате gpt, опираясь на первоисточники. Там же делаю промты на шоты, которые генерирую во freepik.com. С подпиской премиум+ дается безлимит на генерацию картинок, а я в 99% случаев использую i2v. Также обучил характеры своих персонажей, но при генерации они получаются хуже, чем просто прикрепить фото как реф и в промте ссылаться на него. Видео с диалогами делаю Veo 3. Есть артефакты и моменты брака, например слова в ударениях или где-то неправильно буква произносится. В общем, что-то типа 6 пальца, который искушенный человек не пропустит. Но я сознательно не трачу время и кредиты на эти доработки, потому что мне важнее реализовать максимум проекта с качеством 90%, чем один эпизод с качеством 100%. Поэтому если после 2-3 попыток Veo выдает все же брак по голосу - иду в hedra или sync и пытаюсь переозвучить там, поэтому голоса у персонажей "гуляют". Знаю, что можно обучить свою голосовую модель, но пока интонации звучат пресно. Часто сгенерированные картинки редактирую в Фотошопе, так получается быстрее, чем той же нанабананой. Но если нужен поворот предмета, другой ракурс, то есть пересобрать сцену - она прям радует. Ну и общая сборка в Premier Pro - монтаж, работа со звуком, субтитры. Во время монтажа меняется и сценарий зачастую, но на то он и монтаж. На самом деле, никаких хитрых приемов, а скорее уже базовый набор инструментов для дизайнера и концепт-художника. Меня самого сильно привлекают вирусные ролики на повседневные бытовые темы - котики, кассиры, бабульки. Вот как сейчас активно бомбят интернет ролики, сделанные в сора 2. Но моя мечта это делать сложные исторические или фантастические большие проекты. И в будущем вижу ИИ как неотъемлемую часть кинопроцесса.
Для нейропрожарки я прикрепил, слитые в одно видео 6 эпизодов, а вообще они выходят по 1 минуте примерно раз в неделю без строгого графика. По времени 1 эпизод примерно 1-2 рабочих дня (учитывая написанный сценарий) и день на доработку и саунд-дизайн на свежую голову + релиз на площадки, а это тоже время. Всего запланировал 18 эпизодов. Следить можно на всех ресурсах с адресом @vshtatskom
@cgevent
Мне всегда нравился жанр роад-муви — дорожное приключение, как правило, двух друзей или напарников. Когда вышел сериал "Настоящий детектив" с Макконахи и Харрельсоном я параллельно читал «Одноэтажную Америку» Ильфа и Петрова. И как-то так меня вдохновили две эти вселенные плюс другие подобные фильмы и сериалы, что я написал короткий сценарий. А точнее синопсис, как бы мог выглядеть такой мэшап. Сейчас одним предложением его можно охарактеризовать так: советские писатели оказываются втянуты в игру спецслужб, где есть место и высоким технологиям, и мистическим культам США 1930-х. Написал пару листов и забыл, так как таких набросков было не мало.
Периодически по работе моушн-дизайнером и для своих творческих проектов я создавал либо мультяшные истории со скелетной анимацией, либо какие-то коллажные ролики в стилистике перекладной анимации в After Effects и Adobe Character. Делал клипы, мультики по типу Масяни и тд, но быстро к ним охладевал, так как не было обратной реакции, а времени и сил уходило немало. Думаю многим знакомо это чувство. И вот ура, появились нейросети и увидеть воплощение своей идеи занимает пару нажатий (по крайней мере так думают заказчики). И вот как я делаю эти пару нажатий: пишу сценарий в чате gpt, опираясь на первоисточники. Там же делаю промты на шоты, которые генерирую во freepik.com. С подпиской премиум+ дается безлимит на генерацию картинок, а я в 99% случаев использую i2v. Также обучил характеры своих персонажей, но при генерации они получаются хуже, чем просто прикрепить фото как реф и в промте ссылаться на него. Видео с диалогами делаю Veo 3. Есть артефакты и моменты брака, например слова в ударениях или где-то неправильно буква произносится. В общем, что-то типа 6 пальца, который искушенный человек не пропустит. Но я сознательно не трачу время и кредиты на эти доработки, потому что мне важнее реализовать максимум проекта с качеством 90%, чем один эпизод с качеством 100%. Поэтому если после 2-3 попыток Veo выдает все же брак по голосу - иду в hedra или sync и пытаюсь переозвучить там, поэтому голоса у персонажей "гуляют". Знаю, что можно обучить свою голосовую модель, но пока интонации звучат пресно. Часто сгенерированные картинки редактирую в Фотошопе, так получается быстрее, чем той же нанабананой. Но если нужен поворот предмета, другой ракурс, то есть пересобрать сцену - она прям радует. Ну и общая сборка в Premier Pro - монтаж, работа со звуком, субтитры. Во время монтажа меняется и сценарий зачастую, но на то он и монтаж. На самом деле, никаких хитрых приемов, а скорее уже базовый набор инструментов для дизайнера и концепт-художника. Меня самого сильно привлекают вирусные ролики на повседневные бытовые темы - котики, кассиры, бабульки. Вот как сейчас активно бомбят интернет ролики, сделанные в сора 2. Но моя мечта это делать сложные исторические или фантастические большие проекты. И в будущем вижу ИИ как неотъемлемую часть кинопроцесса.
Для нейропрожарки я прикрепил, слитые в одно видео 6 эпизодов, а вообще они выходят по 1 минуте примерно раз в неделю без строгого графика. По времени 1 эпизод примерно 1-2 рабочих дня (учитывая написанный сценарий) и день на доработку и саунд-дизайн на свежую голову + релиз на площадки, а это тоже время. Всего запланировал 18 эпизодов. Следить можно на всех ресурсах с адресом @vshtatskom
@cgevent
👎112👍23🔥10❤9😱3😁1🙏1
FlashVSR
Towards Real-Time Diffusion-Based Streaming Video Super-Resolution
Точно не лучший апскейлер видео, но зато опенсорсный, раз уж в коментах были вопросы.
Есть и код:
https://github.com/OpenImagingLab/FlashVSR
И ноды для комфи:
https://github.com/smthemex/ComfyUI_FlashVSR
Ест много памяти, как все апскейлеры.
Использует Block-Sparse Attention, который будет капризничать на слабых видеокартах.
@cgevent
Towards Real-Time Diffusion-Based Streaming Video Super-Resolution
Точно не лучший апскейлер видео, но зато опенсорсный, раз уж в коментах были вопросы.
Есть и код:
https://github.com/OpenImagingLab/FlashVSR
И ноды для комфи:
https://github.com/smthemex/ComfyUI_FlashVSR
Ест много памяти, как все апскейлеры.
Использует Block-Sparse Attention, который будет капризничать на слабых видеокартах.
@cgevent
👍11❤8😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Will Smith в Veo 3.1
Мне кажется, это уже AGI...
Тут и звук, и макаронина.
Сколько Виллов Смитов дадим?
@cgevent
Мне кажется, это уже AGI...
Тут и звук, и макаронина.
Сколько Виллов Смитов дадим?
@cgevent
🔥143😁41👍10😱10👎7❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Когда анекдоты перестают быть анекдотами
Новости технологий: изобретен аппарат автоматического бритья:
- Бросаешь рубль, суешь голову в прорезь
и он тебя автоматически бреет.
- Но ведь у всех разные лица!?!?
- В первый раз да ...
@cgevent
Новости технологий: изобретен аппарат автоматического бритья:
- Бросаешь рубль, суешь голову в прорезь
и он тебя автоматически бреет.
- Но ведь у всех разные лица!?!?
- В первый раз да ...
@cgevent
😁111🔥8😱5❤3👎2👍1
Нейропрожарка
Автор: Павел Жигарев | Noizlab
4K версии : 1 и 2
Telegram
🎬 Эксперимент: создание AI-кино трейлеров на open-source модели Flux ⏱️ Срок: 8 недель в совокупности. 💡 Как началось: пришла идея а можно ли сделать «настоящее» КИНО с актерами в их «прайм» форме и без цензуры, Midjourney и все остальные нейронки не позволяли этого из-за цензуры и прав ,да и консистентность от кадра к кадру оставляет желать лучшего .. — поэтому тут было решено - только кастомные решение , только хардкор!. Взял самую сложную задачу: «молодой» Арнольд в образе Конана с полной экипировкой под эстетику 80-х. Так же у меня есть своя “кино” модель Flux обученная на нескольких тысячах кадров из фильмов что сделало картинку более “киношной”
✅ Где было сложно : Ручной inpaint/upscale каждой детали костюма (ремни, бляхи, мех, шнуровка) — чтобы ничего не «плавало». Полировка лица на проблемных кадрах. Без этого консистентность разваливается.
Сделал около 3000 генераций видео чтобы отобрать самые лучшие дубли.. это очень долго и муторно..
🚀 AI Стек:
Prompts - мой ChatGPTs
SwarmUI - Основной Хост.
Finetuned Flux.dev + Kohya_SS (Dreambooth для finetuning)
ComfyUI - Batch Second Pass Upscale
Editing: Krea Flux.dev (быстро дешево)
VideoGen - Higgsfield AI, Kling 2.1 start/end. Hailuo-02 (action), Seedance Pro (статика)
Final Cut Pro + Плагины
Face Fusion (полировка лица)
Topazlabs (Upscale 4K)
ElevenLabs - диктор озвучка
Музыка - Custom
Музыка и звук:
Отдельное внимание было к саунду так как в осноном все забивают на это Музыку для обеих роликов писал сам. Более того это был мой первый опыт написания классической и трехмерной мызыки а так же SFX тоже был собран с нуля. Так же классно получилось имплементировать заглавную тему Конана от маэстро Безила Полидуриса.
🎯 Финал:
Не претендую на 100% консистентность, но старался сделать Конана как можно ближе к оригиналу . Этим видео хочется показать: в умелых руках ИИ-инструменты + насмотренность + креативные навыки 12 профессий в одном хе-хе + выдержка дают превосходный результат — шаг к настоящему кино на open-source стеке, от омоложения актёров до возрождения франшиз.
Если интересны подробности о проекте и как AI становится рабочим инструментом, а не генератором мемов — присоединяйтесь мы про ИИ Кино и чуть-чуть про мемы )
@cgevent
Автор: Павел Жигарев | Noizlab
4K версии : 1 и 2
Telegram
🎬 Эксперимент: создание AI-кино трейлеров на open-source модели Flux ⏱️ Срок: 8 недель в совокупности. 💡 Как началось: пришла идея а можно ли сделать «настоящее» КИНО с актерами в их «прайм» форме и без цензуры, Midjourney и все остальные нейронки не позволяли этого из-за цензуры и прав ,да и консистентность от кадра к кадру оставляет желать лучшего .. — поэтому тут было решено - только кастомные решение , только хардкор!. Взял самую сложную задачу: «молодой» Арнольд в образе Конана с полной экипировкой под эстетику 80-х. Так же у меня есть своя “кино” модель Flux обученная на нескольких тысячах кадров из фильмов что сделало картинку более “киношной”
✅ Где было сложно : Ручной inpaint/upscale каждой детали костюма (ремни, бляхи, мех, шнуровка) — чтобы ничего не «плавало». Полировка лица на проблемных кадрах. Без этого консистентность разваливается.
Сделал около 3000 генераций видео чтобы отобрать самые лучшие дубли.. это очень долго и муторно..
🚀 AI Стек:
Prompts - мой ChatGPTs
SwarmUI - Основной Хост.
Finetuned Flux.dev + Kohya_SS (Dreambooth для finetuning)
ComfyUI - Batch Second Pass Upscale
Editing: Krea Flux.dev (быстро дешево)
VideoGen - Higgsfield AI, Kling 2.1 start/end. Hailuo-02 (action), Seedance Pro (статика)
Final Cut Pro + Плагины
Face Fusion (полировка лица)
Topazlabs (Upscale 4K)
ElevenLabs - диктор озвучка
Музыка - Custom
Музыка и звук:
Отдельное внимание было к саунду так как в осноном все забивают на это Музыку для обеих роликов писал сам. Более того это был мой первый опыт написания классической и трехмерной мызыки а так же SFX тоже был собран с нуля. Так же классно получилось имплементировать заглавную тему Конана от маэстро Безила Полидуриса.
🎯 Финал:
Не претендую на 100% консистентность, но старался сделать Конана как можно ближе к оригиналу . Этим видео хочется показать: в умелых руках ИИ-инструменты + насмотренность + креативные навыки 12 профессий в одном хе-хе + выдержка дают превосходный результат — шаг к настоящему кино на open-source стеке, от омоложения актёров до возрождения франшиз.
Если интересны подробности о проекте и как AI становится рабочим инструментом, а не генератором мемов — присоединяйтесь мы про ИИ Кино и чуть-чуть про мемы )
@cgevent
🔥114👍35❤20👎13😁1
Знаю тут многие пользуются Дипсиком.
У них вот такое обновление - DeepSeek-OCR, модель для перевода картинок в текст\маркдаун.
Распознает даже химические формулы и конвертит их в SMILES формат.
- Состоит из 2 компонентов - DeepEncoder (380M) и DeepSeek MoE (3B, 570M активных)
- Нативные разрешения - 512×512, 640x640, 1024x1024, 1280×1280
Распознает картинки с очень низким качеством и большой компрессией.
https://github.com/deepseek-ai/DeepSeek-OCR
@cgevent
У них вот такое обновление - DeepSeek-OCR, модель для перевода картинок в текст\маркдаун.
Распознает даже химические формулы и конвертит их в SMILES формат.
- Состоит из 2 компонентов - DeepEncoder (380M) и DeepSeek MoE (3B, 570M активных)
- Нативные разрешения - 512×512, 640x640, 1024x1024, 1280×1280
Распознает картинки с очень низким качеством и большой компрессией.
https://github.com/deepseek-ai/DeepSeek-OCR
@cgevent
🔥67👍8❤5😁2
Reve.art видео?
Reve завезли на Fal.ai и replicate.com, причем в трех ипостасях, генерация, редактирование и ремикс.
Но самое интересное, что в сети упорно ходят слухи, что они готовят свою видео модель:
вертикальный и горизонтальный формат
первый и последний кадр
звук
Зная их команду, стоит ожидать чего-то интересного
@cgevent
Reve завезли на Fal.ai и replicate.com, причем в трех ипостасях, генерация, редактирование и ремикс.
Но самое интересное, что в сети упорно ходят слухи, что они готовят свою видео модель:
вертикальный и горизонтальный формат
первый и последний кадр
звук
Зная их команду, стоит ожидать чего-то интересного
@cgevent
❤25👍13
Media is too big
VIEW IN TELEGRAM
RTFM: A Real-Time Frame Model
Про генерацию миров от WorldLab я уже писал и не раз.
Но тут они выкатили новое интерактивное демо, которое нельзя не попробовать.
Главные фишки: бесконечный контекст(память) и нефотореалистичные "скины".
Для начала, идете сюда и пробуете:
https://rtfm.worldlabs.ai/
Там пока нельзя вгрузить свое изображение, но можно попробовать картинки из библиотеки.
На входе ОДНО изображение и промпт - на выходе - целый мир.
Потом читаете тут:
https://www.worldlabs.ai/blog/rtfm
По мере развития этой технологии становится ясно одно: генеративные модели мира будут требовать очень больших вычислительных ресурсов, гораздо больше, чем современные LLM. Если мы наивно применим современные видеоархитектуры к этой задаче, то для генерации интерактивного 4K-видеопотока со скоростью 60 кадров в секунду потребуется производить более 100 тысяч токенов в секунду (примерно столько же, сколько составляет длина романа «Франкенштейн» или первой книги о Гарри Поттере); чтобы эти генерации сохранялись в течение часового (или дольше) взаимодействия, необходимо обрабатывать контексты, превышающие 100 миллионов токенов. Это невозможно и экономически нецелесообразно с учетом современной вычислительной инфраструктуры.
Но WorldLab сделал так, что RTFM может крутиться на ОДНОЙ H100, обеспечивая интерактивный опыт.
С бесконечным контекстом они придумали интересный трюк: они не запоминают все сгенерированные кадры (экономя память), а лишь углы камеры и метадату плюс "некоторое" количество кадров вокруг текущего ракурса (кеш генераций), при достаточно большой смене ракурса перегенерируют заново.
Модель обрабатывает широкий спектр типов сцен, визуальных стилей и эффектов, включая отражения, полированные поверхности, тени и блики.
На видео в начале каждого плана можно заметить небольшие артефакты, но на общем фоне и с учетом красоты работы это мелочи.
@cgevent
Про генерацию миров от WorldLab я уже писал и не раз.
Но тут они выкатили новое интерактивное демо, которое нельзя не попробовать.
Главные фишки: бесконечный контекст(память) и нефотореалистичные "скины".
Для начала, идете сюда и пробуете:
https://rtfm.worldlabs.ai/
Там пока нельзя вгрузить свое изображение, но можно попробовать картинки из библиотеки.
На входе ОДНО изображение и промпт - на выходе - целый мир.
Потом читаете тут:
https://www.worldlabs.ai/blog/rtfm
По мере развития этой технологии становится ясно одно: генеративные модели мира будут требовать очень больших вычислительных ресурсов, гораздо больше, чем современные LLM. Если мы наивно применим современные видеоархитектуры к этой задаче, то для генерации интерактивного 4K-видеопотока со скоростью 60 кадров в секунду потребуется производить более 100 тысяч токенов в секунду (примерно столько же, сколько составляет длина романа «Франкенштейн» или первой книги о Гарри Поттере); чтобы эти генерации сохранялись в течение часового (или дольше) взаимодействия, необходимо обрабатывать контексты, превышающие 100 миллионов токенов. Это невозможно и экономически нецелесообразно с учетом современной вычислительной инфраструктуры.
Но WorldLab сделал так, что RTFM может крутиться на ОДНОЙ H100, обеспечивая интерактивный опыт.
С бесконечным контекстом они придумали интересный трюк: они не запоминают все сгенерированные кадры (экономя память), а лишь углы камеры и метадату плюс "некоторое" количество кадров вокруг текущего ракурса (кеш генераций), при достаточно большой смене ракурса перегенерируют заново.
Модель обрабатывает широкий спектр типов сцен, визуальных стилей и эффектов, включая отражения, полированные поверхности, тени и блики.
На видео в начале каждого плана можно заметить небольшие артефакты, но на общем фоне и с учетом красоты работы это мелочи.
@cgevent
👍22🔥19❤6👎2
This media is not supported in your browser
VIEW IN TELEGRAM
FlashWorld: High-quality 3D Scene Generation within Seconds
А вот интересная опенсорсная ответочка от Хуньяньского на генерацию миров.
Тут правда под капотом гауссианы и качество среднее, но при этом авторы клянуцца, что генерят 3DGS-сцену за 5 секунда на "single GPU", что в 10-100 раз быстрее предыдущих методов.
Для гиков может быть интересно, код есть:
https://imlixinyang.github.io/FlashWorld-Project-Page/
@cgevent
А вот интересная опенсорсная ответочка от Хуньяньского на генерацию миров.
Тут правда под капотом гауссианы и качество среднее, но при этом авторы клянуцца, что генерят 3DGS-сцену за 5 секунда на "single GPU", что в 10-100 раз быстрее предыдущих методов.
Для гиков может быть интересно, код есть:
https://imlixinyang.github.io/FlashWorld-Project-Page/
@cgevent
🔥25👍5❤2
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
На этот раз от самого Доброкотова, известного в миру как АI molodtca
Бригада, но это аниме опенинг.
Уже пятый в серии. Делал где-то месяц в свободное от студийных проектов время (и да, пришлось пересмотреть сериал целиком — освежить ключевые моменты).
Звук
Я всегда начинаю с музыкальной темы — она даёт нужную структуру. Поэтому написал черновой текст, через Claude адаптировал на японский и пошёл в Suno. В этом опенинге хотелось сделать именно кавер на оригинальную мелодию (она важна для вайба), поэтому с помощью Cover сделал около 50 версий, пока не нашлась вишенка.
Картинки
Дальше начинается высокофункциональный аутизм — генерация стиллшотов. Благо теперь есть нано банан, абсолютное величие. Без него бы сошёл с ума: делать лоры на каждого персонажа, инпейнтить их в сцены и заниматься другой первобытной дикостью.
В процессе открыл для себя, что бананой довольно удобно итерационно пользоваться не только в нативном чате, но и в нодовой системе — большая часть шотов сделана шаг за шагом в Фиджитал+.
Видео
Если раньше в анимацию могла только Luma 2 (где и делал все прошлые опенинги), то сейчас все модели это умеют. НО — часть моделей (например, Veo-3) превращает 2D в квази 3D. Поэтому если делаете анимацию — ваша остановочка это Minimax 2 и новый Kling 2.5. В последнем сделана бóльшая часть шотов, а кадры с start-end frame — в Минимаксе. Потрачено где-то по 6к кредитов в каждом.
Монтаж
Для личных приколдесов использую платный CapCut. Весёлый и заряженный.
Да вот и всё, жарьте, бандиты! 🐺
@cgevent
На этот раз от самого Доброкотова, известного в миру как АI molodtca
Бригада, но это аниме опенинг.
Уже пятый в серии. Делал где-то месяц в свободное от студийных проектов время (и да, пришлось пересмотреть сериал целиком — освежить ключевые моменты).
Звук
Я всегда начинаю с музыкальной темы — она даёт нужную структуру. Поэтому написал черновой текст, через Claude адаптировал на японский и пошёл в Suno. В этом опенинге хотелось сделать именно кавер на оригинальную мелодию (она важна для вайба), поэтому с помощью Cover сделал около 50 версий, пока не нашлась вишенка.
Картинки
Дальше начинается высокофункциональный аутизм — генерация стиллшотов. Благо теперь есть нано банан, абсолютное величие. Без него бы сошёл с ума: делать лоры на каждого персонажа, инпейнтить их в сцены и заниматься другой первобытной дикостью.
В процессе открыл для себя, что бананой довольно удобно итерационно пользоваться не только в нативном чате, но и в нодовой системе — большая часть шотов сделана шаг за шагом в Фиджитал+.
Видео
Если раньше в анимацию могла только Luma 2 (где и делал все прошлые опенинги), то сейчас все модели это умеют. НО — часть моделей (например, Veo-3) превращает 2D в квази 3D. Поэтому если делаете анимацию — ваша остановочка это Minimax 2 и новый Kling 2.5. В последнем сделана бóльшая часть шотов, а кадры с start-end frame — в Минимаксе. Потрачено где-то по 6к кредитов в каждом.
Монтаж
Для личных приколдесов использую платный CapCut. Весёлый и заряженный.
Да вот и всё, жарьте, бандиты! 🐺
@cgevent
🔥147👍32❤19👎13😁3
Forwarded from Хирон
Интеллектуальная нищета не лечится промтами и курсами
Если при практически неограниченных возможностях общения с ИИ человек всё ещё надеется найти «тот самый волшебный промт», то дело уже не в промтах, а в самом подходе. Это сознательный выбор остаться неконкурентоспособным
Если же человек до сих пор не начал коммуницировать с ИИ, то он либо слишком счастлив и уже поймал дзен, либо недееспособен, либо его восприятие реальности настолько ограничено, что он не осознаёт происходящего
ИИ обучается на миллиардах человеческих текстов и является зеркалом коллективного сознания. Его ответы - отражение мышления вопрошающего. И если это мышление узко, то человек окончательно лишится шансов конкурировать уже через 5-7 лет. Причём он даже не узнает о своей ограниченности - примерно так же, как голубь не узнает, что семечки падают не с неба
Интеллектуальная нищета лечится только осознанием факта, что с неба вообще ничего не падает. Даже семечки
Первая порция пищи для ума и ключ к эффективному союзу с ChatGPT:
🔐 Метод Хирона. Часть 1. «Человеĸ + Исĸусственный Интеллеĸт»
P.S.Любопытство - это хорошо, если знаешь, куда его направить
Если при практически неограниченных возможностях общения с ИИ человек всё ещё надеется найти «тот самый волшебный промт», то дело уже не в промтах, а в самом подходе. Это сознательный выбор остаться неконкурентоспособным
Если же человек до сих пор не начал коммуницировать с ИИ, то он либо слишком счастлив и уже поймал дзен, либо недееспособен, либо его восприятие реальности настолько ограничено, что он не осознаёт происходящего
ИИ обучается на миллиардах человеческих текстов и является зеркалом коллективного сознания. Его ответы - отражение мышления вопрошающего. И если это мышление узко, то человек окончательно лишится шансов конкурировать уже через 5-7 лет. Причём он даже не узнает о своей ограниченности - примерно так же, как голубь не узнает, что семечки падают не с неба
Интеллектуальная нищета лечится только осознанием факта, что с неба вообще ничего не падает. Даже семечки
Первая порция пищи для ума и ключ к эффективному союзу с ChatGPT:
🔐 Метод Хирона. Часть 1. «Человеĸ + Исĸусственный Интеллеĸт»
P.S.
👎90😁33👍12❤10😱4🔥1🙏1
Forwarded from Psy Eyes
Simulon: приложение для вписывания и анимации 3D моделей в видео с реалистичным освещением и трекингом камеры вышло в публичный доступ. Ранее, когда оно ещё было в привате, я делал обзор.
Обновился интерфейс и теперь есть два подхода к созданию сцен:
* Take-based — каждая видеозапись создаёт свою 3D сцену. Удобно для работы над индивидуальными фрагментами.
* Scene-based — можно делать глобальные правки в конкретной сцене и подгружать дубли как камеры. Подойдёт при работе в мультикам режиме.
Между подходами можно переключаться.
Что ещё нового:
* Глобальный контроль анимации — можно поставить на паузу и сделать её сброс в любой момент. Если начать запись во время паузы, анимация начнётся с 1 кадра, позволяя получить предсказуемый результат.
* Улучшен удалённый авторинг в Блендоре
* Поддержка Alembic (.abc) файлов. Конвертер Simulon позволяет воспроизводить анимации в реальном времени на iPhone.
* Рабочие группы для совместной работы над проектами.
Приложение всё также доступно пока только на iPhone.
Сайт
Приложение
Твит
Обновился интерфейс и теперь есть два подхода к созданию сцен:
* Take-based — каждая видеозапись создаёт свою 3D сцену. Удобно для работы над индивидуальными фрагментами.
* Scene-based — можно делать глобальные правки в конкретной сцене и подгружать дубли как камеры. Подойдёт при работе в мультикам режиме.
Между подходами можно переключаться.
Что ещё нового:
* Глобальный контроль анимации — можно поставить на паузу и сделать её сброс в любой момент. Если начать запись во время паузы, анимация начнётся с 1 кадра, позволяя получить предсказуемый результат.
* Улучшен удалённый авторинг в Блендоре
* Поддержка Alembic (.abc) файлов. Конвертер Simulon позволяет воспроизводить анимации в реальном времени на iPhone.
* Рабочие группы для совместной работы над проектами.
Приложение всё также доступно пока только на iPhone.
Сайт
Приложение
Твит
❤37🔥15👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Это вам за то, что молитесь...
1😁238🔥26👎12❤9🙏7😱4
