Telegram Web Link
This media is not supported in your browser
VIEW IN TELEGRAM
Гагарт: Гага-актеры и Гага-ававтары.

Держите китайскую Хедру - GAGA.ART - озвучиватель портретов по фотке и входному тексту\аудио.

Попробовал, потому что дают 200 бесплатных кредитов.

Если честно, выглядит, как китайская под(д)елка: длительность видео 10 секунд (у Хедры минуты), кариес с зубами, статичная камера, ну и в целом так себе интерфейс.

Из плюсов, есть бесплатная генерилка картинок и за Gaga Actor с меня даже кредиты не списали.
Илон Маск сделан именно так.

В Gaga Avatar уже можно присовывать аудио, а не только текст.

Авторы настаивают, что они делают липсинк С УЧЕТОМ эмоций через микродвижения, что бы это не значило.

Попробуйте, может вам зайдет, логин гуглом.

https://gaga.art/

@cgevent
1🔥12😁8👍53
Нашел картинку, хорошо иллюстрирующую, почему не надо покупать видеокарты домой.

На картинке с точками, показано, что требования к железу в области ИИ растут в 4.5 раз в год.
А если взять оптимистическую трактовку закона Мура, то эффективность чипов растет в 2 раза в год (или за полтора года). И тут еще не говорится про объем памяти на чипах.

Как я и писал, требования к железу стали сильно превосходить возможности железа, которое может себе позволить новый нормальный пользователь.

Вторая картинка: затраты на построение дата-центров в этом году (в Штатах) вплотную приблизились к затратам на построение новых офисных зданий. Прекрасно, я считаю. Можно выпить за белых и синих воротничков.

@cgevent
1👍336😱4👎1🔥1
Vivix, the World's first Real-time Long Video Model

Звучит как кликбейт, но они действительно генерят пятисекундный видос за три секунды. Но есть моменты.

Реальный кликбейт тут: Vivix Turbo — создавайте видеоролики длиной до 1 минуты менее, чем за 3 секунды, с 9 вариантами сразу.

9 вариантов вам предложат только на платном тарифе.

Но на бесплатных генерациях (а мне насыпали сразу 260 кредитов и одна генерация - 10 кредитов), он работает как обещано - за три секунды генерит одно видео в 5 секунд.

Дальше начинаются игрищща - он пишет на видео длительность в 15 или даже в 50 секунд, и после того, как вы кликаете на видео, начинает его долго генерить (я не дождался).

Качество приподшакальное, 512р.

Но Вилл Смит втянул макаронину как положено.

Умеет только в image2video.

Наверное в таком случае проще использовать Grok Imagine

https://vivix.ai/labs/turbo

@cgevent
👍17😁32
The Best Inventions of 2025

Лучшие инновации и изобретения по версии Times.

Невозможно пересказать или суммаризировать, там слишком много всего - и оно ВСЕ интересное.
Полистайте, очень рекомендую, люди делают удивительные вещи в дизайне, робототехнике, ИИ и даже сельском хозяйстве.
От фенов до дронов.

Выделю лишь Huawei Pura 80 Ultra с непобиваемой камерой.

https://time.com/collections/best-inventions-2025/

@cgevent
1🔥206👍2😁2👎1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Клип “Маяк” - сольный проект TONEVA Ирины Тоневой (Toneva) by Оля Шарю за нейронки

Видео на You Tube

У Иры с самого начала было чёткое видение клипа:
1. Сюжет - показать состояние вне времени, когда прошлое и будущее теряют смысл. Не нужно бежать, прятаться или вспоминать - важно просто быть “здесь и сейчас”
2. Цвет —-мягкая, светлая палитра
3. Монтаж - плавный, без резких смен кадров и эффектов

До этого я уже делала сниппет на эту песню - тогда работала с LoRa (Flux)
@Krea, и именно она снова спасла проект

Для клипа я протестировала всё, что только можно:

- Omni ref @ Midjourney

- Character @ Higgsfield

- Character @ Ideogram

- LoRa (Krea 1)

Но нужную стабильность персонажа, гамму и скорость работы дала только LoRa (Flux) - как и раньше

Для плавного монтажа часто использовала морфинг, отсюда пошли небольшие сложности на монтаже. Делала стоп кадр анимации, анимировала его, и снова стоп кадр уже с анимированного первого сто-кадра. В итоге первый кадр и последний из этой цепочки сильно отличались как по высоте, так и по ширине, и для бесшовного монтажа приходилось долго подбирать нужное увеличение масштаба, а в некоторых случаях и расположение кадра по оси X и Y

Клип был сдан за день до релиза Kling 2.5, поэтому сцены с бегом дались непросто 😅 - тут очень выручила Seedance

И всё это - в условиях жёсткого дедлайна: нужно было успеть к неожиданному выступлению Иры на ВДНХ.
Анимация, монтаж, цветокор и апскейл - всё за 4 дня

В ночь сдачи перестал работать Edit @ Midjourney, а нужно было добавить маяк и росток в последний кадр.
Ни Nano Banana, ни Seedream не справились - помогла только связка генеративной заливки Photoshop + Nano Banana

Итог:
Клиент доволен
Клип уже рассматривают для ротации музыкальные паблики и каналы


@cgevent
👎6823👍16🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
Это вам за то, что не молитесь...
1😁106🔥2610👎5👍4😱2🙏1
Prompt: Generate an SVG of an Xbox 360 controller

@cgevent
😁74😱205🔥5👍4
This media is not supported in your browser
VIEW IN TELEGRAM
DreamOmni2: Multimodal Instruction-based Editing and Generation''

Вы будете смеяцца, но у нас ещё одна Нанабанана. Или скорее Qwen Edit, ибо опенсорс.

То есть генеративная и редактирующая мультимодальная модель для картинок. От Байтденсика.

Есть все. И код, и демо, и папирус, и страница проекта.

Все это вы найдете тут:
https://github.com/dvlab-research/DreamOmni2

Картинки и сравнения с Бананой, Контекстом, Квеном, GptImage 1 и даже с ОмниГеном тут:
https://pbihao.github.io/projects/DreamOmni2/index.html

Го тестировать в демо и локально, пишите в коменты, я до понедельника вдетоксе.

@cgevent
🔥37👍132👎2
Media is too big
VIEW IN TELEGRAM
Хотел написать "держите новый опенсорсный 3Д-генератор", но нет.

Во-первых, он не такой уж новый, статья вышла в июле, а сейчас появился код на гитхабе.
Во-вторых, это не самостоятельный 3Д-генератор, а нашлепка над TRELLIS, со всеми вытекающими.
Ну и маленькая деталь: код есть, но ссылка на веса не работает.

Идея в том, чтобы по входной картинке генерить не всю модель целиком, а сначала генерятся консистентные 2Д-маски для различный частей модели, потом для частей генерятся баундинг боксы, а уже по размерам этих боксов генерятся 3Д-модели, как отдельные части.

На картинках у них мелькает Geometry Processing и правильные отретопленные сетки, но подозреваю, что это фотошоп.

https://omnipart.github.io/
https://github.com/HKU-MMLab/OmniPart

@cgevent
9👍3😱2😁1
Ну, за драматургов!

Королевская опера Версальского дворца в 2026 году представит спектакль по пьесе, написанной искусственным интеллектом. Она будет создана в стиле французского драматурга Мольера.

Пьеса «Астролог, или Ложные предсказания» находится на стадии написания. Взяли Mistal и ну учить его на пьесах Мольера. Премьера ожидается 5 и 6 мая 2026 года.

@cgevent
👍27👎14😁127😱3🔥2
Segment Anything 3 тихо появился на ICLR в виде статьи

Первая версия SAM позволяла щелкнуть по объекту, чтобы сегментировать его.
В SAM 2 были добавлены видео и память.
Теперь SAM 3 говорит: просто опишите, что вы хотите - «желтый школьный автобус», «полосатый кот», «красное яблоко» — и он найдет и сегментирует каждый экземпляр этого объекта на изображениях или в видео.

Это как будто сегментация наконец-то научилась языку, но в обоснованной, минимальной форме, просто оперируя концепциями.
Короткие существительные, образцы изображений или и то, и другое.
Вы озвучиваете объект, он понимает, что вы имеете в виду, и рисует границу везде, где она появляется.

За этим стоит огромный механизм обработки данных: 4 миллиона уникальных концепций, 52 миллиона проверенных масок, созданных людьми и LLM, проверяющими работу друг друга.

Результат: примерно в 2 раза лучше, чем SAM 2, распознавание, близкое к человеческому, на тестах с открытым словарем и скорость в реальном времени.

https://openreview.net/forum?id=r35clVtGzw

@cgevent
👍49🔥215
This media is not supported in your browser
VIEW IN TELEGRAM
Mesh2Motion

Принес вам опенсорный вариант Mixamo: риг и анимация в браузере.

Загружаете свою 3Д-модель в Mesh2Motion, дальше работает авториг с возможностью редактирования, можно также навалить свою анимацию и потом экспортнуть в любой 3Д-пакет через GLB/GLTF.

Сайт: https://mesh2motion.org/
Демо: https://app.mesh2motion.org/
Код: https://github.com/scottpetrovic/mesh2motion-app

@cgevent
🔥27👍84😱2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Рендер или видео.

Unitree G1 Kungfu Kid V6.0


Заголовок оставляю для истории. Будем вспоминать, как луддиты хлестались в комментариях, что это все бесовские рендеры. Фляк назад особенно хорош.

Вы все еще хотите пинать этих зверушек ногами?

@cgevent
😱28🔥9👍4🙏31😁1
Нейропрожарка

Анимация от Константина.

Это тизер истории о девочке из племени волков, которая отправляется в опасное путешествие, чтобы спасти родителей. Делал в апреле–мае через тренировку лор (на тот момент это было лучшее решение) и локальную генерацию стиллов. Всё сгенерировано, кроме композита и музыки. Уникальный дизайн персонажа и фонов был получен путём совмещения нескольких лор.
Анимация: Wan (локально), Kling 1.6 (в основном), 2.0, Runway 4 Turbo.

Помимо работы прикрепляю короткий мейкинг-оф с некоторыми материалами. Буду рад обратной связи)


@cgevent
🔥178👍3615👎5
Вакансия

ICLUB Global is hiring: Creative AI Video Editor

We are looking for a creative editor experienced with SORA and other AI video tools to produce content for our social media and the ICLUB mobile platform.

About ICUB Global -
• 94 portfolio companies
• 11 exits / $15M (incl. 22x Coterie)
• $70M+ invested (2020–2025)

What you’ll do -
• Edit videos with AI tools (SORA, Runway, etc.)
• Adapt content for Telegram, Instagram, LinkedIn, YouTube
• Collaborate with the content team on storytelling


Requirements -
• Proven experience in AI video editing (SORA + others)
• Creativity and attention to detail
• Ability to tailor content for different formats
• Portfolio is a must

Send your portfolio to: [email protected] or telegram: @yrmnh
🔥8👎52
2025/10/24 20:32:20
Back to Top
HTML Embed Code: