Telegram Web Link
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

"Memory Mode: ON"

Что, если ферма будущего — это не про дроны и сталь, а про заботу и память?
История девочки и робота в мире, где технологии служат человеку и природе.

Автор:
@tinlag

Инструменты: Midjourney, flux context, gpt, PS generative fill, premiere pro, davinci resolve, kling, veo-3 fast, topaz gigapixel, topaz video ai.

Музыка и звук: evanto elements


@cgevent
👍6233🔥20👎17😁1
This media is not supported in your browser
VIEW IN TELEGRAM
В Google Flow появились функции редактирования видео.

Из прикольного: вставка объекта, просто выбираете место, где вы хотите разместить объект, и описываете его. Flow сгенерирует объект *и* плавно интегрирует его в ваш клип.

@cgevent
🔥9936👍13😱4👎1
Киберпанк все ближе.
Когда школы “дружат” с ИИ: преимущества и растущие риски для учащихся

Неплохой отчет для американских школ: массовое внедрение ИИ в школы идёт быстрее, чем успевают появляться правила и защита.

* По опросу CDT, 85 % учителей и 86 % учащихся заявили, что использовали ИИ в учебном году 2024-25.
* Применяют ИИ в самых разных задачах: планирование уроков, помощь ученикам, ведение домашнее задания, индивидуализация обучения и др.
* Но всё чаще отмечается: школы, которые активно внедряют ИИ, чаще сталкиваются с серьёзными инцидентами — утечками данных, случаями интимного контента, deepfake-материалами. ьными “собеседниками”
* Часть учащихся уже использует ИИ для эмоциональной поддержки или даже романтических отношений, что создаёт дополнительные этические сложности.
---

Как ИИ меняет взаимоотношения и учебный опыт

* **Ощущение дистанции с учителями.
56 % учеников заявили, что при использовании ИИ они чувствуют себя менее связанными с педагогом.
* При этом 52 % предпочитают работать с ИИ, чем с человеком — особенно в задачах, где ИИ быстрее выдает готовые решения.
* Большой процент школьников уже задействует ИИ для психологической поддержки (42 %) или романтического общения (1 из 5).
* ИИ ставит под вопрос честность: учителям сложно проверять, чья работа — на самом деле ученика, а чья — сгенерирована алгоритмом.

Пробелы в образовании и защите

* Менее половины учителей и учащихся получили какую-либо официальную подготовку по ИИ в школе.
* Из тех, кто прошёл обучение, немногие знакомы с темами предвзятости, ошибками алгоритмов, ответственным использованием или потенциальным вредом.
* Учителя чаще всего хотят обучаться распознаванию поддельного ИИ-контента, тогда как ученики и родители стремятся к знаниям о конфиденциальности, справедливости, этике.
* Школы часто разрешают ИИ, но не обеспечивают адекватных инструкций, из-за чего возникают разрывы между практикой и безопасностью.

@cgevent
👍135👎1
Еще немного интересной аналитики.

Тут, конечно, немного сравнивают мелкое с мягким, но тем не менее цифры от SimilarWeb показательны тем, что аудитория твиттора похоже вышла на плато, а аудитория chatGPT продолжает расти.

И вот еще, что подумалось.
OpenAI запустили типа_социальную_сеть, где все видосы сгенерированы в Сора 2.
В инсте полно аккаунтов, которые постят полностью GenAI контент.
В самом твитторе, после 10-го реплая набегают боты и строчат саммаризацию исходного поста с придыханием.

Интернет пухнет на генеративных быстрых углеводах.

Довольно скоро доля генеративного контегта в интернетике превзойдет кожаную долю.
А все потому что кожаные сами себе придумали метрики: трафик, content is the king, просмотры, лайки.
Сидят и ждут, когда интернет окончательно вымрет - в смысле доля кожаного контента уйдет в зону 5%..

Я вон предыдущий пост писал с помощью chatGPT - скормил ему отчет, попросил суммаризировать.
Но я хоть потом бегу глазами, убираю дичь, вставляю дурацкие шутки, редактирую в общем, чтобы замысел был виден.


@cgevent
😱26🔥159👍4😁4👎2
This media is not supported in your browser
VIEW IN TELEGRAM
К вопросу о генеративном интернете из предыдущего поста.

Вот держите генеративную бабулю:
https://www.instagram.com/grannyspills/

1.8 миллиона подписчиков (в Тиктоке 683К).

Никаких жалких генеративных фото, только видео с озвучкой и липсинком.

Провокативный контент: на видео выше - "запомни, сучка, все мужуки врут, по крайнем мере найди себе того, кто будет врать на яхте"

Никого не смущает 164 публикации и 1.8 миллиона подписчиков

Ибо если за дело берется ИИ, то у кожаных нет шансов.

@cgevent
😱34👍14👎87😁4🔥2
Ха, сейчас ИИ создает больше статей, чем люди!
Шах и мат, кожаные авторы.


В качестве утешения в статье приводится вот такой вывод:

Хотя после запуска ChatGPT количество статей, созданных с помощью ИИ, резко возросло, мы не наблюдаем продолжения этой тенденции. Напротив, доля статей, созданных с помощью ИИ, оставалась относительно стабильной в течение последних 12 месяцев. Мы предполагаем, что это связано с тем, что специалисты обнаружили, что статьи, созданные с помощью ИИ, не показывают хороших результатов в поиске, как показано в отдельном исследовании.


Ну то есть Иишные статьи плохо индексируются в поиске и в выдаче болтаются внизу.

До времени, до времени.

Пока ИИ не овладел нормально поиском.

https://graphite.io/five-percent/more-articles-are-now-created-by-ai-than-humans

@cgevent
👍17😁11👎43😱2
Forwarded from AI Product | Igor Akimov
Anthropic запустили Claude Skills – способ научить Claude делать специфические задачи именно так, как нужно вам.

Суть простая: вы создаёте папку с инструкциями, скриптами и файлами, а Claude сам подгружает нужный скилл, когда это релевантно задаче. Никакого ручного выбора – модель сама определяет, что нужно.

Что умеют скиллы:
- Взаимодействуют друг с другом – Claude сам понимает, какие навыки нужны, и комбинирует их
- Работают везде одинаково – создали один раз, используете в веб-приложении, Claude Code и через API
- Могут включать исполняемый код для задач, где нужна генерация и расчеты.

Примеры довольно рабочие:
Box использует скиллы для трансформации файлов в презентации и документы по корпоративным стандартам.
Canva планирует встраивать скиллы в агентов для создания дизайнов.

Включается в настройках (Settings - Features - Skills). Для создания есть встроенный "skill-creator" – он сам спросит про ваш воркфлоу и соберёт структуру.

Подробности: https://www.anthropic.com/news/skills

Примеры скиллов: https://github.com/anthropics/skills

Видео: https://youtu.be/IoqpBKrNaZI
19👍13👎6🔥1😁1
А еще Антропик бахнул новую версию 4.5 "маленькой" модели Haiku.

Она в ДВА раза быстрее и в ТРИ раза дешевле!

И, конечно же, на первой же картинке в блоге Антропика она побивает, внимание:
GPT-5, Gemini 2.5 Pro и даже Sonnet 4.

Подробности тут:

https://www.anthropic.com/news/claude-haiku-4-5

@cgevent
😁13👎7👍63😱1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

Мне всегда нравился жанр роад-муви — дорожное приключение, как правило, двух друзей или напарников. Когда вышел сериал "Настоящий детектив" с Макконахи и Харрельсоном я параллельно читал «Одноэтажную Америку» Ильфа и Петрова. И как-то так меня вдохновили две эти вселенные плюс другие подобные фильмы и сериалы, что я написал короткий сценарий. А точнее синопсис, как бы мог выглядеть такой мэшап. Сейчас одним предложением его можно охарактеризовать так: советские писатели оказываются втянуты в игру спецслужб, где есть место и высоким технологиям, и мистическим культам США 1930-х. Написал пару листов и забыл, так как таких набросков было не мало.

Периодически по работе моушн-дизайнером и для своих творческих проектов я создавал либо мультяшные истории со скелетной анимацией, либо какие-то коллажные ролики в стилистике перекладной анимации в After Effects и Adobe Character. Делал клипы, мультики по типу Масяни и тд, но быстро к ним охладевал, так как не было обратной реакции, а времени и сил уходило немало. Думаю многим знакомо это чувство. И вот ура, появились нейросети и увидеть воплощение своей идеи занимает пару нажатий (по крайней мере так думают заказчики). И вот как я делаю эти пару нажатий: пишу сценарий в чате gpt, опираясь на первоисточники. Там же делаю промты на шоты, которые генерирую во
freepik.com. С подпиской премиум+ дается безлимит на генерацию картинок, а я в 99% случаев использую i2v. Также обучил характеры своих персонажей, но при генерации они получаются хуже, чем просто прикрепить фото как реф и в промте ссылаться на него. Видео с диалогами делаю Veo 3. Есть артефакты и моменты брака, например слова в ударениях или где-то неправильно буква произносится. В общем, что-то типа 6 пальца, который искушенный человек не пропустит. Но я сознательно не трачу время и кредиты на эти доработки, потому что мне важнее реализовать максимум проекта с качеством 90%, чем один эпизод с качеством 100%. Поэтому если после 2-3 попыток Veo выдает все же брак по голосу - иду в hedra или sync и пытаюсь переозвучить там, поэтому голоса у персонажей "гуляют". Знаю, что можно обучить свою голосовую модель, но пока интонации звучат пресно. Часто сгенерированные картинки редактирую в Фотошопе, так получается быстрее, чем той же нанабананой. Но если нужен поворот предмета, другой ракурс, то есть пересобрать сцену - она прям радует. Ну и общая сборка в Premier Pro - монтаж, работа со звуком, субтитры. Во время монтажа меняется и сценарий зачастую, но на то он и монтаж. На самом деле, никаких хитрых приемов, а скорее уже базовый набор инструментов для дизайнера и концепт-художника. Меня самого сильно привлекают вирусные ролики на повседневные бытовые темы - котики, кассиры, бабульки. Вот как сейчас активно бомбят интернет ролики, сделанные в сора 2. Но моя мечта это делать сложные исторические или фантастические большие проекты. И в будущем вижу ИИ как неотъемлемую часть кинопроцесса.

Для нейропрожарки я прикрепил, слитые в одно видео 6 эпизодов, а вообще они выходят по 1 минуте примерно раз в неделю без строгого графика. По времени 1 эпизод примерно 1-2 рабочих дня (учитывая написанный сценарий) и день на доработку и саунд-дизайн на свежую голову + релиз на площадки, а это тоже время. Всего запланировал 18 эпизодов. Следить можно на всех ресурсах с адресом
@vshtatskom

@cgevent
👎111👍23🔥109😱3😁1🙏1
FlashVSR
Towards Real-Time Diffusion-Based Streaming Video Super-Resolution


Точно не лучший апскейлер видео, но зато опенсорсный, раз уж в коментах были вопросы.

Есть и код:
https://github.com/OpenImagingLab/FlashVSR
И ноды для комфи:
https://github.com/smthemex/ComfyUI_FlashVSR

Ест много памяти, как все апскейлеры.
Использует Block-Sparse Attention, который будет капризничать на слабых видеокартах.

@cgevent
👍108😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Will Smith в Veo 3.1

Мне кажется, это уже AGI...

Тут и звук, и макаронина.

Сколько Виллов Смитов дадим?

@cgevent
🔥141😁41👍10😱10👎74
This media is not supported in your browser
VIEW IN TELEGRAM
Когда анекдоты перестают быть анекдотами


Новости технологий: изобретен аппарат автоматического бритья:
- Бросаешь рубль, суешь голову в прорезь
и он тебя автоматически бреет.
- Но ведь у всех разные лица!?!?
- В первый раз да ...


@cgevent
😁108🔥8😱43👎2👍1
Нейропрожарка

Автор: Павел Жигарев | Noizlab
4K версии : 1 и 2
Telegram

🎬 Эксперимент: создание AI-кино трейлеров на open-source модели Flux ⏱️ Срок: 8 недель в совокупности. 💡 Как началось: пришла идея а можно ли сделать «настоящее» КИНО с актерами в их «прайм» форме и без цензуры, Midjourney и все остальные нейронки не позволяли этого из-за цензуры и прав ,да и консистентность от кадра к кадру оставляет желать лучшего .. — поэтому тут было решено - только кастомные решение , только хардкор!. Взял самую сложную задачу: «молодой» Арнольд в образе Конана с полной экипировкой под эстетику 80-х. Так же у меня есть своя “кино” модель Flux обученная на нескольких тысячах кадров из фильмов что сделало картинку более “киношной”


Где было сложно : Ручной inpaint/upscale каждой детали костюма (ремни, бляхи, мех, шнуровка) — чтобы ничего не «плавало». Полировка лица на проблемных кадрах. Без этого консистентность разваливается.
Сделал около 3000 генераций видео чтобы отобрать самые лучшие дубли.. это очень долго и муторно..

🚀 AI Стек:
Prompts - мой ChatGPTs
SwarmUI - Основной Хост.
Finetuned
Flux.dev + Kohya_SS (Dreambooth для finetuning)
ComfyUI - Batch Second Pass Upscale
Editing: Krea
Flux.dev (быстро дешево)
VideoGen - Higgsfield AI, Kling 2.1 start/end. Hailuo-02 (action), Seedance Pro (статика)
Final Cut Pro + Плагины
Face Fusion (полировка лица)
Topazlabs (Upscale 4K)
ElevenLabs - диктор озвучка
Музыка - Custom

Музыка и звук:
Отдельное внимание было к саунду так как в осноном все забивают на это Музыку для обеих роликов писал сам. Более того это был мой первый опыт написания классической и трехмерной мызыки а так же SFX тоже был собран с нуля. Так же классно получилось имплементировать заглавную тему Конана от маэстро Безила Полидуриса.

🎯 Финал:
Не претендую на 100% консистентность, но старался сделать Конана как можно ближе к оригиналу . Этим видео хочется показать: в умелых руках ИИ-инструменты + насмотренность + креативные навыки 12 профессий в одном хе-хе + выдержка дают превосходный результат — шаг к настоящему кино на open-source стеке, от омоложения актёров до возрождения франшиз.
Если интересны подробности о проекте и как AI становится рабочим инструментом, а не генератором мемов — присоединяйтесь мы про ИИ Кино и чуть-чуть про мемы )


@cgevent
🔥113👍3520👎13😁1
Знаю тут многие пользуются Дипсиком.
У них вот такое обновление - DeepSeek-OCR, модель для перевода картинок в текст\маркдаун.
Распознает даже химические формулы и конвертит их в SMILES формат.
- Состоит из 2 компонентов - DeepEncoder (380M) и DeepSeek MoE (3B, 570M активных)
- Нативные разрешения - 512×512, 640x640, 1024x1024, 1280×1280

Распознает картинки с очень низким качеством и большой компрессией.
https://github.com/deepseek-ai/DeepSeek-OCR

@cgevent
🔥67👍85😁2
Reve.art видео?

Reve завезли на Fal.ai и replicate.com, причем в трех ипостасях, генерация, редактирование и ремикс.

Но самое интересное, что в сети упорно ходят слухи, что они готовят свою видео модель:
вертикальный и горизонтальный формат
первый и последний кадр
звук


Зная их команду, стоит ожидать чего-то интересного

@cgevent
25👍12
Media is too big
VIEW IN TELEGRAM
RTFM: A Real-Time Frame Model

Про генерацию миров от WorldLab я уже писал и не раз.

Но тут они выкатили новое интерактивное демо, которое нельзя не попробовать.

Главные фишки: бесконечный контекст(память) и нефотореалистичные "скины".

Для начала, идете сюда и пробуете:
https://rtfm.worldlabs.ai/
Там пока нельзя вгрузить свое изображение, но можно попробовать картинки из библиотеки.
На входе ОДНО изображение и промпт - на выходе - целый мир.

Потом читаете тут:
https://www.worldlabs.ai/blog/rtfm

По мере развития этой технологии становится ясно одно: генеративные модели мира будут требовать очень больших вычислительных ресурсов, гораздо больше, чем современные LLM. Если мы наивно применим современные видеоархитектуры к этой задаче, то для генерации интерактивного 4K-видеопотока со скоростью 60 кадров в секунду потребуется производить более 100 тысяч токенов в секунду (примерно столько же, сколько составляет длина романа «Франкенштейн» или первой книги о Гарри Поттере); чтобы эти генерации сохранялись в течение часового (или дольше) взаимодействия, необходимо обрабатывать контексты, превышающие 100 миллионов токенов. Это невозможно и экономически нецелесообразно с учетом современной вычислительной инфраструктуры.

Но WorldLab сделал так, что RTFM может крутиться на ОДНОЙ H100, обеспечивая интерактивный опыт.
С бесконечным контекстом они придумали интересный трюк: они не запоминают все сгенерированные кадры (экономя память), а лишь углы камеры и метадату плюс "некоторое" количество кадров вокруг текущего ракурса (кеш генераций), при достаточно большой смене ракурса перегенерируют заново.

Модель обрабатывает широкий спектр типов сцен, визуальных стилей и эффектов, включая отражения, полированные поверхности, тени и блики.

На видео в начале каждого плана можно заметить небольшие артефакты, но на общем фоне и с учетом красоты работы это мелочи.

@cgevent
👍22🔥196👎2
This media is not supported in your browser
VIEW IN TELEGRAM
FlashWorld: High-quality 3D Scene Generation within Seconds

А вот интересная опенсорсная ответочка от Хуньяньского на генерацию миров.
Тут правда под капотом гауссианы и качество среднее, но при этом авторы клянуцца, что генерят 3DGS-сцену за 5 секунда на "single GPU", что в 10-100 раз быстрее предыдущих методов.
Для гиков может быть интересно, код есть:
https://imlixinyang.github.io/FlashWorld-Project-Page/

@cgevent
🔥25👍52
Media is too big
VIEW IN TELEGRAM
Нейропрожарка

На этот раз от самого Доброкотова, известного в миру как АI molodtca

Бригада, но это аниме опенинг.

Уже пятый в серии. Делал где-то месяц в свободное от студийных проектов время (и да, пришлось пересмотреть сериал целиком — освежить ключевые моменты).

Звук

Я всегда начинаю с музыкальной темы — она даёт нужную структуру. Поэтому написал черновой текст, через Claude адаптировал на японский и пошёл в Suno. В этом опенинге хотелось сделать именно кавер на оригинальную мелодию (она важна для вайба), поэтому с помощью Cover сделал около 50 версий, пока не нашлась вишенка.

Картинки

Дальше начинается высокофункциональный аутизм — генерация стиллшотов. Благо теперь есть нано банан, абсолютное величие. Без него бы сошёл с ума: делать лоры на каждого персонажа, инпейнтить их в сцены и заниматься другой первобытной дикостью.

В процессе открыл для себя, что бананой довольно удобно итерационно пользоваться не только в нативном чате, но и в нодовой системе — большая часть шотов сделана шаг за шагом в Фиджитал+.

Видео

Если раньше в анимацию могла только Luma 2 (где и делал все прошлые опенинги), то сейчас все модели это умеют. НО — часть моделей (например, Veo-3) превращает 2D в квази 3D. Поэтому если делаете анимацию — ваша остановочка это Minimax 2 и новый Kling 2.5. В последнем сделана бóльшая часть шотов, а кадры с start-end frame — в Минимаксе. Потрачено где-то по 6к кредитов в каждом.

Монтаж

Для личных приколдесов использую платный CapCut. Весёлый и заряженный.

Да вот и всё, жарьте, бандиты! 🐺


@cgevent
🔥140👍3219👎13😁3
Forwarded from Хирон
Интеллектуальная нищета не лечится промтами и курсами

Если при практически неограниченных возможностях общения с ИИ человек всё ещё надеется найти «тот самый волшебный промт», то дело уже не в промтах, а в самом подходе. Это сознательный выбор остаться неконкурентоспособным

Если же человек до сих пор не начал коммуницировать с ИИ, то он либо слишком счастлив и уже поймал дзен, либо недееспособен, либо его восприятие реальности настолько ограничено, что он не осознаёт происходящего

ИИ обучается на миллиардах человеческих текстов и является зеркалом коллективного сознания. Его ответы - отражение мышления вопрошающего. И если это мышление узко, то человек окончательно лишится шансов конкурировать уже через 5-7 лет. Причём он даже не узнает о своей ограниченности - примерно так же, как голубь не узнает, что семечки падают не с неба

Интеллектуальная нищета лечится только осознанием факта, что с неба вообще ничего не падает. Даже семечки

Первая порция пищи для ума и ключ к эффективному союзу с ChatGPT:

🔐 Метод Хирона. Часть 1. «Человеĸ + Исĸусственный Интеллеĸт»

P.S. Любопытство - это хорошо, если знаешь, куда его направить
👎90😁33👍119😱4🔥1🙏1
2025/10/24 07:46:57
Back to Top
HTML Embed Code: