This media is not supported in your browser
VIEW IN TELEGRAM
Бабочка родилась 🦋
"Бабочка", созданная в новом типе клеточного автомата "MaCE Lenia", демонстрирует удивительные возможности моделирования эволюции и адаптации, подобных природным организмам.
Про само понятие клеточного автомата ( cellular automata )
Клеточные автоматы - это вычислительные модели, состоящие из решётки ячеек, каждая из которых может находиться в одном из конечного числа состояний. Эти состояния изменяются во времени согласно правилам, зависящим от состояний соседних ячеек. Идея клеточных автоматов появилась в 1940-х годах благодаря Станиславу Уламу и Джону фон Нейману, который в конце 1940-х создал первый самореплицирующийся клеточный автомат в рамках исследований искусственной жизни. Клеточные автоматы применяются в информатике, математике, физике и биологии для моделирования сложных систем, таких как распространение заболеваний, движение трафика и поведение биологических организмов. В 2025 году на конференции по искусственной жизни был представлен новый тип клеточного автомата - "MaCE Lenia", разработанный Василисом Пападопулосом и Е. Гюшаром. Этот автомат включает принцип сохранения массы, что позволяет создавать более стабильные и интересные паттерны.
Это развитие подчёркивает продолжающиеся исследования в области искусственной жизни и вычислительной биологии, направленные на создание систем, способных эволюционировать и адаптироваться, подобно природным организмам.
Подробнее о "MaCE Lenia" расскажут на https://2025.alife.org/
Также про нее можно прочитать тут
https://arxiv.org/abs/2507.12306
"Бабочка", созданная в новом типе клеточного автомата "MaCE Lenia", демонстрирует удивительные возможности моделирования эволюции и адаптации, подобных природным организмам.
Про само понятие клеточного автомата ( cellular automata )
Клеточные автоматы - это вычислительные модели, состоящие из решётки ячеек, каждая из которых может находиться в одном из конечного числа состояний. Эти состояния изменяются во времени согласно правилам, зависящим от состояний соседних ячеек. Идея клеточных автоматов появилась в 1940-х годах благодаря Станиславу Уламу и Джону фон Нейману, который в конце 1940-х создал первый самореплицирующийся клеточный автомат в рамках исследований искусственной жизни. Клеточные автоматы применяются в информатике, математике, физике и биологии для моделирования сложных систем, таких как распространение заболеваний, движение трафика и поведение биологических организмов. В 2025 году на конференции по искусственной жизни был представлен новый тип клеточного автомата - "MaCE Lenia", разработанный Василисом Пападопулосом и Е. Гюшаром. Этот автомат включает принцип сохранения массы, что позволяет создавать более стабильные и интересные паттерны.
Это развитие подчёркивает продолжающиеся исследования в области искусственной жизни и вычислительной биологии, направленные на создание систем, способных эволюционировать и адаптироваться, подобно природным организмам.
Подробнее о "MaCE Lenia" расскажут на https://2025.alife.org/
Также про нее можно прочитать тут
https://arxiv.org/abs/2507.12306
❤11⚡2
Forwarded from gonzo-обзоры ML статей
Новую архитектуру подвезли! ‘Dragon Hatchling’ (BDH) построена на принципах распределённых графовых моделей мозга, при этом есть GPU-friendly имплементация. Выглядит очень интересно и демонстрирует свойства, характерные для биологических систем.
https://www.tg-me.com/gonzo_ML_podcasts/906
Более фундаментальное изменение, чем например недавние Tversky Neural Networks (https://www.tg-me.com/gonzo_ML/3932).
https://www.tg-me.com/gonzo_ML_podcasts/906
Более фундаментальное изменение, чем например недавние Tversky Neural Networks (https://www.tg-me.com/gonzo_ML/3932).
Telegram
gonzo_ML_podcasts
The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain
Adrian Kosowski, Przemysław Uznański, Jan Chorowski, Zuzanna Stamirowska, Michał Bartoszkiewicz
Статья: https://arxiv.org/abs/2509.26507
Код: https://github.com/pathwaycom/bdh…
Adrian Kosowski, Przemysław Uznański, Jan Chorowski, Zuzanna Stamirowska, Michał Bartoszkiewicz
Статья: https://arxiv.org/abs/2509.26507
Код: https://github.com/pathwaycom/bdh…
⚡3🤯2❤1
gonzo-обзоры ML статей
Новую архитектуру подвезли! ‘Dragon Hatchling’ (BDH) построена на принципах распределённых графовых моделей мозга, при этом есть GPU-friendly имплементация. Выглядит очень интересно и демонстрирует свойства, характерные для биологических систем. https:/…
Посттрансформерность BDH
Архитектура BDH выходит за рамки трансформеров, заменяя их централизованный механизм attention на локальные графовые сети, где нейроны, как в мозге, динамично меняют связи по правилу Хебба * ("neurons that fire together, wire together"). Это позволяет BDH лучше обобщать и "помнить" долгосрочные контексты, чего трансформеры не могут из-за фиксированного окна внимания. Модель формирует модульную структуру сама, без ручного дизайна, и показывает биологические свойства, вроде устойчивости и адаптации. BDH сохраняет производительность трансформеров (обходит GPT-2), но работает на GPU через упрощения, делая её практичной.
Сделан шаг к автономным, мозгоподобным AI, способным к гибкому и интерпретируемому рассуждению.
* Правило Хебба гласит, что нейроны, которые активируются одновременно, усиливают свои связи, формируя основу для обучения и памяти в мозгоподобных системах, таких как BDH.
Архитектура BDH выходит за рамки трансформеров, заменяя их централизованный механизм attention на локальные графовые сети, где нейроны, как в мозге, динамично меняют связи по правилу Хебба * ("neurons that fire together, wire together"). Это позволяет BDH лучше обобщать и "помнить" долгосрочные контексты, чего трансформеры не могут из-за фиксированного окна внимания. Модель формирует модульную структуру сама, без ручного дизайна, и показывает биологические свойства, вроде устойчивости и адаптации. BDH сохраняет производительность трансформеров (обходит GPT-2), но работает на GPU через упрощения, делая её практичной.
Сделан шаг к автономным, мозгоподобным AI, способным к гибкому и интерпретируемому рассуждению.
* Правило Хебба гласит, что нейроны, которые активируются одновременно, усиливают свои связи, формируя основу для обучения и памяти в мозгоподобных системах, таких как BDH.
🤔8🤓1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Обучение с подкреплением (RL) - мощный метод, где агент учится принимать решения, максимизируя награду в динамичной среде. Алгоритмы помогают моделям, таким как языковые (LLM), эффективно исследовать пространство действий.
Обучение с подкреплением доминирует в тонкой настройке LLM. Эволюционные стратегии (ES) предлагают альтернативу, оптимизируя непосредственно пространство параметров. Это обеспечивает более точную, эффективную и стабильную тонкую настройку, обходя градиентные методы.
https://arxiv.org/pdf/2509.24372
Обучение с подкреплением (RL) - мощный метод, где агент учится принимать решения, максимизируя награду в динамичной среде. Алгоритмы помогают моделям, таким как языковые (LLM), эффективно исследовать пространство действий.
Обучение с подкреплением доминирует в тонкой настройке LLM. Эволюционные стратегии (ES) предлагают альтернативу, оптимизируя непосредственно пространство параметров. Это обеспечивает более точную, эффективную и стабильную тонкую настройку, обходя градиентные методы.
https://arxiv.org/pdf/2509.24372
👍3⚡2
Наши коллеги из AIRI учат отличать хорошие расстановки мебели от плохих.
Все желающие могут протестить приложение и выставить оценки планировкам. Можно написать комментарии, что куда переставить, что хорошо, что плохо.
Инструкция как заполнять:
При переходе в комнату вам по 10 картинкам нужно потыкать критерии и написать комментарии. Просьба СНАЧАЛА заполнить критерии и комментарии, если есть, строго по критериям ниже под оценкой. Потом если останется желание что-то ещё написать, можете сделать это в свободной форме в чате. Просьба не писать ничего, что не относится к планировкам.
Лучше заполнять с ноутбука, а не телефона
Если найдёте какие-то баги, пишите @iani_kuli
Все желающие могут протестить приложение и выставить оценки планировкам. Можно написать комментарии, что куда переставить, что хорошо, что плохо.
Инструкция как заполнять:
При переходе в комнату вам по 10 картинкам нужно потыкать критерии и написать комментарии. Просьба СНАЧАЛА заполнить критерии и комментарии, если есть, строго по критериям ниже под оценкой. Потом если останется желание что-то ещё написать, можете сделать это в свободной форме в чате. Просьба не писать ничего, что не относится к планировкам.
Лучше заполнять с ноутбука, а не телефона
Если найдёте какие-то баги, пишите @iani_kuli
This media is not supported in your browser
VIEW IN TELEGRAM
DA² (Depth Anything in Any Direction) от Tencent Hunyuan
Метод генерирует панорамные карты глубины - данные, которые показывают расстояние до объектов в сцене на панорамных изображениях. В результате ролучаем:
1. Точные 3D-модели глубины: Эти карты позволяют создавать детализированные 3D-реконструкции сцен, подходящие для виртуальной реальности, игр, архитектурной визуализации или робототехники.
2. Универсальное решение: Благодаря zero-shot и технологии SphereViT, DA² работает с любыми панорамами, минимизируя сферические искажения, и превосходит другие методы по точности и эффективности.
Простыми словами, можно получить точные и универсальные 3D-данные (облака точек) глубины для панорам.
Протестировать можно тут
https://huggingface.co/spaces/haodongli/DA-2
Метод генерирует панорамные карты глубины - данные, которые показывают расстояние до объектов в сцене на панорамных изображениях. В результате ролучаем:
1. Точные 3D-модели глубины: Эти карты позволяют создавать детализированные 3D-реконструкции сцен, подходящие для виртуальной реальности, игр, архитектурной визуализации или робототехники.
2. Универсальное решение: Благодаря zero-shot и технологии SphereViT, DA² работает с любыми панорамами, минимизируя сферические искажения, и превосходит другие методы по точности и эффективности.
Простыми словами, можно получить точные и универсальные 3D-данные (облака точек) глубины для панорам.
Протестировать можно тут
https://huggingface.co/spaces/haodongli/DA-2
👍4⚡1
Forwarded from Просто о BIM
#ИИ заменит BIM-моделеров на разработке семейств через 3..2..1
На подходе новая модель по генерации геометрии от Hunyuan
С помощью @iPro_10 , у которого есть бетадоступ к ней, в чате @bimaichat потестировали генерацию по изображению. Результат впечатляет. Можно регулировать количество полигонов и выгружать в stl, который подгружать в rfa (Семейства Revit).
Остается коннекторы навесить и свойства закинуть и заполнить, но это мы по ексельке еще в Dynamo делали.
На подходе новая модель по генерации геометрии от Hunyuan
С помощью @iPro_10 , у которого есть бетадоступ к ней, в чате @bimaichat потестировали генерацию по изображению. Результат впечатляет. Можно регулировать количество полигонов и выгружать в stl, который подгружать в rfa (Семейства Revit).
Остается коннекторы навесить и свойства закинуть и заполнить, но это мы по ексельке еще в Dynamo делали.
🔥3⚡1👍1
Нобелевская премия по физике 2025
Учёные впервые показали, что квантовые эффекты могут проявляться в системах, видимых не под микроскопом, а буквально - в электрической цепи, умещающейся на ладони.
То, что раньше считалось «привилегией атомов», оказалось возможным на макроскопическом уровне: частицы туннелируют сквозь барьер, энергия - дискретна, а схема ведёт себя как единый квантовый объект.
Это не просто физика - это новая архитектура реальности, где квантовое поведение становится инженерным инструментом.
Благодаря этим экспериментам сформировалась база для сверхпроводящих кубитов, квантовых датчиков и квантовой криптографии - того, что сегодня называют “hardware foundation” квантового будущего.
И к чему это приведет?
Скорее всего это приблизило человечество к управляемым квантовым устройствам, где законы микромира становятся инженерным инструментом.
В долгосрочной перспективе это приведёт к рывку в квантовых вычислениях, датчиках и коммуникациях, задав новую физику технологий XXI века.
https://www.nobelprize.org/all-nobel-prizes-2025/
Учёные впервые показали, что квантовые эффекты могут проявляться в системах, видимых не под микроскопом, а буквально - в электрической цепи, умещающейся на ладони.
То, что раньше считалось «привилегией атомов», оказалось возможным на макроскопическом уровне: частицы туннелируют сквозь барьер, энергия - дискретна, а схема ведёт себя как единый квантовый объект.
Это не просто физика - это новая архитектура реальности, где квантовое поведение становится инженерным инструментом.
Благодаря этим экспериментам сформировалась база для сверхпроводящих кубитов, квантовых датчиков и квантовой криптографии - того, что сегодня называют “hardware foundation” квантового будущего.
И к чему это приведет?
Скорее всего это приблизило человечество к управляемым квантовым устройствам, где законы микромира становятся инженерным инструментом.
В долгосрочной перспективе это приведёт к рывку в квантовых вычислениях, датчиках и коммуникациях, задав новую физику технологий XXI века.
https://www.nobelprize.org/all-nobel-prizes-2025/
👍8⚡5❤2🤮1
Forwarded from Китай.AI
🔥 Китайский ИИ берет корону: HunyuanImage 3.0 стал лучшей Text-to-Image моделью в мире!
Всего через неделю после релиза мультимодальная модель от Tencent обошла Google Nano-Banana и ByteDance Seedream, возглавив авторитетный мировой рейтинг LMArena.
🎨 Что может HunyuanImage 3.0?
Это нативная мультимодальная модель, что означает "все в одном": единая архитектура обрабатывает текст, изображения, видео и аудио. Представьте себе художника с собственным "мозгом", который не просто рисует, но и понимает композицию, смысл и контекст.
Вот несколько примеров:
• Создание праздничных постеров
• Генерация стикеров с животными
• Креативные концепты ("кошка из чистого огня")
• Рекламные изображения и иллюстрации
🚀 Почему все говорят об этой модели?
• На GitHub за неделю собрано >1.7k stars
• Сообщество активно тестирует и дорабатывает модель
🏆 Результаты тестирования
Модель показала превосходство над ведущими закрытыми и открытыми аналогами в тестах:
• SSAE (автоматическая оценка): лидерство по семантическому соответствию
• GSB (человеческая оценка): положительный результат против Seedream 4.0 (+1.17%), Nano Banana (+2.64%), GPT-Image (+5.00%)
GitHub Repository | Hugging Face | Технический отчет
#КитайскийИИ #КитайAI #HunyuanImage
Всего через неделю после релиза мультимодальная модель от Tencent обошла Google Nano-Banana и ByteDance Seedream, возглавив авторитетный мировой рейтинг LMArena.
🎨 Что может HunyuanImage 3.0?
Это нативная мультимодальная модель, что означает "все в одном": единая архитектура обрабатывает текст, изображения, видео и аудио. Представьте себе художника с собственным "мозгом", который не просто рисует, но и понимает композицию, смысл и контекст.
Вот несколько примеров:
• Создание праздничных постеров
• Генерация стикеров с животными
• Креативные концепты ("кошка из чистого огня")
• Рекламные изображения и иллюстрации
🚀 Почему все говорят об этой модели?
• На GitHub за неделю собрано >1.7k stars
• Сообщество активно тестирует и дорабатывает модель
🏆 Результаты тестирования
Модель показала превосходство над ведущими закрытыми и открытыми аналогами в тестах:
• SSAE (автоматическая оценка): лидерство по семантическому соответствию
• GSB (человеческая оценка): положительный результат против Seedream 4.0 (+1.17%), Nano Banana (+2.64%), GPT-Image (+5.00%)
GitHub Repository | Hugging Face | Технический отчет
#КитайскийИИ #КитайAI #HunyuanImage
GitHub
GitHub - Tencent-Hunyuan/HunyuanImage-3.0: HunyuanImage-3.0: A Powerful Native Multimodal Model for Image Generation
HunyuanImage-3.0: A Powerful Native Multimodal Model for Image Generation - Tencent-Hunyuan/HunyuanImage-3.0
🔥5⚡2👍2❤1
Media is too big
VIEW IN TELEGRAM
#unrealneural
Сервис Snaptrude AI
Протестировал вечерком ИИ инструмент, который "проектирует вместе с вами". Сразу скажу, что результат оставляет желать лучшего, НО
Что очень понравилось:
Во-первых я ввел один промпт и выбрал геолокацию
"Create school for 1500 peoples". После этого началась магия💫💫💫
Во-вторых в результате мы получаем все что нужно для проекта - и картинки и чертежи и таблички и выводы и все все все (правда там все выглядит странно и"магично" 😃😃😃). НО результат то есть. И продукт выглядит "ВКУСНО".
Инструмент позволяет увидеть как именно формируется модель, шаг за шагом. ЛЛМ модель принимает решения, считает графики, делает расчеты и дает "какой-то", но результат.
Буду за ним наблюдать.
Весь мой тест на видео, а ссылку ищите в комментариях.
Сервис Snaptrude AI
Протестировал вечерком ИИ инструмент, который "проектирует вместе с вами". Сразу скажу, что результат оставляет желать лучшего, НО
Что очень понравилось:
Во-первых я ввел один промпт и выбрал геолокацию
"Create school for 1500 peoples". После этого началась магия💫💫💫
Во-вторых в результате мы получаем все что нужно для проекта - и картинки и чертежи и таблички и выводы и все все все (правда там все выглядит странно и"магично" 😃😃😃). НО результат то есть. И продукт выглядит "ВКУСНО".
Инструмент позволяет увидеть как именно формируется модель, шаг за шагом. ЛЛМ модель принимает решения, считает графики, делает расчеты и дает "какой-то", но результат.
Буду за ним наблюдать.
Весь мой тест на видео, а ссылку ищите в комментариях.
👍12❤2🔥1
#unrealneural #пытаюсьпонять
Почему последние шаги в процессе диффузии различных моделей(SD или другие) иногда ухудшают качество сгенерированных сэмплов, вместо того чтобы улучшать?
Данные сначала "упаковываются" в компактное латентное пространство меньшей размерности. В процессе генерации (обратная диффузия) качество сначала растёт: шум убирается, сэмплы становятся похожими на реальные данные.
Но на последних шагах модель начинает "перегружать" слабые или нулевые компоненты этого пространства (они не несут полезной информации из-за сжатия). В итоге добавляется лишний шум, и одна из метрика ухудшается , будто картинка "размыливается" заново.
НО это не баг, а фича сжатия: низкая размерность требует остановки пораньше, чтобы не "переусердствовать". В высоких размерностях можно дольше "диффузить"
Подробнее о математических обоснованиях этого явления и о том как с этим бороться
https://arxiv.org/abs/2510.08409
Почему последние шаги в процессе диффузии различных моделей(SD или другие) иногда ухудшают качество сгенерированных сэмплов, вместо того чтобы улучшать?
Данные сначала "упаковываются" в компактное латентное пространство меньшей размерности. В процессе генерации (обратная диффузия) качество сначала растёт: шум убирается, сэмплы становятся похожими на реальные данные.
Но на последних шагах модель начинает "перегружать" слабые или нулевые компоненты этого пространства (они не несут полезной информации из-за сжатия). В итоге добавляется лишний шум, и одна из метрика ухудшается , будто картинка "размыливается" заново.
НО это не баг, а фича сжатия: низкая размерность требует остановки пораньше, чтобы не "переусердствовать". В высоких размерностях можно дольше "диффузить"
Подробнее о математических обоснованиях этого явления и о том как с этим бороться
https://arxiv.org/abs/2510.08409
🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
NN-SVG: параметрическое создание чертежей архитектуры нейронной сети
Можно экспортировать в svg
NN-SVG: параметрическое создание чертежей архитектуры нейронной сети
Можно экспортировать в svg
👍8🔥3⚡1
#unrealneural #ailab #эксперименты
Снова тестирую промпты для видеогенерации с разными моделями.
Вот такие интересные результаты.
Снова тестирую промпты для видеогенерации с разными моделями.
Вот такие интересные результаты.
🔥9🤯5⚡1
Forwarded from Искусственный интеллект. Высокие технологии
Проект называется TUMIX, и, по мнению многих, это самая интересная работа Google в этом году.
💡 Вместо того чтобы обучать ещё одну гигантскую модель, команда Google построила систему, где несколько ИИ работают вместе во время инференса.
Каждый агент выполняет свою роль:
- один пишет код
- другой ищет информацию,
- третий рассуждает текстом.
Все они решают одну задачу независимо, затем обмениваются ответами, улучшают их и приходят к общему решению.
Gemini 2.5 с TUMIX обошёл все другие системы рассуждения на +17,4%,
при этом стоимость инференса снизилась почти в два раза.
Без дополнительного обучения. Без новых данных. Просто - умная координация.
Самое неожиданное - секрет не в размере, а в разнообразии.
Команда из 15 разных агентов показала результаты лучше, чем 15 копий “лучшего” одиночного ИИ.
А когда Gemini сам спроектировал новых агентов, качество выросло ещё сильнее — система буквально эволюционировала сама себя.
🧠 Этот эксперимент показывает:
Следующий скачок в развитии ИИ может прийти не от триллиона параметров,а от сети маленьких моделей, которые учатся думать вместе.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5⚡2🤔2