Telegram Web Link
🔥 RTX 5060 АНОНСИРОВАЛИ — NVIDIA только что опубликовали цены видеокарт

• RTX 5060 Ti 16 Гб поступит в продажу уже ЗАВТРА и будет стоить $429 (35 000 рублей).
• RTX 5060 Ti 8 Гб также будет продаваться завтра, но стоить будет дешевле — $379 (31 тысяча рублей).
• RTX 5060 8 Гб выйдет в мае за $299 (25 тысяч рублей).

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11👎2🔥2🥰1
Forwarded from Machinelearning
✔️ OpenAI разрабатывает собственную соцсеть

По данным нескольких источников, OpenAI работает над собственной социальной платформой.
Внутренний прототип уже существует — он включает социальную ленту с генерацией изображений от ChatGPT. Сэм Альтман также собирает обратную связь от внешних тестировщиков.

Собственная соцсеть даст OpenAI прямой доступ к реальным пользовательским данным — как у X, которые используют их для обучения своих ИИ.
Один из мотиваторов — интеграция Grok в X, с которой пользователи создают вирусный контент прямо в реальном времени.

✔️ Groq запускает ИИ-систему Compound Beta с функциями поиска в Интернете и выполнения кода.

Groq объявила о предварительном запуске Compound Beta, своей первой системы искусственного интеллекта, размещенной на GroqCloud. Она позволяет пользователям осуществлять поиск в Интернете и выполнять программный код. Система предназначена для разработки агентов с расширенным функционалом и ее хвалят бета-тестеры, получившие ранний доступ. Попробовать Compound Beta можно в Groq Console.
Groq в X (ex-Twitter)

✔️ Anthropic анонсировала голосовой режим для Claude и интеграцию с Google Workspace.

Anthropic анонсировала 2 обновления для Claude, ориентированных на корпоративных пользователей. Первое — интеграция с Google Workspace, которая позволяет Claude работать с Gmail, Google Calendar и Google Docs. Функция доступна в бета-режиме для подписчиков планов Max, Team, Enterprise и Pro.

Второе — режим «Исследование», меняющий подход к поиску информации. Вместо стандартных запросов Claude автономно проводит цепочку взаимосвязанных поисков, формируя детальные ответы. Сейчас функция тестируется в США, Японии и Бразилии для планов Max, Team и Enterprise, а вскоре станет доступна и для Pro.

Также Anthropic готовит голосовой режим с 3 вариантами озвучки: Airy, Mellow и Buttery. Он появится для подписчиков премиум-плана Max.
bloomberg.com

✔️ Cohere выпустила Embed 4.

Cohere объявила о релизе Embed 4 — эмбединг-модели, которая упрощает поиск в сложных бизнес-документах. Технология поддерживает мультимодальность: анализирует текст, изображения, графики и рукописные заметки, избавляя компании от ручной обработки данных.

Модель работает с документами до 128 тыс. токенов (это примерно 200 страниц) и понимает 100+ языков. Embed 4 также оптимизирована для регулируемых отраслей: в финансах она анализирует отчеты, в здравоохранении — медицинские карты, а в производстве — спецификации. Embed 4 уже доступна на платформах Cohere, Azure AI Foundry и Amazon SageMaker.
cohere.com

✔️ OpenAI обновила Preparedness Framework и вводит трехкомпонентный режим инцидентов ИИ.

OpenAI внесла существенные изменения в свою систему Preparedness Framework, предназначенную для отслеживания и подготовки к продвинутым возможностям ИИ, которые могут привести к серьезному ущербу.

В результате пересмотра была исключена категория убеждения и введен новый мониторинг рисков, связанных с самовоспроизведением и "sandbagging". Обновленная структура поясняет, как OpenAI классифицирует риски ИИ на основе определенных критериев, подчеркивая, что риски должны быть правдоподобными, измеримыми, серьезными, новыми и либо мгновенными, либо неустранимыми.
openai.com

✔️ Adobe инвестирует в ИИ-стартап Synthesia.

Adobe Ventures сделала стратегическую инвестицию в Synthesia, британский стартап, разрабатывающий ИИ-аватары для корпоративных видео. Решение последовало после того, как компания преодолела отметку в $100 млн годовой выручки.

Synthesia позволяет создавать реалистичные видео с цифровыми персонажами (готовыми или записанными с реальных людей). Платформа уже используется 60 тыс. компаний, включая 70% из Fortune 100, для обучения, маркетинга и коммуникаций.

Synthesia планирует развивать новые продукты — AI-ассистент для видео, мультиязыковой дубляж, кастомизируемые аватары и готовит платформу Synthesia 2.0 для масштабируемых решений. С поддержкой Adobe и растущей клиентской базой стартап намерен перейти от экспериментов с ИИ к устойчивому бизнесу.
maginative.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥1
🔍 OpenLLMetry стандартизированная observability для LLM-приложений. Это значит, что мониторинг вызовов к OpenAI, Anthropic или векторным базам вроде Pinecone и Weaviate можно интегрировать в существующие системы без перестройки пайплайнов.

Интересно, что решение работает в двух режимах: как готовый SDK для быстрого старта и как набор инструментаций для тех, кто уже использует OpenTelemetry. При этом собранные данные сохраняют совместимость kll— можно начать с Traceloop, а затем переключиться на другой бэкенд без потери истории.

🤖 GitHub

@machinelearning_ru
1👍1🔥1
🌊 H2O-3 — это in-memory платформа, которая интегрируется с популярными экосистемами через знакомые интерфейсы: Python, R, Java и даже веб-ноутбуки Flow.

H2O поддерживает автоматизированное машинное обучение и экспорт моделей в лёгкие форматы MOJO/POJO для продакшена. При этом платформа остаётся расширяемой: можно добавлять собственные алгоритмы и трансформации данных.

🤖 GitHub

@machinelearning_ru
👍42🔥2
Воскресная подборка Chatgpt мемов🤣
👍8🔥2😁21
Forwarded from Machinelearning
🔥 Text‑to‑FILM становится реальностью!

SkyReels‑V2 - опенсорс генератор видео из текста, который не только соперничает с лучшими закрытыми решениями, но и предлагает уникальное преимущество — теоретически неограниченную длину генераций.

✔️ Что умеет SkyReels V2:

- Story Generation: полный конвейер от генерации текста до последовательного сюжета для видео.
- Image‑to‑Video
- Camera Director: управление виртуальной камерой — смена углов, зум, трекинг.
- Elements‑to‑Video: генерация отдельных объектов или эффектов, которые затем интегрируются в общий видеоряд.

🌟 Режимы инференса: поддерживаются как синхронный (full‑sequence diffusion), так и асинхронный (Diffusion Forcing) режимы для гибкой работы на разных GPU-конфигурациях

На бенчмарках SkyReels V2 лидирует среди открытых моделей на VBench с 83.9%, оставляя позади Wan2.1, HunyuanVideo и OpenSora 2.0.


Попробовать
Github
Technical Report
Hugging Face
ModelScope


#AI #TextToFilm #VideoGeneration #SkyReelsV2 #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥43
Media is too big
VIEW IN TELEGRAM
✔️ Magi-1: модель генерации полнометражного видео с 24B параметров.

Sand AI выпустила Magi-1, первую в истории Text-to-Video модель с 24 млрд. параметров, разработанную специально для создания видео. Magi-1 опубликована в открытом доступе и позволяет создавать высококачественные полнометражные видеоролики с исключительной реалистичностью, плавностью и тонким контролем над видеосценами.
Черрипики и результаты тестов в популярных бенчмарках превосходны. Попробовать можно в демо-спейсе.
sand.ai

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32
Forwarded from Machinelearning
🌟 CoMotion: одновременное отслеживание движения нескольких людей в видео.

CoMotion - метод, разработанный Apple для одновременного отслеживания 3D-движений нескольких людей, который принципиально отличается от покадрового обнаружения и классических способов трекинга.

CoMotion использует рекуррентную модель, которая поддерживает набор отслеживаемых 3D-поз и обновляет их при поступлении нового кадра, непосредственно анализируя пиксели изображения. Способность использовать визуальные подсказки вкупе с парадигмой tracking by attention позволяет CoMotion эффективно отслеживать перекрывающихся и временно исчезающих из виду людей.

Архитектура CoMotion состоит из модуля обнаружения (он определяет кандидатов на новые треки) и модуля обновления поз (корректирует позы существующих треков). Оба модуля работают с признаками изображения, извлеченными с помощью стандартной модели ConvNextV2. Модуль обновления поз использует cross-attention к признакам изображения для каждого трека, опираясь на предыдущие состояния, и применяет GRU для рекуррентного обновления скрытых состояний.

Прогнозирование 3D-поз выполняется путем параметризации модели SMPL, а управление треками основано на эвристических правилах, использующих модифицированную метрику Object Keypoint Similarity (OKS).

Модель CoMotion обучается в 3 этапа. Первый - предварительное обучение энкодера и модуля обнаружения на больших наборах данных отдельных изображений (псевдо-размеченные InstaVariety, COCO, MPII и синтетический BEDLAM). Второй - обучение модуля обновления поз на коротких видео из BEDLAM, WHAC-A-MOLE и размеченных PoseTrack и DanceTrack. На финальном этапе обучение модуля обновления поз продолжается на более длинных видеопоследовательностях.

Экспериментальная оценка CoMotion проводилась на стандартных бенчмарках для отслеживания и оценки поз. На PoseTrack21 CoMotion показал значительное улучшение метрик (MOTA на 14% и IDF1 на 12%). При этом CoMotion работает на порядок быстрее, чем сопоставимая система 4DHumans.

▶️Локальный инференс:

# Clone the repo
git clone https://github.com/apple/ml-comotion.git
cd ml-comotion

# Create a conda env
conda create -n comotion -y python=3.10
conda activate comotion

# Install dependencies
pip install -e

# Download models
bash get_pretrained_models.sh

# Run CoMotion
python demo.py -i path/to/video.mp4 -o results/


📌Лицензирование: Apple License.


🟡Модель
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #3DTracking #CoMotion #Apple
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥21
2025/07/09 20:28:33
Back to Top
HTML Embed Code: