Telegram Web Link
Forwarded from Machinelearning
✔️ Google добавила мультимодальный поиск в AI Mode.

Свежее обновление AI Mode в Google Поиске добавило мультимодальные функции — система анализирует изображения, понимая контекст и связи между объектами. Загрузите фото или сделайте снимок через Lens, задайте вопрос — нейросеть на основе Gemini выдаст развёрнутый ответ с рекомендациями и ссылками.

Раньше эта функция была доступна подписчикам Google One AI Premium, но теперь она доступна через Google Labs.
blog.google

✔️ Samsung представила обновление Gemini Live для Galaxy S25 с визуальным ИИ в реальном времени.

С 7 апреля владельцы Galaxy S25 получат бесплатное обновление Gemini Live. Теперь можно обсуждать увиденное через камеру или экран, удерживая боковую кнопку. Например, ИИ подскажет, как организовать шкаф или выбрать одежду, анализируя изображение в реальном времени. Функция доступна бесплатно, но требует подключения к интернету и активации в поддерживаемых странах.
news.samsung.com

✔️ Cloudflare упрощает создание AI-агентов с MCP и бесплатным доступом к Durable Objects.

Cloudflare представила серию обновлений, ускоряющих разработку AI-агентов. Теперь в Agents SDK добавлена поддержка MCP, позволяющая агентам подключаться к внешним сервисам с автоматической аутентификацией и управлением соединениями. Для безопасного доступа интегрированы провайдеры Stytch, Auth0 и WorkOS — это упрощает настройку прав доступа через OAuth 2.1 и гибкие сценарии разрешений.

Новинка в SDK — гибернация для MСРAgent: серверы автоматически «засыпают» при простое, экономя ресурсы, и мгновенно активируются при новых запросах. Для хранения состояния агентов теперь доступны Durable Objects даже на бесплатном тарифе — с поддержкой SQLite и 5 ГБ памяти.

Обновления дополнены примерами готовых MCP-серверов — от управления задачами до анализа кода. Разработчики могут развернуть их через кнопку Deploy и настроить под свои нужды.
blog.cloudflare.com

✔️ Google Sec-Gemini v1: ИИ для кибербезопасности.

Google анонсировал экспериментальную модель Sec-Gemini v1, которая создана для помощи специалистам по кибербезопасности через интеграцию ИИ и актуальных данных об угрозах.

Система объединяет OSV, Mandiant Threat Intelligence и Google Threat Intelligence, обеспечивая анализ в реальном времени. По внутренним тестам Google, модель на 11% эффективнее аналогов в CTI-MCQ (оценка знаний об угрозах) и на 10,5% — в CTI-RCM (поиск первопричин инцидентов). Она ускоряет обнаружение атак, оценку уязвимостей и даже идентификацию хакерских групп.

Sec-Gemini v1 уже доступна бесплатно для НКО, исследователей и компаний — это часть стратегии Google по совместной борьбе с угрозами. Модель не только предупреждает о рисках, но и объясняет контекст уязвимостей, помогая командам быстрее реагировать.
cybermagazine.com

✔️ LLM в биомедицине: GPT-4 лидирует, но тонкая настройка все еще важна.

Исследование, опубликованное в Nature, показало, что LLM дают неоднозначные результаты в биомедицинских задачах. Закрытые модели (GPT-4) превзошли конкурентов в задачх, требующих логики — например, отвечая на медицинские тесты с точностью до 75%. Однако в извлечении данных (распознавание болезней, связей между белками) лидируют традиционные подходы с файнтюном BERT-моделей, опережая LLM на 30–40%.

Открытые решения без дообучения справляются хуже: в 22% случаев генерируют недостоверную информацию. Эксперты отмечают, что даже добавление одного примера в промпт снижает число ошибок. Все данные и выводы исследования доступны в репозитории для независимой проверки.
nature.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
TokenFlow-2 — это метод текстового редактирования видео, при котором можно менять внешний вид, стиль или содержимое видео на основе текстовых подсказок , при этом сохраняется движение и структура оригинального видео.

🧠 Как работает:
Используется перенос внутренних токенов в латентном пространстве модели видео-генерации (например, от VideoCrafter).

Модель понимает, где нужно вносить изменения, и делает это локально, не разрушая остальную часть видео.

Поддерживает редактирование на уровне одного кадра, но результат синхронизируется с остальным видео — так сохраняется плавность и консистентность движения.

🧪 Что умеет:
Заменять объекты (например, "сделай собаку тигром")

🎨 Менять стили (например, "нарисуй в стиле аниме")

🌅 Изменять атмосферу (день/ночь, сезоны, настроение)

👕 Подменять детали (одежда, прически, текстуры)

Работать без повторного обучения модели

📊 Почему это важно:
🔹 Высокое качество редактирования — чёткие и детализированные изменения
🔹 Сохраняется движение и логика видео
🔹 Гибкость: подходит для любых сценариев, от креатива до коммерции
🔹 Быстрее и легче, чем традиционные методы видеогенерации

https://huggingface.co/papers/2504.02160
🔎 Alibi Detect — библиотека, которая замечает подозрительные изменения в поведении входных данных или предсказаний у ML моделей.

Проект довольно универсален — он работает с табличными данными, текстами, изображениями и временными рядами, поддерживая как TensorFlow, так и PyTorch. Особенно ценно, что система умеет ловить не только очевидные выбросы, но и едва заметные изменения в распределениях.

🤖 GitHub

@data_analysis_ml
🚀 Docker представил Model Runner — локальный запуск ИИ-моделей в один клик​

Docker анонсировал Model Runner — новый инструмент, позволяющий запускать и тестировать модели искусственного интеллекта (ИИ) локально, прямо из вашей текущей рабочей среды. Теперь разработчики могут легко интегрировать ИИ в свои приложения без необходимости сложной настройки или использования облачных сервисов.​

🔧 Основные возможности:
Локальный запуск моделей: Возможность запускать модели ИИ прямо на вашем компьютере без необходимости подключения к облаку.​

🟡Интеграция с Docker: Использование знакомых инструментов Docker для управления ИИ-моделями.​

🟡Поддержка популярных моделей: Возможность загрузки и использования моделей от ведущих поставщиков, таких как Hugging Face.​

🟡OpenAI-совместимый API: Интерфейс, совместимый с API OpenAI, облегчает интеграцию моделей в существующие приложения.​

✔️ Как начать:
Установите Docker Desktop версии
Включите функцию Model Runner в настройках Docker Desktop.​

Используйте команду docker model pull для загрузки нужной модели.​

Запустите модель с помощью команды docker model run.

https://www.docker.com/blog/introducing-docker-model-runner/
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 Pusa-VidGen — новый подход к генерации видео с точным управлением движением

Обычно в генерации видео модели обрабатывают весь ролик "размазанным" шумом — как бы в целом.

А тут модель управляет шумом отдельно для каждого кадра, и делает это с помощью векторизованных "timesteps" (временных шагов) — более гибко, точно и эффективно.

Новая модель генерации видео на базе Mochi1-Preview и поддерживает:

🔹 Text-to-Video
🔹 Image-to-Video
🔹 Frame Interpolation
🔹 Video Transitions
🔹 Looping, удлинение видео и многое другое

Эффективность:
16× H800 GPU
0.1k GPU-часов
Обучение: 500 итераций, batch size 32
По заявления разработчиков - стоимость обучения всего 100$ 🤯

Github
Paper
Dataset
Model

#diffusion #videogen #pusa #opensource #AI #text2video #mochi1 #fvdm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Machine Learning на Rust

🔍 Ключевое из статьи The Beginner’s Guide to Machine Learning with Rust:

Rust — безопасный и быстрый: Исключает критические ошибки, дает скорость C/C++
ndarray — аналог NumPy
tch-rs — обертка над PyTorch
linfa — алгоритмы МЛ на Rust
Cargo — для управления проектами

📝 Rust еще рано заменять Python, но уже есть что пощупать 🚀
✔️ THUDM представила новое поколение моделей семейства GLM.

Китайская THUDM выпустила обновление семейства GLM: базовую GLM-4-32B-0414, оптимизированную для инференса GLM-Z1-32B-0414 и GLM-Z1-Rumination-32B-0414 с ризонингом. Новая архитектура с 32 млрд. параметров обгоняет DeepSeek-R1 (671 млрд. параметров) в математических задачах, выдавая до 200 токенов в секунду — это в 8 раз быстрее, чем R1.

GLM-Z1-Rumination умеет искать данные в сети, анализировать их и проверять гипотезы, как человек. Попробовать новые модели можно в демо-спейсе на новом продуктовом домене ChatGLM - Z.ai.
ChatGLM в X (ex-Twitter)

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 RTX 5060 АНОНСИРОВАЛИ — NVIDIA только что опубликовали цены видеокарт

• RTX 5060 Ti 16 Гб поступит в продажу уже ЗАВТРА и будет стоить $429 (35 000 рублей).
• RTX 5060 Ti 8 Гб также будет продаваться завтра, но стоить будет дешевле — $379 (31 тысяча рублей).
• RTX 5060 8 Гб выйдет в мае за $299 (25 тысяч рублей).

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
✔️ OpenAI разрабатывает собственную соцсеть

По данным нескольких источников, OpenAI работает над собственной социальной платформой.
Внутренний прототип уже существует — он включает социальную ленту с генерацией изображений от ChatGPT. Сэм Альтман также собирает обратную связь от внешних тестировщиков.

Собственная соцсеть даст OpenAI прямой доступ к реальным пользовательским данным — как у X, которые используют их для обучения своих ИИ.
Один из мотиваторов — интеграция Grok в X, с которой пользователи создают вирусный контент прямо в реальном времени.

✔️ Groq запускает ИИ-систему Compound Beta с функциями поиска в Интернете и выполнения кода.

Groq объявила о предварительном запуске Compound Beta, своей первой системы искусственного интеллекта, размещенной на GroqCloud. Она позволяет пользователям осуществлять поиск в Интернете и выполнять программный код. Система предназначена для разработки агентов с расширенным функционалом и ее хвалят бета-тестеры, получившие ранний доступ. Попробовать Compound Beta можно в Groq Console.
Groq в X (ex-Twitter)

✔️ Anthropic анонсировала голосовой режим для Claude и интеграцию с Google Workspace.

Anthropic анонсировала 2 обновления для Claude, ориентированных на корпоративных пользователей. Первое — интеграция с Google Workspace, которая позволяет Claude работать с Gmail, Google Calendar и Google Docs. Функция доступна в бета-режиме для подписчиков планов Max, Team, Enterprise и Pro.

Второе — режим «Исследование», меняющий подход к поиску информации. Вместо стандартных запросов Claude автономно проводит цепочку взаимосвязанных поисков, формируя детальные ответы. Сейчас функция тестируется в США, Японии и Бразилии для планов Max, Team и Enterprise, а вскоре станет доступна и для Pro.

Также Anthropic готовит голосовой режим с 3 вариантами озвучки: Airy, Mellow и Buttery. Он появится для подписчиков премиум-плана Max.
bloomberg.com

✔️ Cohere выпустила Embed 4.

Cohere объявила о релизе Embed 4 — эмбединг-модели, которая упрощает поиск в сложных бизнес-документах. Технология поддерживает мультимодальность: анализирует текст, изображения, графики и рукописные заметки, избавляя компании от ручной обработки данных.

Модель работает с документами до 128 тыс. токенов (это примерно 200 страниц) и понимает 100+ языков. Embed 4 также оптимизирована для регулируемых отраслей: в финансах она анализирует отчеты, в здравоохранении — медицинские карты, а в производстве — спецификации. Embed 4 уже доступна на платформах Cohere, Azure AI Foundry и Amazon SageMaker.
cohere.com

✔️ OpenAI обновила Preparedness Framework и вводит трехкомпонентный режим инцидентов ИИ.

OpenAI внесла существенные изменения в свою систему Preparedness Framework, предназначенную для отслеживания и подготовки к продвинутым возможностям ИИ, которые могут привести к серьезному ущербу.

В результате пересмотра была исключена категория убеждения и введен новый мониторинг рисков, связанных с самовоспроизведением и "sandbagging". Обновленная структура поясняет, как OpenAI классифицирует риски ИИ на основе определенных критериев, подчеркивая, что риски должны быть правдоподобными, измеримыми, серьезными, новыми и либо мгновенными, либо неустранимыми.
openai.com

✔️ Adobe инвестирует в ИИ-стартап Synthesia.

Adobe Ventures сделала стратегическую инвестицию в Synthesia, британский стартап, разрабатывающий ИИ-аватары для корпоративных видео. Решение последовало после того, как компания преодолела отметку в $100 млн годовой выручки.

Synthesia позволяет создавать реалистичные видео с цифровыми персонажами (готовыми или записанными с реальных людей). Платформа уже используется 60 тыс. компаний, включая 70% из Fortune 100, для обучения, маркетинга и коммуникаций.

Synthesia планирует развивать новые продукты — AI-ассистент для видео, мультиязыковой дубляж, кастомизируемые аватары и готовит платформу Synthesia 2.0 для масштабируемых решений. С поддержкой Adobe и растущей клиентской базой стартап намерен перейти от экспериментов с ИИ к устойчивому бизнесу.
maginative.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 OpenLLMetry стандартизированная observability для LLM-приложений. Это значит, что мониторинг вызовов к OpenAI, Anthropic или векторным базам вроде Pinecone и Weaviate можно интегрировать в существующие системы без перестройки пайплайнов.

Интересно, что решение работает в двух режимах: как готовый SDK для быстрого старта и как набор инструментаций для тех, кто уже использует OpenTelemetry. При этом собранные данные сохраняют совместимость kll— можно начать с Traceloop, а затем переключиться на другой бэкенд без потери истории.

🤖 GitHub

@machinelearning_ru
🌊 H2O-3 — это in-memory платформа, которая интегрируется с популярными экосистемами через знакомые интерфейсы: Python, R, Java и даже веб-ноутбуки Flow.

H2O поддерживает автоматизированное машинное обучение и экспорт моделей в лёгкие форматы MOJO/POJO для продакшена. При этом платформа остаётся расширяемой: можно добавлять собственные алгоритмы и трансформации данных.

🤖 GitHub

@machinelearning_ru
Воскресная подборка Chatgpt мемов🤣
2025/07/06 20:25:37
Back to Top
HTML Embed Code: