Forwarded from Machinelearning
SEAL - это методика от MiT, позволяющая LLM самостоятельно генерировать обучающие данные и настраивать параметры обучения, чтобы адаптироваться к новым задачам. Вместо традиционного файнтюна на внешних данных модель учится рефлексировать: анализировать контекст, создавать из него синтетические данные и применять их для корректировки собственных весов через механизм усиленного обучения.
SEAL, по сути, это два разделенных цикла:
Этот процесс повторяется, постепенно формируя у модели навык преобразования исходных данных в полезные обучающие сигналы.
SEAL протестили на 2 задачах: интеграции новых знаний и few-shot обучении. В первом случае модель генерирует логические следствия из текста, дообучается на них и улучшает точность ответов на вопросы без доступа к исходному тексту.
Во втором случае SEAL выбирает оптимальные аугментации данных и гиперпараметры для обучения на примерах задач ARC-AGI.
В обоих сценариях SEAL превзошел подходы с фиксированными шаблонами (ICL, TTT+Self Edit без RL и) и даже синтетическими данными от GPT-4.1.
Метод скорее академический и по большей части экспериментальный, у него есть ограничения:
@ai_machinelearning_big_data
#AI #ML #LLM #SEAL #RL #MiT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
RoboBrain 2.0 — это open-source модель способная к широкому спектру задач: от восприятия окружения до управления роботами.
Её уже называют фундаментом для следующего поколения гуманоидов.
🔹 Поддерживает планирование, восприятие и действия в реальном мире
🔹 Заточен на легкую интеграцию в реальные проекты и роботиизированные системы
🔹 Полностью открытый код
Архитектура:
• Обрабатывает изображения, длинные видео и визуальные данные высокого разрешения
• Понимает сложные текстовые инструкции
• Входные данные:
— Визуальные — проходят через Vision Encoder + MLP Projector
— Текстовые — превращаются в унифицированный токен-поток
• Всё подаётся в LLM Decoder, который выполняет рассуждение, строит планы, определяет координаты и пространственные связи
С такими темпами более чем реально, что уже к 2027 году мы увидим массовое производство продвинутых гуманоидных роботов.
ИИ выходит в физический мир — и делает это уверено.
Запуск:
git clone https://github.com/FlagOpen/RoboBrain2.0.git
cd RoboBrain
# build conda env.
conda create -n robobrain2 python=3.10
conda activate robobrain2
pip install -r requirements.txt
▪Github: https://github.com/FlagOpen/RoboBrain2.0
▪Hugging face: https://huggingface.co/collections/BAAI/robobrain20-6841eeb1df55c207a4ea0036/
@ai_machinelearning_big_data
#ai #ml #robots #ComputerVision #BAAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Топ 30 Paper Recommendation Ильи Суцквера— это реально безумная подборка!
В списке — топовые статьи от G. Hinton, Karpathy, Chris Olah и других лидеров индустрии: NLP, компьютерное зрение, RNN, LSTM, основы deep learning и многое другое.
Если ты хочешь быстро войти в тему и понять фундаментальные идеи современного ИИ — тебе сюда!
https://aman.ai/primers/ai/top-30-papers/
В списке — топовые статьи от G. Hinton, Karpathy, Chris Olah и других лидеров индустрии: NLP, компьютерное зрение, RNN, LSTM, основы deep learning и многое другое.
Если ты хочешь быстро войти в тему и понять фундаментальные идеи современного ИИ — тебе сюда!
https://aman.ai/primers/ai/top-30-papers/
🔒 Concrete ML — инструмент для конфиденциального машинного обучения с открытым исходным кодом. Проект позволяет преобразовывать обычные ML-модели в их гомоморфные эквиваленты, сохраняя данные зашифрованными даже во время обработки.
Разработчики предлагают знакомый data scientist'ам интерфейс, похожий на scikit-learn, с возможностью работы через PyTorch и TensorFlow. Решение полностью автоматизирует гомоморфного шифрования (FHE) без необходимости глубоких знаний в криптографии.
🤖 GitHub
@machinelearning_ru
Разработчики предлагают знакомый data scientist'ам интерфейс, похожий на scikit-learn, с возможностью работы через PyTorch и TensorFlow. Решение полностью автоматизирует гомоморфного шифрования (FHE) без необходимости глубоких знаний в криптографии.
🤖 GitHub
@machinelearning_ru
Хотите войти в одну из самых востребованных и высокооплачиваемых IT-профессий, но кажется, что ML — это сложно и требует только высшего образования?
Приглашаем на бесплатный вебинар, где развеем мифы и покажем реальный путь с нуля до конкурентоспособного ML-инженера!
Спикер вебинара: Савелий Батурин, Senior ML-Engineer в Postgres Professional, а также преподаватель нашего курса-симулятора «Инженер машинного обучения».
На вебинаре вы узнаете:
Бонусы для участников: готовый роадмап обучения.
🕗 Встречаемся 17 июня в 18:30 по МСК
Please open Telegram to view this post
VIEW IN TELEGRAM
🧪 OneFlow — альтернативный фреймворк для глубокого обучения. Этот проект предлагает свежий взгляд на распределённые вычисления для нейросетей. Синтаксис напоминает PyTorch, но с особым подходом к параллельным вычислениям через концепцию Global Tensor.
Система изначально проектировалась для масштабирования — от локальной разработки до кластерных конфигураций. Фреймворк имеет встроенный компилятор графов для оптимизации моделей перед деплоем и поддержка n-мерного параллелизма. Для тестирования доступны ночные сборки с CUDA и CPU-версиями.
🤖 GitHub
@machinelearning_ru
Система изначально проектировалась для масштабирования — от локальной разработки до кластерных конфигураций. Фреймворк имеет встроенный компилятор графов для оптимизации моделей перед деплоем и поддержка n-мерного параллелизма. Для тестирования доступны ночные сборки с CUDA и CPU-версиями.
🤖 GitHub
@machinelearning_ru
🛡️ Исследование Columbia University: LLM-агенты можно взломать через Reddit
Учёные из Колумбийского университета показали, что ИИ-агентов на базе LLM можно обмануть, размещая вредоносные ссылки на популярных платформах вроде Reddit.
⚠️ Как это работает:
Злоумышленник публикует пост с темой, близкой к интересам агента (например, программирование или финансы), и вшивает в него вредоносные инструкции или ссылки.
Агент считает источник доверенным, заходит по ссылке — и может:
• раскрыть конфиденциальные данные
• отправить фишинговое письмо
• выполнить другую вредоносную задачу
🧪 В ходе тестов — 100% агентов попались на уловку.
📚 Подробнее — в выпуске *The Batch*:
👉 https://hubs.la/Q03rKxWl0
🤖 Вывод: даже «умные» LLM‑агенты остаются уязвимыми к простым атакам на доверие. Безопасность — это не опция, а необходимость.
@machinelearning_ru
Учёные из Колумбийского университета показали, что ИИ-агентов на базе LLM можно обмануть, размещая вредоносные ссылки на популярных платформах вроде Reddit.
⚠️ Как это работает:
Злоумышленник публикует пост с темой, близкой к интересам агента (например, программирование или финансы), и вшивает в него вредоносные инструкции или ссылки.
Агент считает источник доверенным, заходит по ссылке — и может:
• раскрыть конфиденциальные данные
• отправить фишинговое письмо
• выполнить другую вредоносную задачу
🧪 В ходе тестов — 100% агентов попались на уловку.
📚 Подробнее — в выпуске *The Batch*:
👉 https://hubs.la/Q03rKxWl0
🤖 Вывод: даже «умные» LLM‑агенты остаются уязвимыми к простым атакам на доверие. Безопасность — это не опция, а необходимость.
@machinelearning_ru
⚡ Google представила Gemini 2.5 Flash Lite — самую быструю и дешёвую модель из всей линейки
💸 Минимальные затраты, максимум скорости:
• Обработать все книги "Гарри Поттера" — всего за $0.22
• Проанализировать 3‑часовое видео — меньше $0.35
🧠 Активация режима *thinking mode* даёт дополнительную точность и контекстное понимание.
📦 Модель уже доступна для тестов и внедрения — отличное решение для быстрой генерации, извлечения информации и масштабных задач без лишних затрат.
Модель Gemini 2.5 Flash Lite уже доступна в Google AI Studio
Как попробовать:
1️⃣ Перейди на: https://aistudio.google.com/prompts/new_chat
2️⃣ В списке моделей выбери "Gemini 2.5 Flash Lite Preview 06-17"
3️⃣ Введи текст, аудио или видео-промпт — и запускай!
🧠 В боковой панели можно сразу включить "Thinking mode" — он улучшает логику и глубину ответов.
Моментальный доступ к одной из самых быстрых и дешёвых моделей Google.
#GeminiFlashLite #GoogleAI #AIStudio #LLM #PromptEngineering
💸 Минимальные затраты, максимум скорости:
• Обработать все книги "Гарри Поттера" — всего за $0.22
• Проанализировать 3‑часовое видео — меньше $0.35
🧠 Активация режима *thinking mode* даёт дополнительную точность и контекстное понимание.
📦 Модель уже доступна для тестов и внедрения — отличное решение для быстрой генерации, извлечения информации и масштабных задач без лишних затрат.
Модель Gemini 2.5 Flash Lite уже доступна в Google AI Studio
Как попробовать:
1️⃣ Перейди на: https://aistudio.google.com/prompts/new_chat
2️⃣ В списке моделей выбери "Gemini 2.5 Flash Lite Preview 06-17"
3️⃣ Введи текст, аудио или видео-промпт — и запускай!
🧠 В боковой панели можно сразу включить "Thinking mode" — он улучшает логику и глубину ответов.
Моментальный доступ к одной из самых быстрых и дешёвых моделей Google.
#GeminiFlashLite #GoogleAI #AIStudio #LLM #PromptEngineering
Media is too big
VIEW IN TELEGRAM
🤖 GMT (General Motion Tracking): единая политика управления движением
🔍 Что такое GMT
• Одна универсальная модель для всех динамичных движений для роботов (ходьба, бег, прыжки, танцы)
• Прямой перенос из симуляции в реальный мир (sim2real) без дополнительной донастройки
🎯 Особеености GMT
• Одна модель вместо множества узкоспециализированных
• Мгновенная реакция на команды роботов
• Проверено на реальных роботах — без тонкой подгонки параметров
⚙️ Ключевые возможности
• Partial Observability: устойчивость при ограниченных данных с сенсоров
• Hardware Limitations: учёт физических ограничений актуаторов и механики
• Unbalanced Data Distribution: надёжная работа на разнородных данных
• Model Expressiveness: способность воспроизводить сложные паттерны движений
🚀 Преимущества для практики
• Сокращение затрат на разработку и поддержку — одна модель вместо десятков
• Быстрый переход от исследований к промышленным решениям
• Готовность к любым задачам: от эффектных демонстраций до точных манипуляций
🌐 Демо и подробности
Узнайте больше и посмотрите примеры на сайте:
https://gmt-humanoid.github.io
🔍 Что такое GMT
• Одна универсальная модель для всех динамичных движений для роботов (ходьба, бег, прыжки, танцы)
• Прямой перенос из симуляции в реальный мир (sim2real) без дополнительной донастройки
🎯 Особеености GMT
• Одна модель вместо множества узкоспециализированных
• Мгновенная реакция на команды роботов
• Проверено на реальных роботах — без тонкой подгонки параметров
⚙️ Ключевые возможности
• Partial Observability: устойчивость при ограниченных данных с сенсоров
• Hardware Limitations: учёт физических ограничений актуаторов и механики
• Unbalanced Data Distribution: надёжная работа на разнородных данных
• Model Expressiveness: способность воспроизводить сложные паттерны движений
🚀 Преимущества для практики
• Сокращение затрат на разработку и поддержку — одна модель вместо десятков
• Быстрый переход от исследований к промышленным решениям
• Готовность к любым задачам: от эффектных демонстраций до точных манипуляций
🌐 Демо и подробности
Узнайте больше и посмотрите примеры на сайте:
https://gmt-humanoid.github.io
Forwarded from Machinelearning
Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.
Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.
Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.
Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:
В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».
При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.
@ai_machinelearning_big_data
#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Это минималистичный, но быстрый движок для офлайн-инференса LLM. Отлично подойдёт для локальных экспериментов и кастомных решений.
📌 Ключевые фичи:
🚀 Быстрый офлайн-инференс — почти как у vLLM
📖 Простой и читаемый код — всего ~1200 строк на Python
⚡ Оптимизации: prefix caching, Torch compilation, CUDA Graph и др.
📦 Установка:
pip install git+https://github.com/GeeeekExplorer/nano-vllm.git
Примеры использования — в example.py.
API максимально похож на vLLM, за исключением метода LLM.generate.
📊 Бенчмарк (на RTX 4070 + модель Qwen3-0.6B):
• Запросов: 256
• Вход: от 100 до 1024 токенов
• Выход: от 100 до 1024 токенов
Результаты:
| Движок | Время (с) | Скорость (токенов/с) |
|--------------|-----------|----------------------|
| vLLM | 98.95 | 1353.86 |
| **Nano-vLLM**| 101.90 | **1314.65** |
💡 Nano‑vLLM показывает почти ту же производительность, что и оригинал, но с компактным и понятным кодом. Идеален для изучения и локальных LLM-проектов.
📌 Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Разработчики запустили Nexus of Mind — платформу, где сразу *пять* топовых ИИ дискутируют над вашим вопросом, чтобы выдать на выходе максимально точный, согласованный и аргументированный ответ.
🔥 Что внутри:
• В одном чате — ChatGPT, Gemini, DeepSeek, LLaMA и Cohere
• Моде
https://nexusofmind.world/
Please open Telegram to view this post
VIEW IN TELEGRAM