Когда Smol становится big: Обучение небольшой языковой модели, ориентированной на данные.
https://huggingface.co/papers/2502.02737
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥2
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤1👍1
🎯 Google DeepMind AlphaGeometry2 превзошел среднего золотого медалиста в решении олимпиадных задач по геометрии!
AG2 достигает 84% уровня решения геометрических задач IMO 2000-2024 гг.
Еще полгода назад он был на уровне серебра. Теперь он на уровне золота.
При таких темпах ни один человек не сможет угнаться за ИИ.
https://huggingface.co/papers/2502.03544
@machinelearning_ru
AG2 достигает 84% уровня решения геометрических задач IMO 2000-2024 гг.
Еще полгода назад он был на уровне серебра. Теперь он на уровне золота.
При таких темпах ни один человек не сможет угнаться за ИИ.
https://huggingface.co/papers/2502.03544
@machinelearning_ru
🔥9👍5🥰2
Forwarded from Machinelearning
OpenAI планирует создать местную команду, которая будет заниматься продажами, развитием, коммуникациями, лоббированием и укрепить связи с немецкими университетами. По словам Сэма Альтмана, репутация Германии в области технического совершенства и промышленных инноваций сделала ее естественным выбором для расширения OpenAI. Германия - один из ключевых рынков OpenAI , а за последний год количество платных пользователей ChatGPT в Германии увеличилось в три раза.
heise.de
Объединенные Арабские Эмираты и Франция подписали соглашение о строительстве масштабного ИИ-кампуса с ЦОД мощностью в 1 гигаватт. Проект потребует инвестиций в размере от 30 до 50 миллиардов евро и станет крупнейшим объектом такого рода в Европе.
Проект кампуса, подписанный президентом Франции и президентом ОАЭ будет разработан консорциумом французских и эмиратских компаний, с участием инвестиционного фонда MGX. Точное местоположение объекта еще не определено.
france24.com
ИИ AlphaGeometry2, улучшенная версия системы AlphaGeometry, превзошла среднего золотого медалиста в решении задач по геометрии на международном математическом конкурсе. DeepMind утверждает, что их ИИ может решить 84% всех олимпиадных задач по геометрии за последние 25 лет.
AlphaGeometry2 состоит из языковой модели из семейства Gemini и "символьного движка". Модель Gemini помогает символьному движку, который использует математические правила для вывода решений задач, приходить к возможным доказательствам для целевой теоремы. AlphaGeometry2 считает проблему "решенной", когда приходит к доказательству, которое объединяет предположения Gemini с принципами символьного движка. DeepMind создала свои собственные синтетические данные для обучения AlphaGeometry2, сгенерировав более 300 миллионов теорем и доказательств различной сложности.
techcrunch.com
Новая функция Microsoft Edge на базе ИИ работает на компьютерах с Windows. Она способна выявлять и блокировать существующие мошеннические схемы и обнаруживать новые благодаря локальной модели машинного обучения.
Когда обнаруживается мошенничество, Microsoft Edge автоматически выходит из полноэкранного режима, который пытаются навязать вредоносные сайты, останавливает воспроизведение аудио и предупреждает пользователя миниатюрой просматриваемой страницы. После этого пользователь может сообщить о сайте, чтобы его добавили в службу Microsoft Defender SmartScreen.
Функция блокировки теперь доступна в предварительной версии в последней стабильной ветке браузера. Чтобы получить доступ к этой функции, необходимо вручную включить блокировку scareware в настройках конфиденциальности Edge и перезапустить браузер. Модель машинного обучения, используемая для блокировки, работает локально, не сохраняя и не отправляя данные в Microsoft.
theverge.com
Компания разработала систему, способную анализировать мозговую активность человека во время набора текста и определять, какие клавиши он нажимает, основываясь только на мыслях. Система использует магнитно-энцефалографический сканер для сбора сигналов, производимых в коре головного мозга.
Несмотря на то, что система способна определять буквы с точностью до 80%, она далека от коммерческого применения из-за своего размера, стоимости в 2 миллиона долларов и необходимости работы в экранированной комнате. Разработчики рассматривают ее как фундаментальное исследование принципов интеллекта, которое может быть использовано для создания более мощных систем искусственного интеллекта, способных учиться и рассуждать, как люди.
technologyreview.com
🤗 Kokoro
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤3👍3
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
DepthFlow — это продвинутый конвертер изображений в видео с 3D-параллакс-эффектом, позволяющий превращать статичные фотографии в динамичные анимации!
В DepthFlow добавлены настраиваемые пресеты для достижения профессионального вида анимаций.
Быстрая обработка происходит благодаря оптимизированному шейдеру GLSL, работающему на GPU. Рендеринг до 8k50fps с RTX 3060, поддердивает экспорт видео с любым разрешением.
Дополнительные функции включают использование апскейлеров и пост-эффекты, такие как искажение линз, глубина резкости и тд .
▪ Github: https://github.com/BrokenSource/DepthFlow
▪Docs: https://brokensrc.dev/depthflow/
▪ComeUI: https://github.com/akatz-ai/ComfyUI-Depthflow-Nodes
@ai_machinelearning_big_data
#computervision #shadertoy #depthmaps #depthmap #depthprediction #parallaxeffect #monocular #imagetovideo #depthy #shaderflow
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1🔥1
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍2
Media is too big
VIEW IN TELEGRAM
🧠 Разбираем Функцию Радемахера. Машинное обучение Курс математики
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок8 / Урок9
- Colab
-Полный курс
@machinelearning_ru
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок8 / Урок9
- Colab
-Полный курс
@machinelearning_ru
👍5❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12❤3🔥2
🔥 Ovis2 мультимодальная LLM, выпущенная командой Alibaba AIDC.
✨ 1B/ 2B /4B/8B/16B/34B
✨ Мощный CoT для более глубокого решения проблем
✨ Поддержка многоязычного OCR — за пределы английского и китайского языков, с проработанной системой извлечением данных
▪HF: https://huggingface.co/collections/AIDC-AI/ovis2-67ab36c7e497429034874464
▪Github: https://github.com/AIDC-AI/Ovis
▪Paper: https://arxiv.org/abs/2405.20797
@machinelearning_ru
✨ 1B/ 2B /4B/8B/16B/34B
✨ Мощный CoT для более глубокого решения проблем
✨ Поддержка многоязычного OCR — за пределы английского и китайского языков, с проработанной системой извлечением данных
▪HF: https://huggingface.co/collections/AIDC-AI/ovis2-67ab36c7e497429034874464
▪Github: https://github.com/AIDC-AI/Ovis
▪Paper: https://arxiv.org/abs/2405.20797
@machinelearning_ru
👍5🔥3❤2👎1
Forwarded from Machinelearning
Common Corpus - обширный открытый текстовый набор данных на 2 трлн. токенов. Набор разработан PleIAs в сотрудничестве с рядом партнёров и отличается от других датасетов высоким уровнем открытости и возможностью отслеживания происхождения данных.
В обновленную версию были включены материалы, не защищенные авторским правом или распространяемые на основе открытых лицензий.
Common Corpus содержит информацию объемом 10 млрд. токенов для каждого из 8 основных языков (английский, немецкий, французский, испанский, итальянский, польский, греческий и латынь) и 1 млрд. токенов для каждого из 33 дополнительных языка.
В состав Common Corpus входят научные публикации, правительственные и юридические документы, программный код и материалы культурного наследия - книги и газеты.
Все исходные данные для датасетов Common Corpus прошли тщательную модерацию, строгий отбор, коррекцию орфографических ошибок и удаление нежелательного или недостоверного контента.
Common Corpus соответствует положениям AI Act и предоставляет возможность обучения моделей, совместимых с принципами открытого ИИ и может быть использован в коммерческих и некоммерческих целях.
identifier
- уникальный идентификатор текстового документа;collection
- название коллекции, к которой относится документ;license
- информация о лицензии;date
- дата создания документа;title
- заголовок документа;creator
- автор или источник публикации;language
- язык документа;word_count
, token_count
- количественные показатели: число слов и токенов;text
- текстовое содержание документа.@ai_machinelearning_big_data
#AI #ML #Dataset #PlelAs #CommonCorpus
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥3👍1
Anthropic готовится к выпуску новой модели, объединяющей возможности традиционной LLM с расширенными функциями рассуждения. Ожидается, что модель будет доступна в ближайшие недели и ориентирована на корпоративных клиентов.
Ключевая особенность новой модели - переменное распределение ресурсов, позволяющее пользователям регулировать вычислительную мощность, используемую моделью для каждой задачи, с помощью простого слайдера. На минимальном уровне модель функционирует как стандартная LLM без цепочки рассуждений.
theinformation.com
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2❤1
⚡️ Разбор собеседования по машинному обучению в Озон 2025
https://uproger.com/razbor-sobesedovaniya-po-mashinnomu-obucheniyu-v-ozon-2025/
@machinelearning_ru
https://uproger.com/razbor-sobesedovaniya-po-mashinnomu-obucheniyu-v-ozon-2025/
@machinelearning_ru
👍7❤1🔥1
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2🔥1😱1
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2
Forwarded from Machinelearning
Google расширила возможности Gemini, внедрив функцию запоминания прошлых разговоров для подписчиков Gemini Advanced через Google One AI Premium. Это обновление позволяет Gemini предоставлять более релевантные ответы. Новая функция доступна на английском языке в веб-версии и мобильном приложении Gemini. Google планирует добавить поддержку других языков, а также для бизнес- и корпоративных клиентов Google Workspace в ближайшие недели.
blog.google
Предложение инженера Google об увеличении частоты таймера ядра Linux с 250 до 1000 Гц вызвало интерес в технологическом сообществе и сервис Phoronix провел A/B-тестирование, чтобы оценить влияние этого изменения. Наиболее заметные улучшения наблюдались в ускорении LLM. В других задачах влияние было минимальным и находилось в пределах погрешности измерений системы. Основная идея Кайса Юсефа заключалась в том, что увеличение частоты таймера приведет к улучшению отзывчивости системы и позволит решить проблемы, связанные с 250 Гц: неточные временные интервалы и задержки в балансировке нагрузки.
Тестирование проводилось на AMD Ryzen 9 9950X, 32 ГБ ОЗУ и GPU Radeon RX 7900 XTX. Наибольший прирост производительности наблюдался с Llama, где увеличение частоты таймера привело к росту производительности на 10%.
tomshardware.com
Apple Machine Learning Research опубликовало исследование метода трансферного обучения для графовых нейронных сетей, который значительно улучшает эффективность и точность физического моделирования сложных систем. В работе представлена масштабируемая графовая U-NET (SGUNET), способная адаптироваться к различным размерам сетки и разрешениям.
Предложенный метод позволяет использовать предварительно обученные модели на большом наборе данных (ABC Deformable - ABCD), содержащем 20 000 физических симуляций 3D-форм, для последующей тонкой настройки на целевых задачах с меньшим количеством данных. Это значительно снижает затраты на сбор и аннотацию данных.
Эксперименты на 2 датасетах (2D Deformable Plate и 3D Deforming Plate) показали, что модель, предварительно обученная на ABCD и дообученная на 1/16 части данных, демонстрирует улучшение RMSE на 11.05% по сравнению с моделью, обученной с нуля.
machinelearning.apple.com
Microsoft и Университет Карнеги опубликовали ресёрч о том, что генеративный ИИ оказывает двоякое влияние на когнитивные процессы человека. С одной стороны, ИИ-инструменты снижают воспринимаемую сложность задач, требующих критического мышления. С другой стороны, чрезмерная уверенность в возможностях ИИ приводит к снижению критического мышления и зависимости от сгенерированного контента.
Анализ опроса 319 представителей умственного труда показал, что работники чаще всего используют критическое мышление для обеспечения качества своей работы. При этом, чем выше уверенность работника в собственных навыках, тем больше усилий он прилагает для оценки результатов, предоставляемых ИИ. И наоборот, чем выше уверенность в возможностях ИИ, тем меньше усилий затрачивается на критическое мышление. Исследование также выявило изменения в структуре когнитивных усилий при использовании ИИ - они смещаются от сбора информации к ее проверке, от решения проблем к адаптации ответов ИИ и от выполнения задач к контролю за процессом.
microsoft.com
Новые рекомендации OpenAI указывают на то, что для эффективного использования моделей серии o, стоит отходить от сложных техник промпт-инжиниринга в пользу простых и прямых инструкций. OpenAI предостерегает от использования "boomer prompts" и инструкций вроде "думай шаг за шагом" для этих моделей. Вместо этого рекомендуется давать краткие, четко структурированные указания с использованием разделителей (XML-теги) и четко определять критерии успеха или ограничения.
platform.openai.com
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2🤩1
Чем полезен:
- Прототипирование и модульность:
Интуитивный API и модульная архитектура позволяют быстро настраивать модели, обрабатывать данные и менять гиперпараметры.
- Гибкость:
Возможность модификации исходного кода под конкретные задачи, а также интеграция с популярными фреймворками, такими как PyTorch или TensorFlow.
- Быстрая обратная связь:
Инструмент ускоряет процесс экспериментов, обеспечивая оперативное получение результатов обучения.
Установка:
pip install chonkie
Chonkie идеально подходит для исследователей и разработчиков, которым важна скорость экспериментов и гибкость настройки, но может быть ограничен для масштабных промышленных проектов.
▪ Github
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2🥰2
Forwarded from Haskell
«Large Lambda Model» крутой гайд, где автор делится опытом реализации инференса модели GPT-2 на языке Haskell с использованием библиотеки hmatrix и OpenBLAS.
Основная цель проекта — выполнить прямой проход (forward pass) модели без обучения или обратного распространения ошибки.
Этот проект демонстрирует, как можно реализовать инференс модели GPT-2 на Haskell, углубляясь в детали архитектуры и работы с линейной алгеброй без использования специализированных тензорных библиотек.
Выбор инструментов:
Haskell и hmatrix: Использование Haskell с hmatrix для линейной алгебры.
OpenBLAS: Применение для оптимизации линейных операций.
Архитектура GPT-2:
Ресурсы для изучения:
- Репозитории Karpathy: NanoGPT и llm.c.
Визуализатор LLM от Brendan Bycroft.
Веб-приложение для токенизации: tiktokenizer.
▪ Читать
@haskell_tg
Основная цель проекта — выполнить прямой проход (forward pass) модели без обучения или обратного распространения ошибки.
Этот проект демонстрирует, как можно реализовать инференс модели GPT-2 на Haskell, углубляясь в детали архитектуры и работы с линейной алгеброй без использования специализированных тензорных библиотек.
Выбор инструментов:
Haskell и hmatrix: Использование Haskell с hmatrix для линейной алгебры.
OpenBLAS: Применение для оптимизации линейных операций.
Архитектура GPT-2:
Ресурсы для изучения:
- Репозитории Karpathy: NanoGPT и llm.c.
Визуализатор LLM от Brendan Bycroft.
Веб-приложение для токенизации: tiktokenizer.
▪ Читать
@haskell_tg
🔥4❤1👍1