Telegram Web Link
📰 OpenAI объявили, что начали обучение новой версии GPT, скорее всего, речь идет про GPT-5.

В посте говорится, что сегодня совет директоров OpenAI сформировал Комитет по Безопасности, возглавляемый Бретом Тейлором, Адамом Д’Анджело, Николь Селигманом и Самом Альтманом. И это связано с обучением и выпуском следующей версии GPT, цитирую: OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что полученные системы выведут нас на новый уровень возможностей на нашем пути к AGI. Скорее всего, речь идет именно про GPT-5.

Анализируя актуальный релиз GPT-4o, можно сделать вывод, что кроме еще более дорого претрейна из коробки стоит ожидать:
— более качественный Aligning (понимание и следование намерениям пользователя) с уклоном не только в точность, но и в безопасность
— Еще больший упор в мультимодальность. Тут фантазирую, но вероятно, что будет еще более глубокий fuse визуальных, текстовых и аудио токенов.

читать 👉 OpenAI Board Forms Safety and Security Committee
🦄16🔥7👍32🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
🪩 Диффузионки позволяют ремастерить игры при помощи текстовых промптов.

Nvidia показала пайплайн ремастеринга текстур в популярном графично-нодовом интерфейсе ComfyAI.

Теперь можно не только апскейлить текстуры с определением свойств материалов для трассировки лучей, но и контролировать стиль при помощи промптов. RTX Remix — инструмент для ремастеринга классических игр с использованием технологий трассировки лучей и DLSS 3.5. И интеграция RTX Remix Toolkit с ComfyUI выглядит обещающей, позволяя модерам задавать стиль текстур с помощью текстовых промптов. Это ускоряет процесс моддинга и упрощает создание качественных текстур.

Теперь маленькие команды модеров могут быстро создавать текстуры высокого разрешения с физически корректными свойствами, освобождая время для доработки ключевых элементов.

А пока ждем обещанный Half-Life 2 RTX. Ну и я лично мечтал бы увидеть Half-Life Alyx с RTX в VR.
33🔥9👎4❤‍🔥3👍3💊1
Forwarded from Denis Sexy IT 🤖
Если вы любите пытаться сломать защиту в разных LLM с помощью промпт инъекций – то у меня вам полезная ссылка, датасет из почти ~1500 промпт инъекций собранных с Reddit, Discord, Twitter и тп.

https://github.com/verazuo/jailbreak_llms

Внутри промпты и для старых инъекций, вроде DAN, до более новых с base64, leet code и тп.

Следующий шаг, это натренировать на этом модель, которая будет ломать другие модели автоматом ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27😁7👍1
🏆 Свежая Claude 3.5 Sonnet обгоняет GPT-4o

По заявлениям Anthropic их средняя по размерам модель выигрывает в основных benchmark’ах GPT-4o. Конечно выводы делать еще рано, и стоит подождать обновления Chatbot Arena Leaderboard (https://chat.lmsys.org)

Anthropic обещают обновить их младшую Haiku и старшую Opus модели до 3.5 в течение этого года.

📋 Anthropic 3.5 Sonnet (blog post)
🏆145👍2👨‍💻1
А вот вам вишенка на всём этом вашем торте: теперь в Claude 3.5 Sonnet есть возможность запускать код и даже отображать svg. Кстати, интерпретатор обещали еще на старте Claude 3.

https://youtu.be/rHqk0ZGb6qo?si=paltJiI21vu2SXh-
🍓146👾4👍3😁1
🖥️ Десктопная версия ChatGPT теперь доступна всем юзерам

* Пока только на MacOS

🗃️Скачать
18😁16👎4🗿4👍1
Gemma2

Выложили 4 модели 9B и 22B, включая Instruct (IT) версии

🤗 hf blog
👍15🔥32
Forwarded from Tony
😁56
Сегодня опенсорснули Mistral Large 123B

Поддерживаются десятки языков, включая английский, французский, немецкий, испанский, итальянский, китайский, японский, корейский, португальский, голландский и польский.

LLMка обучена более чем 80 языках программирования, таких как Python, Java, C, C++, Javacsript и Bash. Также есть возможности вызова функций и вывода JSON.

Лицензия Mistral Research: разрешает использование и модификацию в исследовательских и некоммерческих целях.

Контекст: 128 тысяч токенов. Новый стандарт, короче.

🇫🇷 https://huggingface.co/mistralai/Mistral-Large-Instruct-2407
27👍18👎2🦄2
🏆 LLaMa 3.1 — 405B модель от Меты заняла 3е на арене

Это невероятный успех для опенсорса!

1 место — GPT-4o & GPT-4o-mini
2 место — Claude 3.5 Sonnet
3 место — Gemini-Advanced & LLaMa 3.1
34🔥13😁3👍2🏆2
📋 GPT-4o System Card

OpenAI выложили отчет, который описывает работу по обеспечению безопасности, выполненную перед выпуском GPT-4o, включая внешнюю проверку (red teaming), оценку рисков, а также обзор встроенных мер по снижению рисков в ключевых областях применения.

https://openai.com/index/gpt-4o-system-card/
5014🔥5🥴3👍1😁1
Forwarded from addmeto (Grigory Bakunov)
Удивительное дело, оказывается у Anthropic выложены в свободный доступ системные промпты от их Claude. Никаких тайных знаний, но оказалось что они довольно обьемные, посмотреть можно тут, я прям минут 20 читал и вчитывался.

подглядел у @cgevent, он нашел первым
27👍7
🧠 OpenAI модели с Chain-of-Thought из "коробки" и это прям топ

Есть такая концепция "быстрого и медленного мышления".
Например, когда тебя спрашивают:
— Сколько будет 7 на 8 ?
— Сколько нужно слоев в нейросети для аппроксимация функции с заданной точностью?
— Кто написал "Евгения Онегина"?

При быстром мышлении мы отвечаем сразу, "не думая":
— 56; 2 слоя; Чайковский
При медленном мы задаем себе промежуточный вопросы:
— Умножить или поделить? Прям любой функции? Оперу или роман?

Короче, Chain-of-Thought там очень серьезный, и качество стало значительно выше.

👉 Так что приглашаю всех на блог OpenAI
44👍11🔥3🥰1
😁116🤔7👎2🥴1
👾 GPT o1-preview заняла первое место на лидерборде https://lmarena.ai/

Ожидаемо. В той или иной форме, медленное мышление (chain-of-thought) уже было следующим шагом. Так что, скорее всего, новым стандартом станет: preTrain, с последующим SFT + DPO\RLFH + Chain-of-Thought. Скорее всего 2025 станет годом подобных open-source релизов.

Из интересного стоит добавить, что OpenAI обновила и GPT-4o (2024-09-03), которая получила 1335 эло-скора (против предшественницы 2024-08-08 с 1316).

Кстати, ребята добавили Jailbreak models at RedTeam Arena, где можно тестить (через дикий объюз) и сравнивать (борда) безопасность/опасность языковых моделей.
👍184🔥3🦄1
🔥 NVIDIA выпустила Llama-3.1-Nemotron-51B

Llama-3.1-Nemotron-51B модель нового поколения, которая выводит на новый уровень соотношение точность/эффективность.

Сеть создана с использованием Neural Architecture Search (NAS) и дистилляции от Llama-3.1-70B, эта модель предлагает 2.2x ускорение инференса без значительных потерь в точности.

Подробнее:

📊 Производительность:

▫️Пропускная способность: 6472 токенов/сек, что более чем в два раза быстрее исходной Llama-3.1-70B.

▫️И главное, модель поддерживает выполнение задач на одной NVIDIA H100 GPU, что значительно снижает стоимость и упрощает инференс.

⚙️ Основные инновации:

▫️Архитектура оптимизирована с помощью NAS, что снижает нагрузку на память и вычислительные ресурсы.

▫️Плюс заюзали механизм Block-distillation, позволяющий уменьшить количество блоков без значительных потерь в точности.

📇 Blog NVIDIA
🤗 Веса
💻 Потестить бесплатно можно тут
31🔥11👍1🤔1
🦙 Релиз Llama 3.2 от Meta

На этот раз нам предоставили выбор аж из четырех моделей, включая, в том числе, и достаточно легковесные и мультимодальные версии:

▫️Llama 3.2 — 1B (1.23B) Lightweight
▫️Llama 3.2 — 3B (3.21B) Lightweight
▫️Llama 3.2 — 11B Multimodal
▫️Llama 3.2 — 90B Multimodal


Обзор: Llama 3.2 была предварительно обучена на 9 триллионах токенов данных из общедоступных источников.

Претрейн моделей 1B и 3B Llama 3.2 являются дистилом из Llama 3.1 8B и 70B (предиктили не следующий токен, а логиты из старших моделей)

В инстракт трейне использовали аналогичный рецепт, что и Llama 3.1:
— Supervised Fine-Tuning (SFT)
— Rejection Sampling (RS)
— Direct Preference Optimization (DPO)

Сutoff: Декабрь 2023

P.S.: Круто, что подвезли мультимодальные 11B и 90B. А среди легковесных — 3B модель вышла очень интересной, и по моему тесту она даже лучше, чем Phi-3.5-mini (3.8B), которая очень неплохо справляется в своей весовой категории.

🤗 Скачать 1B и 3B легковесные версии можно уже сейчас на HuggingFace
👍169🔥4
🍎 Всех с Новым Годом, Шана Това!
74😁10🎄10🕊3🗿3🌚2🦄2
2025/07/12 19:23:45
Back to Top
HTML Embed Code: