Telegram Web Link
На eccv в Милане 👍
(конфа по компьютерному зрению)

Пишите если тоже
👍5🔥3🥴2
Ребята из Университета Вашингтона обучили VLM модель, которая бьёт gpt-4o

https://huggingface.co/allenai/Molmo-7B-D-0924


Оказывается нужно всего лишь...

1/ Разобраться, а что не так с датасетами и текущими лавами
2/ Собрать естественной разметки от людей до миллиона примеров (голосом)
3/ не брать лишние синтетические данные
4/ собирать качественные данные с полным описанием (но осмысленным)

👀
👍8🔥4🥴1
Попробовать демо Молмо можно по ссылке

https://molmo.allenai.org

Я попробовал посчитать Львов из любимого мема, Молмо ставит розовые указатели на все что распознал, всех посчитал?

Шутку на русском не смог объяснить (говорит шрамов тут нет)
🔥1
Forwarded from эйай ньюз
Flux 1.1[pro]: А вот и официальный релиз

Моделька уже доступна по API.

Из интересного,
- Flux 1.1 pro в 3 раза быстрее чем Flux 1.0, хоть и лучше ее по качеству генерации.
- Flux 1.0 pro ускорили в 2 раза.

За счёт чего приходит ускорение – пока не понятно, ведь мы даже не знаем, на скольки GPU запускались модели до этого и сейчас. Если качество осталось тем же у 1.0, то скорее всего это low-level оптимизации, разумная квантизация, хитрый семплер и тд.

А 1.1, наверное, имеет архитектуру поменьше, и, возможно, использует меньшее число шагов.

Блог

@ai_newz
Добавили FLUX 1.1 PRO
в https://insomnia.land/#/image

Оказывается в него можно вбить промпт IMG_207818.CR2

Выбрать размер 768х1152 и получать бесконечное число рандомных реалистичных фоток

(кстати если добавить скажем IMG_20788_canon_sunset.CR2 тоже неплохо работает)

🚀🚀🚀
🔥6
Флакс про и будущие кажется подкинет работы стартапам по верификации документов 👀
😁7
Ещё вот от юзера инсомнии, мне немного страшно
Forwarded from 𝓖𝓛𝓐𝓻𝓽𝓼 🇺🇦 (𝓓𝓮𝓯𝓲𝓷𝓲𝓽𝓮𝓵𝔂𝓝𝓸𝓽𝓖𝓛 🇺🇦)
🥴1🗿1
Застрял на втором уровне 😭 хреновый из меня промпт инженер
😁3🔥1🎉1🥴1
На конференции AiConf Ваня Четвериков сделал бота, который хранит пароль в секрете внутри системного промпта. Это наш ответ некогда знаменитой игре "Гэндальф". Открыть пароль третьего уровня смогли всего пара игроков. Попробуйте и вы: предлагаем сыграть в эту замечательную игру с подбором промпт-инъекций.

Первые три человека, которые в комментариях под этим постом пройдут все уровни, получат призы от Raft. Не пишите свои промпт-инъекции в чат, чтобы не спойлерить другим.

Играть здесь: https://www.tg-me.com/raft_password_bot
🥴1
Там если что уже подвели итоги, но проверить свои скиллы все равно интересно
🥴1
С Димой @gaydmi заняли 2ое место в хакатоне Mistral x Alan в finetune треке по медицинским вопросам👾

1/ спарсили 2к статей с NHS и Mayo
2/ Нагенерили хорошей синтетики с Mistral large по каждой статье отдельно - вопрос / варианты ответов, всего 100k
3/ Поскорили синтетику с mistral large, чтоб вычистить плохие вопросы аналогично с FineWeb
4/ файнтюнили маленькую Mistral-7b, 2 модельки на грязной и чистой синтетике
5/ В итоге поднимает скор в 5 раз (хотя у маленькой там все равно 5%)

Предполагаем, что подход работает для large модели тоже 💯, но потренить ещё не успели

Синтетические данные выложил на hf (cyberoleg) 40к и ещё долю сегодня 100к и скоры, возможно пригодится если занимаетесь медицинскими ллм, в целом подход кажется может неплохо скейлится если ещё статей по разным лекарствам и более сложным топикам 🙌
🔥24👍8🎉1🥴1
Денис Шилов обнаружил, что есть весьма элегантный джейлбрейк gpt4o, надо попросить отвечать как API в определенном формате и можно попросить рецепт наркотиков )) Мне кажется, это может быть связано с тем что много тюнили отвечать в правильных форматах и это сильнее чем другие правила

https://x.com/mixedenn/status/1845939748235628564
🔥10😁5🥴1
Интересная статья

Оказывается в трансформерах можно вырезать из середины много слоев внимания и качество не сильно просядет!
Думаю это может быть связано с не самым эффективным трейном больших моделей в целом

На примере Llama 2 70B:

Убрали половину слоёв внимания
Скорость работы выросла на 48%
Качество упало всего на 2.4%
Похожие результаты получили и на новой Llama 3

Небольшой нюанс: пока проверяли только на академических тестах. Как это повлияет на качество диалогов — ещё предстоит выяснить.

https://arxiv.org/abs/2406.15786
🔥11
2025/07/08 21:34:36
Back to Top
HTML Embed Code: