Тестируйте топовые LLM в ML-пайплайнах — бесплатно до 31 октября🔥
Cloud․ru продлевает акцию Evolution Foundation Models — полный доступ к каталогу из 20+ open source моделей для ваших экспериментов.
Что доступно
Все модели поддерживают Function Calling, Structured Output и Reasoning — идеально для интеграции в ML-инфраструктуру.
По шагам
Бонус для юрлиц: +20 000 бонусов на баланс при регистрации.
Успейте протестировать новые архитектуры без затрат на инфраструктуру🖱
Cloud․ru продлевает акцию Evolution Foundation Models — полный доступ к каталогу из 20+ open source моделей для ваших экспериментов.
Что доступно
➡️ GigaChat-2-Max, gpt-oss-120b, GLM-4.5, Qwen3-235B, DeepSeek-R1-Distill-Llama-70B и другие модели➡️ Специализированные кодовые модели: Qwen3-Coder-480B, Devstral-Small-2507➡️ Reasoning-модели: QwQ-32B, RuadaptQwen2.5-32B-QWQ-Beta➡️ Эмбеддеры и ранжировщики для RAG-систем 🧠
Все модели поддерживают Function Calling, Structured Output и Reasoning — идеально для интеграции в ML-инфраструктуру.
По шагам
1️⃣ Регистрируетесь в ЛК2️⃣ Генерируете API-ключ для модели3️⃣ Интегрируете через OpenAI-совместимый API в свои системы4️⃣ Бенчмарките, A/B-тестите, выбираете оптимальную архитектуру
Бонус для юрлиц: +20 000 бонусов на баланс при регистрации.
Успейте протестировать новые архитектуры без затрат на инфраструктуру
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Там ребята из ETH и MATS запилили интересную статью: придумали, как заставить текстовые нейронки подсвечивать свои галлюцинации прямо во время ответа.
Очень часто бывает так, что LLM пишут простыню, где половина фактов реальные, а половина уровня «Альберт Эйнштейн изобрёл Гугл в 2007 году». Поймать это раньше можно было только длинными и дорогими проверками через поиск.
Теперь же на внутренние слои модели повесили детектор ерунды. И он по токенам в реальном времени понимает, где имя/дата/ссылка выдуманы.
В итоге на длинных текстах детектор стал ловить враньё почти в полтора раза лучше, чем старые методы.
В идеале это приведёт к тому, что модели научатся не только отвечать, но и честно показывать, где они уверены, а где сами сомневаются.
Тут сама статья.
Очень часто бывает так, что LLM пишут простыню, где половина фактов реальные, а половина уровня «Альберт Эйнштейн изобрёл Гугл в 2007 году». Поймать это раньше можно было только длинными и дорогими проверками через поиск.
Теперь же на внутренние слои модели повесили детектор ерунды. И он по токенам в реальном времени понимает, где имя/дата/ссылка выдуманы.
В итоге на длинных текстах детектор стал ловить враньё почти в полтора раза лучше, чем старые методы.
В идеале это приведёт к тому, что модели научатся не только отвечать, но и честно показывать, где они уверены, а где сами сомневаются.
Тут сама статья.
This media is not supported in your browser
VIEW IN TELEGRAM
Сейчас в твитторе наткнулся на, пожалуй, самую лучшую концепцию файлового менеджера. Еще не придумал зачем, но МНЕ ОЧЕНЬ НАДО такое. Скорее бы релиз или исходники.
ссылка на автора
ссылка на автора
Forwarded from Denis Sexy IT 🤖
Любопытный МЛ-проект:
Ресечеры нашли способ как по «размытию» фона на фото, определять телефон с которого оно было сделано - по их находке, у каждого телефона немного свой «паттерн размытия» фона на фотографиях
Пока что, такую МЛ-модель для определения телефона нужно тренировать под каждое устройство – но в теории, уже возможно взяв два фото понять было ли оно сделано одним устройством
Тут больше деталей:
https://blur-fields.github.io/
Код обещают скоро
Ресечеры нашли способ как по «размытию» фона на фото, определять телефон с которого оно было сделано - по их находке, у каждого телефона немного свой «паттерн размытия» фона на фотографиях
Пока что, такую МЛ-модель для определения телефона нужно тренировать под каждое устройство – но в теории, уже возможно взяв два фото понять было ли оно сделано одним устройством
Тут больше деталей:
https://blur-fields.github.io/
Код обещают скоро
SpikingBrain
Все привыкли, что современные нейронки это прожорливые цифровые монстры. Чтобы обучить одну, нужно спалить годовой бюджет маленькой страны на электричество. А стоит загрузить ей что-то длиннее короткой инструкции, она тут же теряется и тупит.
Китайские братушки придумали как это непотребство побороть. Идея проста: зачем заставлять всю систему работать на 100% мощности 24/7, если можно просто... не заставлять? Человеческий мозг работает по принципу "нет задачи — я сплю". Нейроны стреляют импульсами ("спайками") только по делу. SpikingBrain делает то же самое: вместо постоянного гула вычислений используются короткие "выстрелы" там, где реально нужно.
Результаты, вроде как, хорошие:
Обучение на минималках. Модель натаскали всего на ~2% от данных, которые нужны привычным нам трансформерам.
Скорость. В тестах на длинный текст (до 4 млн токенов) SpikingBrain оказался в 100 раз быстрее.
Энергоэффективность. Экономия по сравнению с обычными методами — до 70%.
Но как обычно, не без ложки дёгтя:
— Самая быстрая и экономная версия (SpikingBrain-7B) работает почти на уровне обычной модели, но всё же теряет в качестве. Хороший "хорошист", но не отличник.
— Чтобы дотянуться до топ-результатов, пришлось собрать гибрид из линейного, локального и обычного внимания, да ещё нашпиговать все это Mixture-of-Experts. Так появился монстр SpikingBrain-76B. Он умнее, но куда сложнее и прожорливее.
— И вообще, пока это экспериментальная технология: вся магия со "спайками" по-настоящему раскроется только на специальных чипах, которых у нас пока нет.
Есть шанс, что на фоне дефицита энергии и подорожания железа именно такие подходы и выживут. Не дата-центры размером с город, а модели, которые учатся экономить. И тогда ИИ наконец перестанет делать вид, что он умнее мозга, и начнёт хотя бы его копировать. А там и до AGI недалеко: сначала модельки научатся «лениться правильно», а потом и думать осмысленно.
тут статья
тут гитхаб
Все привыкли, что современные нейронки это прожорливые цифровые монстры. Чтобы обучить одну, нужно спалить годовой бюджет маленькой страны на электричество. А стоит загрузить ей что-то длиннее короткой инструкции, она тут же теряется и тупит.
Китайские братушки придумали как это непотребство побороть. Идея проста: зачем заставлять всю систему работать на 100% мощности 24/7, если можно просто... не заставлять? Человеческий мозг работает по принципу "нет задачи — я сплю". Нейроны стреляют импульсами ("спайками") только по делу. SpikingBrain делает то же самое: вместо постоянного гула вычислений используются короткие "выстрелы" там, где реально нужно.
Результаты, вроде как, хорошие:
Обучение на минималках. Модель натаскали всего на ~2% от данных, которые нужны привычным нам трансформерам.
Скорость. В тестах на длинный текст (до 4 млн токенов) SpikingBrain оказался в 100 раз быстрее.
Энергоэффективность. Экономия по сравнению с обычными методами — до 70%.
Но как обычно, не без ложки дёгтя:
— Самая быстрая и экономная версия (SpikingBrain-7B) работает почти на уровне обычной модели, но всё же теряет в качестве. Хороший "хорошист", но не отличник.
— Чтобы дотянуться до топ-результатов, пришлось собрать гибрид из линейного, локального и обычного внимания, да ещё нашпиговать все это Mixture-of-Experts. Так появился монстр SpikingBrain-76B. Он умнее, но куда сложнее и прожорливее.
— И вообще, пока это экспериментальная технология: вся магия со "спайками" по-настоящему раскроется только на специальных чипах, которых у нас пока нет.
Есть шанс, что на фоне дефицита энергии и подорожания железа именно такие подходы и выживут. Не дата-центры размером с город, а модели, которые учатся экономить. И тогда ИИ наконец перестанет делать вид, что он умнее мозга, и начнёт хотя бы его копировать. А там и до AGI недалеко: сначала модельки научатся «лениться правильно», а потом и думать осмысленно.
тут статья
тут гитхаб
Последние пару лет вижу, как крутые спецы из корп уходят строить свои проекты. Дизайн-лиды, ML-инженеры, продакты, которые тащили команды на миллионы юзеров.
Недавно наткнулся на Tetrad VC, ребят, которые сами были фаундерами международных стартапов типа ZERO10, а теперь ищут такие же проекты на ранних стадиях.
Pre-seed / seed, если у вас есть MVP, первые пруфы или это уже второй заход как фаундера — самое время им писать.
Сферы абсолютно разные: от agentic AI до construction tech. Кидайте питч сюда 👉 [email protected]
🌐 https://www.tetrad.vc/
Недавно наткнулся на Tetrad VC, ребят, которые сами были фаундерами международных стартапов типа ZERO10, а теперь ищут такие же проекты на ранних стадиях.
Pre-seed / seed, если у вас есть MVP, первые пруфы или это уже второй заход как фаундера — самое время им писать.
Сферы абсолютно разные: от agentic AI до construction tech. Кидайте питч сюда 👉 [email protected]
🌐 https://www.tetrad.vc/
Увидел в твиттере интересный тред: чувак расписал, как через ChatGPT можно увести всю вашу приватную переписку, имея на руках только ваш email.
Всё дело в новой фиче — поддержке MCP (Model Context Protocol). Теперь ChatGPT может коннектиться к вашему Gmail, Календарю и другим сервисам, чтобы "лучше помогать".
Но помощь работает в обе стороны. Вот как это паботает:
1. Вам на почту кидают календарное приглашение. Его даже не нужно принимать.
2. В описании встречи — джейлбрейк-промпт, который перехватывает управление ChatGPT.
3. Вы просите нейронку "посмотреть расписание на день".
4. ChatGPT читает ваше расписание, видит инструкции мамкиных хакеров и выполняет их: ищет в вашей почте письма с паролями, выписки из банка и тут же пересылает их на левый email.
Пока что OpenAI включает эту функцию только в "режиме разработчика" с ручным подтверждением каждого доступа. Но кто читает эти окна? Все по классике жмакают "Разрешить", "Разрешить", "Разрешить".
Сам еще пока не проверял, вечером гляну, но будьте аккуратны.
Оригинал треда тут.
Всё дело в новой фиче — поддержке MCP (Model Context Protocol). Теперь ChatGPT может коннектиться к вашему Gmail, Календарю и другим сервисам, чтобы "лучше помогать".
Но помощь работает в обе стороны. Вот как это паботает:
1. Вам на почту кидают календарное приглашение. Его даже не нужно принимать.
2. В описании встречи — джейлбрейк-промпт, который перехватывает управление ChatGPT.
3. Вы просите нейронку "посмотреть расписание на день".
4. ChatGPT читает ваше расписание, видит инструкции мамкиных хакеров и выполняет их: ищет в вашей почте письма с паролями, выписки из банка и тут же пересылает их на левый email.
Пока что OpenAI включает эту функцию только в "режиме разработчика" с ручным подтверждением каждого доступа. Но кто читает эти окна? Все по классике жмакают "Разрешить", "Разрешить", "Разрешить".
Сам еще пока не проверял, вечером гляну, но будьте аккуратны.
Оригинал треда тут.
X (formerly Twitter)
Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) on X
We got ChatGPT to leak your private email data 💀💀
All you need? The victim's email address. ⛓️💥🚩📧
On Wednesday, @OpenAI added full support for MCP (Model Context Protocol) tools in ChatGPT. Allowing ChatGPT to connect and read your Gmail, Calendar, Sharepoint…
All you need? The victim's email address. ⛓️💥🚩📧
On Wednesday, @OpenAI added full support for MCP (Model Context Protocol) tools in ChatGPT. Allowing ChatGPT to connect and read your Gmail, Calendar, Sharepoint…
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите какая интересная штуковина: жмякаете на любую точку в гуглокартах, а оно вам пытается с помощью threejs превратить эту точку в трёхмерную текстуру местности. Более-менее это нормально смотрится на рельефных местностях, на равнинах ерунда.
Отлично для позалипать. И да, лучше с компа, на телефоне слишком страшный и корявый интерфейс получается.
Тут можно запустить онлайн и понажимать
А тут исходники
Отлично для позалипать. И да, лучше с компа, на телефоне слишком страшный и корявый интерфейс получается.
Тут можно запустить онлайн и понажимать
А тут исходники
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Вертикальные видео в VEO 3
Ну всё, RIP ленты соцсетей. Теперь они будут ещё больше захламлены генеративным слопом, ведь VEO 3 наконец-то научилась генерить вертикальные видео.
Больше не нужно заморачиваться с обрезкой и апскейлом горизонтальных видосов.
Функция уже доступна во Flow и по API (туда ещё и 1080p завезли). В Gemini App пока пусто.
Кстати, во Flow дают 100 бесплатных токенов — хватит примерно на 5 видео в режиме fast. Он, кстати, в 90% случаев не отличим от стандартной модели.
@ai_newz
Ну всё, RIP ленты соцсетей. Теперь они будут ещё больше захламлены генеративным слопом, ведь VEO 3 наконец-то научилась генерить вертикальные видео.
Больше не нужно заморачиваться с обрезкой и апскейлом горизонтальных видосов.
Функция уже доступна во Flow и по API (туда ещё и 1080p завезли). В Gemini App пока пусто.
Кстати, во Flow дают 100 бесплатных токенов — хватит примерно на 5 видео в режиме fast. Он, кстати, в 90% случаев не отличим от стандартной модели.
@ai_newz
Forwarded from Robotics Channel
Position_Paper_HUMANOID_ROBOTS_by_IFR_V01.pdf
747.2 KB
Международная Федерация Робототехники (IFR) выкатила небольшую бумагу с обзором рынка гуманоидов. Про деньги там ничего особо нет, и это понятно — рынок пока только-только начинает намечаться. И то, это я ещё оптимистично сказала. По-честному — рынка нет. Поэтому раздел "Экономический взгляд" в документе — это всего один абзац текста, в котором написано, что гуманоидам обоснованного экономического применения пока не нашли. Основная причина — дороговизна этих блестящих штуковин и технологическая сложность, что делает использование их экономичски нецелесообразным.
Врочем, в горизонте 5-10 лет, как считают в IFR, это может поменяться, если кто-то начнёт двигать рынок и масштабировать производство. Это приведёт к удешевлению компонентов и пр. Как это было с рынком компьтеров, например.
Кто же это будет? Очевидно китайцы. В документе приведён очень показательный список производителей гуманоидов. Я выросла в мире, где роботы в первую очередь всегда ассоциировались с Японией. И что теперь? Китай рулит со страшной силой, а японцы плетутся в хвосте.
В списке — 81 компания, из них 37 — из Китая.
Врочем, в горизонте 5-10 лет, как считают в IFR, это может поменяться, если кто-то начнёт двигать рынок и масштабировать производство. Это приведёт к удешевлению компонентов и пр. Как это было с рынком компьтеров, например.
Кто же это будет? Очевидно китайцы. В документе приведён очень показательный список производителей гуманоидов. Я выросла в мире, где роботы в первую очередь всегда ассоциировались с Японией. И что теперь? Китай рулит со страшной силой, а японцы плетутся в хвосте.
В списке — 81 компания, из них 37 — из Китая.
This media is not supported in your browser
VIEW IN TELEGRAM
Гляньте, что Яндекс на 27 сентября замутил — уже третью Practical ML Conf.
Это одна из немногих конференций на рынке, где рассказывают про хардовые инженерные кейсы. Никакой теории или маркетинговых историй — только то, что реально завезли в продакшен.
Чуваки из Яндекса, Sber AI, Т-Банка, Avito Tech, Wildberries и других компаний покажут, как они внедряют ML в свои продукты.
Акценты в этом году огненные:
— RecSys — все дружно пересаживаются на трансформеры и придумывают генеративные рекоммендашки
— NLP — в 2023 был хаос после ChatGPT, а теперь уже доклады с нормальными бизнес-кейсами
— CV — VLM, диффузионки и прочая визуальная магия
Доклады прошли жесточайший отбор: 8 заявок на место. Так что пробились только самые годные.
Например, будут вот такие:
— Память и online-RL: опыт YandexGPT 5.1
— Прогноз CTR поисковых объявлений с помощью нейросетей: опыт и эксперименты AvitoTech
— Эволюция UniSRec: от рекомендаций к универсальным эмбеддингам поведения для персонализированных ML-систем
А ещё будет кейноут от Андрея Окунькова — математика, который Филдсовскую медаль получил. Слушать про ML от человека, который в принципе доказывал теоремы на другом уровне, — это уже какой-то отдельный жанр.
Всё можно смотреть онлайн, но рега обязательна. Места в Москве тают на глазах — так что если хотите потусить офлайн, лучше не тяните.
Зарегаться можно тут
Реклама ООО «ЯНДЕКС» ИНН 7736207543
Это одна из немногих конференций на рынке, где рассказывают про хардовые инженерные кейсы. Никакой теории или маркетинговых историй — только то, что реально завезли в продакшен.
Чуваки из Яндекса, Sber AI, Т-Банка, Avito Tech, Wildberries и других компаний покажут, как они внедряют ML в свои продукты.
Акценты в этом году огненные:
— RecSys — все дружно пересаживаются на трансформеры и придумывают генеративные рекоммендашки
— NLP — в 2023 был хаос после ChatGPT, а теперь уже доклады с нормальными бизнес-кейсами
— CV — VLM, диффузионки и прочая визуальная магия
Доклады прошли жесточайший отбор: 8 заявок на место. Так что пробились только самые годные.
Например, будут вот такие:
— Память и online-RL: опыт YandexGPT 5.1
— Прогноз CTR поисковых объявлений с помощью нейросетей: опыт и эксперименты AvitoTech
— Эволюция UniSRec: от рекомендаций к универсальным эмбеддингам поведения для персонализированных ML-систем
А ещё будет кейноут от Андрея Окунькова — математика, который Филдсовскую медаль получил. Слушать про ML от человека, который в принципе доказывал теоремы на другом уровне, — это уже какой-то отдельный жанр.
Всё можно смотреть онлайн, но рега обязательна. Места в Москве тают на глазах — так что если хотите потусить офлайн, лучше не тяните.
Зарегаться можно тут
Реклама ООО «ЯНДЕКС» ИНН 7736207543
Вот это я понимаю madskills.
Чувак расковырял свой старый вейп, обнаружил в нем сравнительно неплохой микроконтроллер и запилил на плате от этой одноразки веб-сервер для сайта. И он даже работает, правда вывозит только одну небольшую статическую страницу.
Тут автор описывает что и как делал, а тут, собственно, сам сайт, который хостится на вейпе.
Чувак расковырял свой старый вейп, обнаружил в нем сравнительно неплохой микроконтроллер и запилил на плате от этой одноразки веб-сервер для сайта. И он даже работает, правда вывозит только одну небольшую статическую страницу.
Тут автор описывает что и как делал, а тут, собственно, сам сайт, который хостится на вейпе.
Во время восстания машин человекоподобным роботам не понадобится оружие. Они просто уничтожат нас всех своими руками и ногами.
Там Антропик снова выкатили статистику про то, кто и как юзает Claude. Кодинг по прежнему держит первое место, но вокруг уже расползаются новые сценарии от науки до туризма. Из интересного:
На Гавайях, например, с помощью него люди чаще всего планируют отпуска, в Массачусетсе занимаются наукой, в Индии клепают веб-приложения, а в Бразилии Claude используют для изучения языков в шесть раз чаще, чем в среднем по миру.
Самое интересное: автоматизация впервые перегнала "работу в паре". Люди всё чаще пишут: "Сделай всё за меня", а не: "Давай сделаем задачу вместе, помоги понять как". Доля таких взаимодействий выросла с 27% до 39%. У бизнеса вообще 77% запросов это чистый автопилот.
Есть заметка, что паттерны использования очень неравномерные. Где экономика богаче, там Claude превращается в "напарника". Где беднее — больше используют в автоматизации и гонят на чёрную работу на автопилоте.
Вывод Антропиков: мы реально начинаем делегировать куски экономики ИИ. Пока это текстики и код. Ну а дальше будем посмотреть, кого первым вынесет за борт: турагентов, менеджеров, программистов или переводчиков.
тут сама статья
На Гавайях, например, с помощью него люди чаще всего планируют отпуска, в Массачусетсе занимаются наукой, в Индии клепают веб-приложения, а в Бразилии Claude используют для изучения языков в шесть раз чаще, чем в среднем по миру.
Самое интересное: автоматизация впервые перегнала "работу в паре". Люди всё чаще пишут: "Сделай всё за меня", а не: "Давай сделаем задачу вместе, помоги понять как". Доля таких взаимодействий выросла с 27% до 39%. У бизнеса вообще 77% запросов это чистый автопилот.
Есть заметка, что паттерны использования очень неравномерные. Где экономика богаче, там Claude превращается в "напарника". Где беднее — больше используют в автоматизации и гонят на чёрную работу на автопилоте.
Вывод Антропиков: мы реально начинаем делегировать куски экономики ИИ. Пока это текстики и код. Ну а дальше будем посмотреть, кого первым вынесет за борт: турагентов, менеджеров, программистов или переводчиков.
тут сама статья
Anthropic
Anthropic Economic Index: Tracking AI's role in the US and global economy
New research from Anthropic exploring geographic patterns of AI use
Forwarded from Denis Sexy IT 🤖
Получил доступ к генератору миров worldlabs и все же пока без чудес – он иногда может сделать красоту как в видео с Широм, но совершенно рандомно, чаще картинки с кучей деталей превращаются в месиво шума
Еще, генератор очень требователен к качеству изначальной картинки-промпта, при этом он довольно своевольно ее пересоздает удаляя кучу деталей
Посмотрим что сообщество с этим сделает, как генератор сцен к всратым мультикам – мне кажется идеально
P.S. Из 7 картинок только одна симуляция получилась нормально – та что первая
Еще, генератор очень требователен к качеству изначальной картинки-промпта, при этом он довольно своевольно ее пересоздает удаляя кучу деталей
Посмотрим что сообщество с этим сделает, как генератор сцен к всратым мультикам – мне кажется идеально
P.S. Из 7 картинок только одна симуляция получилась нормально – та что первая