Telegram Web Link
Наглядная иллюстрация, как работает хайп в ИИ. Достаточно просто добавить слово «агент» – и вот твой стартап уже ощущается солиднее, не как какие-нибудь там Google или Microsoft с их Copilot. И не важно, что работает всё на стандартном API Anthropic.

Дальше ждём «Зачем компания сделала таблицу из ячеек с таблицей из ячеек с агентами в каждой ячейке» и так до бесконечности, пока вселенная не схлопнется.
14
Меньше не значит хуже

Оказалось, что малые языковые модели использовать для ИИ-агентов оптимальнее больших

Ещё недавно говорили, что будущее ИИ за гигантскими облачными моделями. Но в новом исследовании Nvidia пришли к выводу, что малые языковые модели становятся более оптимальным выбором для агентных систем, которые решают цепочки повторяющихся рутинных задач.

Например, в некоторых тестах Phi-3 с 7 миллиардами параметров показывает уровень моделей в разы крупнее. А Nemotron-H от Nvidia и xLAM-2-8B от Salesforce обгоняют в отдельных тестах крупные модели от API-провайдеров. Нужно учитывать, что для бизнеса обслуживание или дообучение такой модели обходится в разы дешевле по инфраструктуре и электроэнергии. А ещё есть возможность запускать её на собственных серверах и не делиться данными.

Все задачи такие модели не закроют, но большинство запросов к агентам – это рутинные действия: отформатировать текст, вызвать функцию, извлечь данные по шаблону и так далее. Активировать для этого сотни миллиардов параметров неэффективно, а малые модели решают те же задачи быстрее, дешевле и ближе к пользователю – в том числе и на телефоне без Интернета, на что делают ставку Apple.

Статья лишний раз напоминает, что когда говорят об отсутствующей рентабельности ИИ-компаний и перегретости рынка – речь в первую очередь о сомнительных стартапах, которые гонятся за шальными деньгами инвесторов, а не об интеграции ИИ в бизнес-процессы.

Российский корпоративный рынок, собственно, с начала ИИ-истории идёт по этому же пути (тот случай, когда недостаток лишних денег и отсутствие развитого венчурного рынка могут пойти скорее на пользу, чем во вред). Не нужно впрягаться в колесо и бежать как белка, наращивая количество параметров моделей и мощностей для их запуска и соревнуясь в «алом» океане за пользователей, которые в любой момент могут уйти к конкурентам.
Времена очных собеседований, казалось, ушли в прошлое – но не зря говорят, что в мире всё циклично. The Wall Street Journal вот пишет, что компании начали пересматривать свой подход к собеседованиям и возвращают очный формат. Google, Cisco и McKinsey уже устраивают минимум одну живую встречу, а в Далласе их доля выросла с 5% до 30% за год.

Оказалось, что за несколько лет с начала пандемии рекрутёры с соискателями начали пользоваться всеми плюсами дистанционного формата встреч. Они освоили самые разные ИИ-инструменты – от чат-ботов для написания резюме до программ вроде DeepFaceLive для замены лица на видео в реальном времени.

В итоге сложилась странная ситуация, когда работодатели фильтруют резюме с помощью ИИ, кандидаты пишут сопроводительные письма в ИИ, а иногда даже собеседуют их другие ИИ. То есть в итоге боты мило беседуют друг с другом и тратят ресурсы компании. Более того, участились случаи корпоративного шпионажа, подделки резюме и нелегального устройства на работу (или сразу десятки работ под разными именами, привет, Сохам Парех).

Ещё важнее, что собеседование – во многом неформальное мероприятие, где можно поговорить, оценить уровень собеседника, условия работы (в том числе культуру и традиции компании, которые могут быть не отражены в документах). Интересно посмотреть на ИИ-рекрутёра, который от имени компании будет говорить «Ну, у нас вообще дресс-код прописан, но его соблюдать не обязательно» или что-то подобное.

Мы уже писали как-то, что автоматизация обработки резюме рождает множество проблем, от манипуляции со стороны респондента до предвзятости со стороны модели. Теперь вот круг замкнулся: Google и другие компании снова зовут людей в офисы. Ведь только так можно убедиться, что перед тобой живой человек, а не алгоритм, мошенник или замаскированный северокорейский «удалёнщик» в поисках иностранной валюты.
👍1
Чем Google отметил юбилейное – десятое поколение Пикселя?

Не новым цветом корпуса или ещё одной камерой, а, ожидаемо, очередными новостями из мира ИИ. На презентации Made by Google 2025 компания показала, что будущее Pixel – это Gemini

Gemini теперь встроен во всё: от телефона до часов и наушников. Его задача – понимать контекст и помогать «проактивно». Google называет это «персональным интеллектом». Примеры уже поднадоели, но звучат снова – смартфон сможет организовать ужин, найти ресторан, забронировать столик, предложить караоке и даже заказать футболки… Слышим не первый раз, всё ещё ждём.

Отдельного внимания заслуживает Magic Cue – пожалуй, самая интересная новинка Pixel 10. Это контекстный ИИ-подсказчик на базе Gemini. Он подтягивает данные из почты, календаря, заметок, сообщений и даже скриншотов, даёт подсказку пользователю и возможность ответить одним нажатием. Пример: в чате друг спросил адрес вечеринки, а Magic Cue сразу предлагает вставить его из письма с подтверждением. Или при звонке в авиакомпанию на экране появятся детали рейса. Всё это, как заявляют, работает локально – благодаря новому чипу Tensor G5 и модели Gemini Nano.

ИИ проявился и в камере: Camera Coach подсказывает кадрирование и позы, Pro Res Zoom позволяет увеличивать картинку до сотни раз с генеративной дорисовкой деталей, а Real Tone улучшает разные оттенки кожи. Насчёт работы зума пока есть сомнения – генеративные апскейлеры славятся тем, что рисуют очень много лишних деталей и сильно меняют картинку.

Pixel Watch 4 получили «умные» функции безопасности: часы могут заметить потерю пульса и вызвать экстренные службы. А в Fitbit появится персональный ИИ-коуч по здоровью и сну, доступный в премиум-версии. Он будет адаптироваться под конкретного пользователя, анализировать привычки и давать рекомендации.

Понятное дело, всё это пока не будет работать в России или вне экосистемы Google. В целом интересно – Google одними из первых в мире показывают, как можно создавать и внедрять ИИ в разрозненную экосистему продуктов.
👍5
ИИ против нежеланных нюдсов

Можно ли встроить «тормоз» прямо в телефон, чтобы голые фото не только не дошли до ребёнка, а вообще не появились в памяти устройства? HMD с моделью Fuse как раз этим и занимается. HarmBlock+ – системный, неотключаемый фильтр, который блокирует показ, съёмку, хранение и даже стримы с обнажёнкой, причём всё работает на самом устройстве. Модель обучена на 22 млн изображений. Ну да ладно, о самом устройстве можете подробнее прочитать в Content Review.

Этот шаг выглядит логичным: индустрия давно двигалась в сторону он-девайс-фильтрации. Apple уже размывает потенциально откровенные фото в iMessage. Google Messages использует похожий подход через сервис SafetyCore. В Instagram (принадлежит экстремистской организации Meta) ИИ тоже автоматически размывает 18+ фото у подростков, даже в зашифрованных чатах.

Но скрывающийся за этим процесс гораздо шире, чем просто блокировка нюдсов. В Windows появились функции Recall и Copilot Vision: первая превращает регулярные снимки экрана в локальную «память», вторая «понимает» интерфейс и подсказывает действия в реальном времени. Это уже не фильтр контента, а системный слой ИИ, который видит и индексирует почти всё, что делает пользователь. Возможности впечатляют, но и риски возрастают: такой «дневник экрана» становится активом, сопоставимым по ценности с почтой и облаком.

Всё это стало возможно в последнее время благодаря развитию ИИ. Главное достижение последних лет – способность моделей работать в реальном времени прямо на устройстве. В телефонах они обычно включаются «событийно»: классифицируют вложение и засыпают, экономя батарею. Подход HMD шире: ИИ мониторит экран, камеру, хранилище и поток. Это требует непрерывной обработки кадров – ещё недавно задача считалась непосильной для мобильного чипа. Теперь она реальна, хотя влияние на батарею и производительность ещё предстоит проверить.

Тут хочется пофантазировать о том, где мы окажемся в эпоху очков дополненной реальности. Ведь уже скоро подобные фильтры перестанут быть функцией для обработки контента и превратятся в фильтр «мира». Уже есть эксперимент с AR очками, где энтузиаст подключил Gemini и научил очки замазывать уличную рекламу в реальном времени.

То есть рано или поздно всё, что мы видим, превратится в поток данных для анализа и рекламы. Мы обязательно увидим цифровые баннеры в дополненной реальности – и новые приложения для борьбы с ними. А простор для монетизации в AR гораздо шире, чем сейчас. И каждая новая ИИ-модель с оптимизированной архитектурой и чипом на новом техпроцессе стремительно приближает такое будущее.
🔥6
#нейродайджест Аишки за неделю

T-Mobile упаковал Perplexity в свой смартфон. В комплекте идут 18 месяцев Pro-подписки

Китайская комната LLM: об искусственном интеллекте, который не ответит нам взаимностью

Премьер Албании предлагает избирать ИИ в правительство. Мол, не берут взяток и работают 24/7

• Nvidia доказала, что малые языковые модели бьют гигантов в агентных задачах

Компании возвращают живые собеседования: Google и McKinsey устали от ботов, беседующих с ботами

Что нового показали на конференции Made by Google 2025? ИИ-подсказчик, новые функции Gemini и многое другое

ИИ против нежеланных нюдсов – как ИИ научился обрабатывать изображение в реальном времени и к чему это может привести
Видео сгенерировано ИИ?
Anonymous Poll
39%
Да
61%
Нет
1
Аишка
Video
Каждому по Шоу Трумана

Видео с картинга в стиле Марио Карт, где люди врезаются, наезжают друг на друга и вылетают за границы трека набрало миллионы просмотров и завирусилось в соцсетях. В комментариях – буря эмоций. Одни недоумевают, как это вообще легально. Другие легко объясняют «Так это Вьетнам, там всё можно». Особо впечатлительные сравнивают происходящее с «Игрой в кальмара». И если пролистать сотни комментариев, не найдёшь ни одного упоминания о том, что это может быть сгенерировано ИИ. А может?

Сначала наступает стадия скептицизма – такое невозможно в реальности, регуляторы никогда бы не допустили настолько опасные гонки. Потом начинаешь гуглить, находишь фотографии реальных людей на таком же маршруте во Вьетнаме, съёмки с разных ракурсов – и наступает стадия принятия. Может, детей в Азии действительно пускают за несколько долларов убиваться и вылетать с трека?

Вроде пора смириться и успокоиться – но смутное чувство, что всё не так просто, не покидает. Копаешь глубже, смотришь видео покадрово – и начинаешь замечать странности. На одном кадре исчезает чья-то обувь, на другом человек буквально растворяется в воздухе, на третьем руки проходят сквозь листья и ветки. А это явные маркеры ИИ-генерации. Так что мы видим – смешение реальных кадров со сгенерированными? Артефакты кодеков и апскейлеров? Игры разума?

Ответа нет. Аккаунт зарегистрирован в марте 2025 года и на нём всего несколько провокационных роликов: дети с битами нападают на взрослых, агрессивные рыбы выпрыгивают из воды и кусают людей… Всё намекает на классический паттерн AI Slop – дешёвого контента, созданного для привлечения массового трафика. Но с тем же успехом он может выкладывать обычные компиляции из реальных роликов, которые медиа делают многие годы.

ИИ уже сейчас втягивает в кроличью нору, заставляя усомниться в собственном восприятии реальности. Может, и видео с кроликами было настоящим? И они действительно прыгают на батутах? А люди действительно подлетают с машинки на 2 метра и приземляются в кусты? Начинаешь понимать бедного Аллана Брукса, который из-за общения с чат-ботом потерялся на полпути между реальностью и вымыслом. Возможно, Альтман всё-таки прав – и к 2030 году разница между «реальным» и «сгенерированным» контентом в восприятии человека исчезнет, а сам вопрос уйдёт в прошлое.

А видео, как оказалось, не сгенерировано. Или…
👍2😁2🥴2
This media is not supported in your browser
VIEW IN TELEGRAM
Google не теряет надежду превратить Диск из хранилища в рабочее пространство на основе ИИ. В Google Drive появилась кнопка, которая открывает видео прямо в редакторе Vids. В нём ролик можно обрезать, наложить музыку и текст, сгенерировать сценарий через Gemini – и даже использовать Veo 3 для генерации новых кадров.

Правда, работает это пока не слишком удобно. Vids поддерживает не любые видео, а только отдельные клипы до 35 минут и весом до 4 ГБ. После открытия создаётся отдельный файл проекта, а для сохранения результата нужно экспортировать полученное видео себе на устройство. Хотелось бы более бесшовный процесс – чтобы видео открывалось в Vids, запоминало внесённые изменения и автоматически сохранялось на Диске (а в идеале с историей версий).

Нововведение доступно только подписчикам Google Workspace, AI Pro и Ultra. Правда, несмотря на наличие подписки, у нас эта функция пока не появилась – запуск идёт поэтапно и займёт несколько недель.
🫡21
Коммерсант со ссылкой на Smart Rankings пишет: 95% выручки от монетизации ИИ в России – 1,4 триллионов рублей из общих 1,486 – сосредоточено у пяти компаний. Лидерами стали ❤️Яндекс (500 млрд), Сбер (400 млрд), 📞Т-Технологии (350 млрд) и ✉️VK (119 млрд). Остальным 146 игрокам досталось крохи.

Цифры в разы выше прежних оценок. Возьмём Яндекс. Выручка компании за прошлый год – чуть больше триллиона рублей. Получается, 50% выручки обеспечил искусственный интеллект? ВК показали себя ещё лучше – ИИ обеспечил им 80% выручки. А вы говорите, пузырь и рынок перегрет.

Произошла магия подсчётов. В зачёт шло влияние ИИ на бизнес целиком – его внедрение в поиск и рекомендации, рекламу, скоринг, оптимизацию издержек. То есть считали не инвестиции, реальные продажи или выручку от ИИ – а просто выручку, под честное слово компании, что ИИ в ней как-то присутствует и влияет.

Не удивительно, что такие результаты вызвали вопросы. MWS AI в той же статье оценивают реальный объём рынка в 50 миллиардов. Но и крупных игроков можно понять – проблема с подсчётом ROI от ИИ сохраняется, и никто толком не знает, где заканчивается автоматизация и начинается искусственный интеллект. При этом, что радует, тренд сохраняется в любом случае – рынок растёт двузначными темпами год к году.

Гораздо интереснее было бы посмотреть рейтинг не по совокупной выручке экосистем, а по эффективности: ROI, маржинальность, окупаемость внедрений. Туда попали бы стартапы и нишевые компании, а итоговый список выглядел бы куда менее концентрированным.
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁3🔥2
Nvidia хочет рынок роботов и edge-вычислений

Хотя закон Мура и теряет актуальность, компьютеры пока продолжают становиться меньше и мощнее. На этом фоне Nvidia начали продажи Jetson Thor – компактного ПК с акцентом на использование в роботах

Сегодняшний ИИ в телефоне или ноутбуке умеет многое, но роботы требуют иного уровня мощности. Они должны одновременно «смотреть» десятком камер, «слышать», чувствовать пространство, понимать команды и управлять движением ног и рук – мгновенно и без обращения в облако. Для этого нужны новые решения.

Thor – это компьютер в карманном формате. Его производительность – до 2070 терафлопс (в FP4), примерно в восемь раз выше, чем у прошлой топовой платы Nvidia Orin. При этом он потребляет от 40 до 130 ватт – на уровне мощного ноутбука. Thor, в отличие от домашних или кустарных ПК умеет параллельно обрабатывать несколько видеопотоков 8K и сотни сигналов от сенсоров.

Внутри установлен графический процессор Blackwell и 14-ядерный процессор Arm Neoverse, поддерживается до 128 ГБ быстрой памяти. Есть сетевые интерфейсы с 4 каналами по 25 гигабит в секунду каждый. Правда, цена кусается – 3,5 тысячи долларов.

При этом он оптимизирован для работы со стеком Nvidia для «физического ИИ»: Isaac GR00T для обучения и координации гуманоидов, Holoscan Sensor Bridge для работы с массивами датчиков, Metropolis для визуального анализа.

Физический ИИ пока выходит из лабораторий, хотя уже применяется на складах и заводах, в сельхозтехнике и дронах. И в этой гонке у NVIDIA сильная позиция: её Jetson стал фактическим стандартом для разработчиков, а новый Thor даёт шанс закрепить лидирующие позиции.
👍2
Tesla в Китае пришлось отказаться от ИИ-помощника Grok и использовать местные технологии. В новом внедорожнике Model Y L установлен «умный ассистент», который работает на китайских моделях DeepSeek и Doubao от ByteDance.

Причина простая – китайские требования к локализации данных и обязательное внесение всех ИИ-сервисов в государственный реестр. Tesla, как и другие западные техногиганты вроде Apple, была вынуждена встроить местный ИИ и превратить авто в очередной интерфейс взаимодействия с ними.

Подробнее расписали в Электричке.
13
Сегодня на улице браузерных агентов праздник. Яндекс напомнил о том, что их обещанный на лето ИИ-агент жив – открыли регистрацию на тестирование Алисы с навыками автономного серфинга. Anthropic тоже выпустили свою версию агента – и, в отличие от Perplexity и OpenAI, которые плодят сущности и делают с нуля собственные браузеры, Anthropic решили ограничиться расширением для Chrome.

Алиса работает как виртуальный ассистент, который кликает по ссылкам, заполняет формы и объясняет свои шаги. В примере она получает задачу построить маршрут по Карелии на выходные из 7 точек, открывает карты, после чего выбирает и добавляет нужные точки. Важное отличие от ИИ-ассистентов, встроенных в Маркет или Лавку – Алиса будет жить в браузере и работать на всех сайтах, поэтому можно попросить её искать сразу на всех маркетплейсах, сравнить цены и выбрать лучший вариант.

У Anthropic продукт в целом такой же. Claude для Chrome позволяет ИИ взаимодействовать с любыми веб-страницами через интерфейс чата. Сам агент умеет нажимать на кнопки, добавлять вещи в корзину или удалять письма в почте. При этом значительная часть анонса посвящена описанию рисков от атак с инъекцией зловредных инструкций на веб-страницы, которые агент встречает и начинает выполнять, а также рискам, которые это несёт для данных пользователя. Comet и Dia уже с этим столкнулись.

Пока обе технологии в режиме ограниченного тестирования. Яндекс даёт десять запросов в день, Computer Use доступен только тысяче подписчиков уровня Max. Но направление понятно – все жутко боятся отстать в технологической гонке. Даже если не до конца понимают, как именно агенты, тыкающие полчаса по кнопкам с эффективностью ниже среднего пользователя-человека, могут что-то оптимизировать.
👍4
Nano banana bellissimo

Google наконец официально представили новую модель для редактирования изображений – Gemini 2.5 Flash Image. Она какое-то время скрывалась за кодовыми названием «nano banana». Теперь модель встроена в приложение Gemini и решает главную проблему конкурентов – потерю деталей при редактировании.

До сих ChatGPT, несмотря на всю его гибкость и креативность, стабильно при редактировании искажал на загруженных фото лица, паттерны, элементы одежды. Поэтому загруженные кадры можно использовать разве что как референсы, а сервис не стал заменой Фотошопа.

Эту проблему пытались решить в России – мы делали обзор на Гигачатовский редактор с Мальвиной. Работает он более предсказуемо, но довольно топорно и ограниченно – загрузить фото человека в профиль и попросить повернуть к камере уже не выйдет. То же касается решений типа Flux Kontext.

Google решил обе проблемы: новая модель сохраняет внешность людей, текстуры и детали даже после множественных правок, при это способна вносить сильные изменения, менять ракурсы камеры, время суток (и года). Теперь можно не пользоваться традиционными редакторами, чтобы поменять фон, сделать ретушь, изменить причёску, одежду и ракурс фотографии.

Минусы тоже стандартные – много ограничений, связанных с тематикой фотографии и 18+ контентом. Собственно, именно поэтому локальные модели вроде Flux Kontext даже при меньших возможностях будут оставаться актуальными. Редактирует он картинки тоже не идеально – при просьбе сменить причёску может изменить наклон головы. Текст, особенно на русском, генерируется криво. Мелочи, но тем не менее.
👍3
2025/10/19 23:40:39
Back to Top
HTML Embed Code: