Telegram Web Link
Tesla в Китае пришлось отказаться от ИИ-помощника Grok и использовать местные технологии. В новом внедорожнике Model Y L установлен «умный ассистент», который работает на китайских моделях DeepSeek и Doubao от ByteDance.

Причина простая – китайские требования к локализации данных и обязательное внесение всех ИИ-сервисов в государственный реестр. Tesla, как и другие западные техногиганты вроде Apple, была вынуждена встроить местный ИИ и превратить авто в очередной интерфейс взаимодействия с ними.

Подробнее расписали в Электричке.
13
Сегодня на улице браузерных агентов праздник. Яндекс напомнил о том, что их обещанный на лето ИИ-агент жив – открыли регистрацию на тестирование Алисы с навыками автономного серфинга. Anthropic тоже выпустили свою версию агента – и, в отличие от Perplexity и OpenAI, которые плодят сущности и делают с нуля собственные браузеры, Anthropic решили ограничиться расширением для Chrome.

Алиса работает как виртуальный ассистент, который кликает по ссылкам, заполняет формы и объясняет свои шаги. В примере она получает задачу построить маршрут по Карелии на выходные из 7 точек, открывает карты, после чего выбирает и добавляет нужные точки. Важное отличие от ИИ-ассистентов, встроенных в Маркет или Лавку – Алиса будет жить в браузере и работать на всех сайтах, поэтому можно попросить её искать сразу на всех маркетплейсах, сравнить цены и выбрать лучший вариант.

У Anthropic продукт в целом такой же. Claude для Chrome позволяет ИИ взаимодействовать с любыми веб-страницами через интерфейс чата. Сам агент умеет нажимать на кнопки, добавлять вещи в корзину или удалять письма в почте. При этом значительная часть анонса посвящена описанию рисков от атак с инъекцией зловредных инструкций на веб-страницы, которые агент встречает и начинает выполнять, а также рискам, которые это несёт для данных пользователя. Comet и Dia уже с этим столкнулись.

Пока обе технологии в режиме ограниченного тестирования. Яндекс даёт десять запросов в день, Computer Use доступен только тысяче подписчиков уровня Max. Но направление понятно – все жутко боятся отстать в технологической гонке. Даже если не до конца понимают, как именно агенты, тыкающие полчаса по кнопкам с эффективностью ниже среднего пользователя-человека, могут что-то оптимизировать.
👍4
Nano banana bellissimo

Google наконец официально представили новую модель для редактирования изображений – Gemini 2.5 Flash Image. Она какое-то время скрывалась за кодовыми названием «nano banana». Теперь модель встроена в приложение Gemini и решает главную проблему конкурентов – потерю деталей при редактировании.

До сих ChatGPT, несмотря на всю его гибкость и креативность, стабильно при редактировании искажал на загруженных фото лица, паттерны, элементы одежды. Поэтому загруженные кадры можно использовать разве что как референсы, а сервис не стал заменой Фотошопа.

Эту проблему пытались решить в России – мы делали обзор на Гигачатовский редактор с Мальвиной. Работает он более предсказуемо, но довольно топорно и ограниченно – загрузить фото человека в профиль и попросить повернуть к камере уже не выйдет. То же касается решений типа Flux Kontext.

Google решил обе проблемы: новая модель сохраняет внешность людей, текстуры и детали даже после множественных правок, при это способна вносить сильные изменения, менять ракурсы камеры, время суток (и года). Теперь можно не пользоваться традиционными редакторами, чтобы поменять фон, сделать ретушь, изменить причёску, одежду и ракурс фотографии.

Минусы тоже стандартные – много ограничений, связанных с тематикой фотографии и 18+ контентом. Собственно, именно поэтому локальные модели вроде Flux Kontext даже при меньших возможностях будут оставаться актуальными. Редактирует он картинки тоже не идеально – при просьбе сменить причёску может изменить наклон головы. Текст, особенно на русском, генерируется криво. Мелочи, но тем не менее.
👍3
Япония тоже решила судиться за авторские права

Японские медиагиганты Nikkei и Asahi Shimbun подали в суд на нейропоисковик Perplexity, требуя по 15 миллионов долларов за использование их контента без разрешения. Уже привычная по другим компаниям история, которая теперь дошла и до Японии – после исков Disney и Universal, индийских медиамагнатов и многих других издателей.

Чем недовольны японские компании? Они обвиняют Perplexity в том, что платформа игнорировала robots.txt, копировала их статьи и выдавала неточную информацию со ссылкой на оригиналы. Мол, они тратят деньги на журналистов и редактуру, а те бесплатно пересказывают материалы, коверкают и зарабатывают на подписках. Отдельно идут обвинения в недобросовестной конкуренции.

Существующие договоры не спасают – Perplexity уже подписали соглашения о разделе доходов с Time, Fortune и Der Spiegel, но этого недостаточно. По сути, сейчас ИИ-компании пытаются загнать в угол – либо они договариваются со всеми издателями планеты, либо постоянно получают новые иски.

Причём лояльных читателей медиа не теряют, а другие и так особо к ним на сайты не заходили – поэтому создаётся ощущение, что задача не «добиться справедливости» и трафика, а банально стрясти денег и присоседиться к успеху ИИ-компаний. Интересно, а работники внутри этих медиагигантов ИИ для создания контента не используют?
🔥1
ИИ-агенты нас обязательно заменят

Точнее, тех из нас, кто тоже сначала минуту собирается с мыслями, а потом ещё 5 минут открывает сайт кинотеатра и выбирает нужный сеанс. Жаль, до выбора места и покупки билета не дошли.

Но вы не подумайте, мы ИИ очень хорошо понимаем. Лето на дворе, ленивое настроение, работать не хочется.
😁3
Apple заменили оценщиков ИИ-моделей чек-листами

После замены модель Qwen2.5-7B улучшила результаты на всех тестах

Обычно языковые модели обучают через человеческую недешёвую обратную связь. Тысячи разметчиков ставят лайки и дизлайки ответам ИИ. При этом в Apple справедливо заметили, что люди устают, противоречат друг другу и оценивают тексты субъективно.

Новый метод компании работает иначе. Для каждого запроса модель-учитель автоматически создаёт список конкретных требований. Например, в случае перевода они следующие:
• Переведено на испанский?
• Сохранён формальный тон?
• Учтена терминология?
И так далее. Модель-судья в команде с программой для проверки оценивает ответы по каждому пункту от 0 до 100 баллов. По сути, это развитие предыдущего подхода LLM-as-a-judge.

Прирост составил до 8,2% в сложных бенчмарках. Да, проект требует ИИ-судьи и дополнительных вычислений, но при этом снижает требования к дополнительным человеческим ресурсам, ведь LLM оценивает и обучает другая LLM через структурированную самооценку. В итоге скорость обучения растёт. Но нужно понимать, что метод не про безопасность и не заменяет ИИ алайнмент, а просто учит модель лучше следовать инструкциям.
👍4
Китайцы вдохновились мозгом макаки и запустили DeepSeek на нейроморфном суперкомпьютере

Китайские учёные из Университета Чжэцзян создали нейроморфный суперкомпьютер Darwin Monkey, который потребляет 2 киловатта (как электрочайник) и при этом содержит столько же нейронов, сколько кора мозга макаки. Они превзошли предыдущий рекорд от Intel по их количеству почти в два раза.

Новая машина на специализированных чипах содержит 2 миллиарда спайковых нейронов и 100 миллиардов синапсов. Это первый нейроморфный компьютер такого масштаба. Предыдущий рекордсмен Intel Hala Point располагал лишь 1,15 миллиардами нейронов при 140 тысячах ядер.

В основе Darwin Monkey лежат 960 чипов третьего поколения Darwin III, каждый из которых поддерживает 2,35 миллиона импульсных нейронов. Утверждают, что система уже запускает модель DeepSeek (версию не говорят) для логических рассуждений и математических задач, а также может симулировать работу мозга разных животных – от червей до рыб или грызунов.

Все стараются скопировать мозг человека не просто так. Архитектура трансформеров, судя по всему, может скоро упереться в потолок. И тот, кто сможет придумать и освоить новую – получит шанс доминировать на рынке ИИ и роботов. Следующим прорывом как раз могут стать спайковые нейтронные сети.

В отличие от классических процессоров, они имитируют работу биологических нейронов – активируются импульсами, отдыхают между срабатываниями и обрабатывают данные параллельно. Это снижает энергопотребление при сохранении вычислительной мощи и даёт возможность за счёт смешения нервных импульсов рождать новые знания.

Правда, до человека всё ещё далеко – у нас в голове нейронов больше 80 миллиардов. Гонка за нейроморфные технологии только начинается, и участников немного: США, Китай, Россия и ЕС ведут собственные разработки. Но это тема для отдельного поста или даже реплики.
5
Samsung выбирают Microsoft для телевизоров

Samsung интегрирует Copilot от Microsoft в свои телевизоры 2025 года. Новость особенно интересна на том фоне, что почти десятилетие компания была флагманским партнёром Google в области ИИ и до этого использовала Google Assistant.

Новый Copilot будет выглядеть так же, как и в веб-версии – анимированная «капля» со ртом, которая будет появляться на экране и говорить с пользователем. Помощник встроен в Tizen OS, отвечает на голосовые команды, рекомендует контент и объясняет сложные темы. Microsoft со своей стороны обещает персонализацию для пользователей, которые войдут в аккаунт.

Раньше Google был основным ИИ-партнёром Samsung. Компания делает ставку на ИИ в телевизорах – тем более что у Google колоссальное преимущество благодаря экосистеме, которая может сделать голосового помощника функциональным. Gemini Live должен когда-то превратить телевизоры в центры управления умным домом в реальном времени.

Однако Samsung решили перестраховаться и выбрали политику мультивендорности. Параллельно Microsoft договаривается с LG – очень хотят не дать Google занять этот рынок. Пока не понятно, появится ли Microsoft Copilot в российских телевизорах бренда.
🔥1
Посмотрели обновления в механике отбора особо значимых проектов из индустриальных центров компетенций. Теперь они будут оцениваться с поправкой на искусственный интеллект – компании с ИИ смогут получить софинансирование из бюджета.

А если посмотреть внимательнее на кейсы? У РЖД – система прогнозирования пассажиропотока: алгоритм считает, сколько людей поедет на поездах, и помогает планировать маршруты. У Еврохима – диагностика оборудования, которая предупреждает поломки. Сейчас компании разрабатывают 26 таких решений. Звучит знакомо?

За словом «ИИ» здесь скрывается старый добрый ML, предиктивная аналитика и компьютерное зрение. Технологии проверенные и рабочие, ещё с эпохи Big Data. И это отлично, ведь они не требуют столько вычислительных ресурсов и помогают решать конкретные проблемы, а не обещают невероятные результаты (когда-нибудь потом).

В третьей волне ОЗП планируют формализовать техническую оценку: как именно подтверждать наличие ИИ и считать потенциал тиражирования. Для примера, во второй волне было 49 проектов, из которых 17 получили гранты на 3,2 миллиарда рублей.

Почему вообще акцент сделали на ИИ? Из-за слов премьер-министра Михаила Мишустина на ЦИПРе. После этого «ИИ» стал официальным критерием для приоритетной поддержки. Но важно не название, а содержание проектов. Конечно, остаётся риск перегибов: гонка за ИИ, особенно генеративным, может отодвинуть на второй план другие более скучные и важные вещи – CAD, ERP, ЧПУ, ОС и так далее.
🔥1
Microsoft представили собственные ИИ-модели для голоса и текста

Компания наконец показала плоды работы над независимой от OpenAI экосистемой – речевую модель для генерации аудио MAI-Voice-1 и языковую модель общего назначения MAI-1-preview. Обе уже проходят публичное тестирование.

MAI-Voice-1, как заявляют, генерирует минуту качественного аудио за секунду всего на одной видеокарте. Модель уже работает в Copilot Daily и подкастах, а в Copilot Labs доступны демо-сценарии – от интерактивных историй до персонализированных медитаций. Логично, ведь Microsoft давно и последовательно позиционирует голос как ключевой интерфейс будущих ИИ-компаньонов.

MAI-1-preview – Mixture-of-experts модель, которая обучалась на 15 тысячах Nvidia H100. Это довольно серьёзные вычислительные мощности, хотя и недостаточные, чтобы догнать лидеров индустрии (для обучения Grok 4 использовалось 200 тысяч таких карт). Сейчас её тестируют в LMArena, платформе для сравнения языковых моделей, где она пока занимает 13 место. Модель не призвана полностью заменить ChatGPT, но будет более эффективной в отдельных сценариях.

Как мы уже писали, Microsoft стремится снизить критическую зависимость от OpenAI после кризиса с отстранением Сэма Альтмана в 2023 году и попыток OpenAI найти других партнёров. Собственные модели – это страховка от подобных потрясений.
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Google наконец выкатывает ИИ-аватары в своём видеоредакторе Vids – функцию, которую обещали ещё в мае на Google I/O. Компания заходит на территорию HeyGen, Synthesia и D-ID.

Чтобы сделать аватара, нужно зайти на сайт Google Vids, выбрать один из двенадцати образов, вбить текст – и через несколько минут получить готовое видео. По крайней мере, на бумаге так, проверить не получилось. Мы ждали, ждали, а функция так и не появилась – Гугл любят что-то громко анонсировать, а потом не раскатывать неделями. Вдруг вам повезло больше.

• лимиты пока скромные: 20 роликов в неделю
• максимальная длительность 30 секунд
• поддерживается только английский язык
• сделать аватар на основе своего фото или видео нельзя
• Функция доступна только корпоративным клиентам Workspace и подписчикам Gemini AI

В данном случае упор сделан на корпоративный сегмент, которому нужны обучающие ролики, объяснения политик компании, демонстрации продуктов. ИИ-аватары как раз решают проблему масштаба – когда нужно наштамповать десятки однотипных видео без актёров.

В перспективе это угрожает стартапам вроде Heygen: у Google есть экосистема, интеграции с корпоративными инструментами и возможность демпинговать. Правда, сейчас в продукте очень мало функций – пока стартапам не стоит сильно бояться. Пока.
🔥3
2025/10/21 10:21:00
Back to Top
HTML Embed Code: