Telegram Web Link
Новый лазерный чип может сделать ИИ в 100 раз эффективнее

Университет Флориды представил чип, который использует для вычисления лазерный свет вместо электричества. Обещают стократное снижение энергопотребления для искусственного интеллекта. Кажется, вот же оно – идеально решение для дата-центров, к которым уже приходится строить дополнительно атомные станции. Но не всё так просто.

Чип распознаёт рукописные цифры с точностью 98%: как обычный процессор, но почти без затрат энергии на сами вычисления. Данные кодируются светом, проходят через микроскопические линзы на поверхности кремния, и результат получается мгновенно. Линзы делают за наносекунды то, на что электронным схемам нужны миллионы тактов и киловатты мощности.

Но, как говорится, есть нюанс. Исследователи тестировали систему на распознавании цифр – это азбука машинного обучения. Современный ИИ самую малость сложнее – работает с миллионами параметров, обрабатывает видео в реальном времени, генерирует длинные тексты. Фотонный чип пока умеет выполнять ровно один тип операции. Плюс для запуска системы требуется 32 лазера разных цветов, десятки модуляторов и детекторов – всё это нужно как-то упаковать и подружить с обычными процессорами.

Индустрия уже использует оптику, но только для передачи данных между чипами. Nvidia, Google и остальной бигтех пока выжимают максимум из кремния, фотоника же останется экзотикой. По крайней мере, пока кто-то не продемонстрирует работу на реальных задачах, вроде распознавания лиц или автопилота.
2🔥1
Смотри только не перенапрягись
😁4
Самокат тихо обновил пользовательское соглашение и ввёл туда понятие некого «вау-поиска». Пишут, что это поиск по рецептам и товарам, но с нюансом – используя его, пользователь соглашается, что ответы генерируются автоматически, без модерации, носят справочный характер и могут быть неточными.

Что именно такое этот «вау-поиск» не объясняют, но выглядит подозрительно похоже на LLM. Появился этот режим пока не у всех, возможно идёт А/Б тест. Можно поздравить Самокат с интеграцией ИИ на платформу? Работает пока, правда, не очень хорошо, но и сама модель в курсе – говорит, что ещё учится.
🔥3😁1
Forwarded from Dima Schapov
😁7🥴1
CPO Grab рассказал, что компания приняла вайб-кодинг и активно его использует для прототипирования. А ещё сделали внутренний сервис для генерации изображений. На какой модели работает сервис и вайб-кодили они его или всё-таки писали ручками – не говорят

#tiaconference2025 #justkeepbuilding
😁3
Одна из загадок конференции Tech in Asia 2025 – наличие в списке «золотых» партнеров OpenAI, которые больше буквально никак не представлены и не упоминаются

#tiaconference2025 #justkeepbuilding
😁5
Приятно смотреть, насколько продвинулось транскрибирование и расшифровка речи благодаря мультимодальным моделям. Вполне прикладной кейс – нужно было распознать длинную запись с диктофона с нескольких сессий на конференции. Запись шумная, голос тихий, у людей английский не родной, поэтому они говорят на нём с акцентом и периодически переключаются на индонезийский. Встроенная расшифровка диктофона справляется с таким аудио очень плохо, что в целом можно понять.

А вот Gemini не подвёл – LLM, в отличие от других сервисов, смогла не просто узнать слова, но и «обработать текст»: отформатировать, автоматически определить и расставить имена спикеров на основе контекста (свечку не держали, но в теории – ещё и сделать уточняющий запрос в интернете и подтвердить их личность), подписать участки с интершумом и даже перевести фразы на индонезийском. И это всё без уточнений или сложных инструкций.

Мы уже делали сравнение этой функции в разных сервисах. Пока Gemini, по ощущениям, всё ещё лидирует.
6
Два месяца простоя ради слайдов с ИИ

Чем бы дитё не тешилось: как Grab дважды переставал работать, чтобы заставить сотрудников использовать искусственный интеллект

На конференции Tech in Asia 2025 Grab рассказали, как полностью остановили работу на два месяца летом 2022 года. Не только отдел разработки, а вообще всю компанию. Потом ещё на месяц в этом году. Зачем? Компания заморозила операционку, сидела и… училась пользоваться искусственным интеллектом. Назвали это GI sprint.

30% такого спринта выделили на «рост личной продуктивности», 70% – на «внешние инновации для клиентов и партнёров». Идея была в том, чтобы встроить ИИ во все основные продукты и ускорить цикл разработки. Компания хвасталась, что придумала себе название «организация-киборг», где люди и модели работают бок о бок.

Ввели правило «demos over memos»: менеджеры продукта перестали писать длинные PRD и стали вайб-кодерами – собирают прототип с Cursor, сразу показывая его инженерам и сокращая цикл обратной связи. Придумали даже свой термин “bi-coding” – двустороннее кодирование, когда PM и дизайнеры сами правят код интерфейса. Параллельно компания запустила внутренний инструмент Mosaic для генерации графики и много других ИИ-инструментов.

Помогло ли это компании? Говорят, в результате целых 76% сотрудников теперь еженедельно заходят в ChatGPT. Вместо 67%, которые были до этого. Эти сотрудники навайбкодили 40 прототипов, из которых только треть попала в продакшн. Границы должностей размылись: теперь все «продуктовые инженеры» или «менеджеры по дизайну продукта», а не какие-то там продакт-менеджеры и разработчики.

При этом компания не рассказала об издержках от двух месяцев «отпуска» сотрудников, когда они занимались «ростом личной продуктивности». Не объяснила, может ли это отрицательно сказаться на выручке (а значит и на ожиданиях инвесторов, ведь Grab торгуется на NASDAQ). Есть ли гарантия, что спринты в итоге окупятся. Ну а главное – не рассказали, какие именно запросы сотрудники отправляют ИИ. Ведь когда инструмент использовать заставляют насильно, тяжело удержаться и не начать просить ИИ поменять «е» на «ё» и обратно для статистики.

Главное, чтобы такая «организация-киборг» не стала в итоге «киборгом-убийцей».

#tiaconference2025 #justkeepbuilding
Он меня стебёт 😂
😁8
#нейродайджест Аишки за неделю

Самокат тестирует «вау-поиск», подозрительно похожий на LLM

В подмосковном ЖК ИИ читает чаты жителей для выбора цветов инсталляции. В курсе ли жители – вопрос.

Корейский национальный мессенджер KakaoTalk интегрирует ChatGPT, чтобы вернуть аудиторию

Alibaba создает отдел робототехники. У компании 17% корпоративного рынка LLM в Китае

Huawei показала узел на 300 петафлопс из собственных процессоров

Китайские open-source модели впереди американских по внедрениям в России

OpenAI роняет акции публичных компаний постами в блоге

China Mobile превращается в поставщика ИИ-инфраструктуры и удваивает инвестиции

Фотонный чип и стократное снижение энергопотребления ИИ

Список текстов с конференции Tech in Asia 2025 смотрите здесь.
Алису подключили к генерации описаний для отелей и апартаментов

Нейросеть учитывает технические характеристики из карточки объекта, анализирует отзывы постояльцев и добавляет информацию о достопримечательностях поблизости. Владельцу нужно только заполнить данные в Яндекс Бизнесе или Экстранете, дальше система работает сама и на выходе получается готовый текст. После обновления параметров описание генерируется заново автоматически. Функция заработала для всех российских объектов на Яндекс Путешествиях.

В этой новости смущает только один момент – малая степень контроля над итоговым результатом. Чтобы скорректировать сгенерированное ИИ описание, нужно обращаться в поддержку. Также такие описания могут стать потенциальной целью атаки через prompt injection. При этом собственникам не нужно тратить время на прописывание подробного описания, а пользователи получают сделанные по единому паттерну тексты об объектах.
3
Кибербез Андрея Дугина
большинство LLM-моделей противоестественного интеллекта - как пьяный батя, который может ответить на любой вопрос, но есть риск, что пацаны во дворе потом будут ржать от этой информации, причем над тобой.
Кстати, давно не слышали восхищений профессией «промпт-инженера». Хотя раньше было мнение, что теперь достаточно писать промпты, а ИИ дальше всё сделает сам. Неожиданно оказалось, что «пацаны во дворе» засмеяли?
😁7
HeyGen решил, что моушен-дизайнеры больше не нужны

Компания HeyGen, известная своими ИИ-аватарами для видео, выкатила новую фичу под названием Motion Designer. Заявляется, что это генератор анимированной графики по текстовому промпту. Сервис вроде как умеет автоматически применять брендбук (шрифты, цвета, логотип), пресеты стилей и интегрируется с аватарами внутри платформы. Идея в том, чтобы за пару кликов делать карточки, анимированные чарты и надписи.

Правда, HeyGen (вероятно, для привлечения внимания) путает моушен-дизайн с анимированными слайдами из PowerPoint. Сейчас, если опираться на предоставленные компанией примеры, результат скорее похож на пресеты с анимированными титрами и lower third для Премьера, чем на полноценный сервис по созданию вариативного и настраиваемого моушен-дизайна. Мы уже видели подобные шаблоны на других платформах, просто сейчас добавился новый слой кастомизации. Для перебивок между говорящими головами в корпоративных роликах сойдет, но надеяться избавиться от профессиональных аниматоров пока самонадеянно.

Мы пытались протестировать сервис сами, но, к сожалению, потерпели неудачу – из 6 генераций одна прервалась, а остальные пропали из интерфейса и просто исчезли где-то в глубинах сервиса. Ни одного видео получить не удалось.
1👍32
Яндекс (возможно, в преддверии завтрашней презентации) обновил браузер.

• Теперь история чатов с Алисой доступна прямо на новой вкладке. Правда, это не полноценная интеграция, а просто ссылки на веб-сайт Алисы, так что после клика открывается и какое-то время грузится новая страница. Пока это работает чуть менее нативно, чем у Atlas или Comet.

• Чат с Алисой доступен прямо из поисковой строки.

• В инкогнито чат с Алисой не работает, хотя логично было бы сделать что-то вроде «временного» чата у ChatGPT и аналогичных продуктов.

Не совсем понятно, по какой логике активируется триггер и появляется возможность спросить Алису через строку поиска (она присутствует не всегда). Сам ответ по форматированию и встраиванию ссылок отличается от того ИИ-ответа, что доступен в привычном поиске Яндекса.
1👍4🔥21🎉1
2025/10/28 02:49:11
Back to Top
HTML Embed Code: