Начали презентацию Sora 2 с трейлера с эффектом зловещей долины, где Альтман и другие ребята из OpenAI, сгенерированные ИИ, анонсировали новую модель.
Говорят, сделали самый лучший видеогенератор. Видео всё-таки со звуком (что было предсказуемо). Обещают, что можно добавлять диалоги, поддерживаются несколько людей в кадре одновременно и общение на разных языках.
Показали давно запланированную «соцсеть» на базе Sora со сгенерированными роликами. Чем она отличается от текущего сайта? Появилась функция «камео», которая позволяет загрузить свой образ (лицо и голос) и генерировать на его основе видео. Причём друзья или посторонние люди также смогут использовать его, если человек разрешит. На основе чужих роликов можно делать ремиксы, как и сейчас.
Получается, OpenAI сделали соцсеть для дипфейков. Упор сделали в основном на них. Как понимаем, предыдущие функции и интерфейс сайта Sora для создателей рекламы или VFX останутся.
Доступ к модели будут раскатывать постепенно, через ограниченные инвайты. Запретили загружать фотореалистичные изображения людей.
Говорят, сделали самый лучший видеогенератор. Видео всё-таки со звуком (что было предсказуемо). Обещают, что можно добавлять диалоги, поддерживаются несколько людей в кадре одновременно и общение на разных языках.
Показали давно запланированную «соцсеть» на базе Sora со сгенерированными роликами. Чем она отличается от текущего сайта? Появилась функция «камео», которая позволяет загрузить свой образ (лицо и голос) и генерировать на его основе видео. Причём друзья или посторонние люди также смогут использовать его, если человек разрешит. На основе чужих роликов можно делать ремиксы, как и сейчас.
Получается, OpenAI сделали соцсеть для дипфейков. Упор сделали в основном на них. Как понимаем, предыдущие функции и интерфейс сайта Sora для создателей рекламы или VFX останутся.
Доступ к модели будут раскатывать постепенно, через ограниченные инвайты. Запретили загружать фотореалистичные изображения людей.
👍3
Forwarded from TechnoME: Multimediamind
This media is not supported in your browser
VIEW IN TELEGRAM
Это сэкономит вам время на изучение обновлений Sora. Всё, что вы здесь видите — сгенерировано
❤6
Сегодня это удивительно, но в более чем 4-часовом разговоре Лекса Фридмана и Павла Дурова почти не вспоминали про искусственный интеллект. Хотя несколько раз упомянули, конечно, куда без этого.
✦ Дуров раскритиковал ИИ-ленты рекомендаций. По его словам, пассивное потребление одинакового контента формирует «эхо-камеры» и мешает развитию людей. Единственной защитой становится ручная фильтрация источников (плавная подводка к тому, как хорош Телеграм).
✦ Телеграм активно использует машинное обучение для борьбы с запрещённым контентом. Дуров сыронизировал, что объяснить французским следователям принцип работы ML было непросто, а технологическая грамотность властей отстаёт от скорости развития технологий.
✦ Павел также поделился мыслью своего отца, которому недавно исполнилось восемьдесят лет, об ИИ: машина может быть креативной и даже обрести сознание, но у неё не будет совести. В данном случае совесть – это способность отличать добро от зла, а у ИИ не может быть морали и глубоких принципов. Интересное отличие от слов того же Альтмана, который признал, что он и есть моральный камертон ИИ.
✦ Подняли тему решения всех экономических проблем с помощью искусственного интеллекта. Фридман вспомнил эксперимент «Вселенная-25», где мыши, которые ни в чём не нуждались, деградировали и вымерли. По аналогии, ИИ может устранить дефицит ресурсов и лишить людей необходимости работать и развиваться, что идёт вразрез с человеческой природой и может привести к похожим, как у мышей, последствиям.
В целом получилась очень философская и человекоцентричная беседа. Мы видим это и по пути развития Телеграма, который не меняет стратегию и не пытается переобуться на волне хайпа ИИ-технологий. Если честно, иногда даже хочется – вспоминаем, как радовались новостям об интеграции Grok на уровне приложения.
✦ Дуров раскритиковал ИИ-ленты рекомендаций. По его словам, пассивное потребление одинакового контента формирует «эхо-камеры» и мешает развитию людей. Единственной защитой становится ручная фильтрация источников (плавная подводка к тому, как хорош Телеграм).
✦ Телеграм активно использует машинное обучение для борьбы с запрещённым контентом. Дуров сыронизировал, что объяснить французским следователям принцип работы ML было непросто, а технологическая грамотность властей отстаёт от скорости развития технологий.
✦ Павел также поделился мыслью своего отца, которому недавно исполнилось восемьдесят лет, об ИИ: машина может быть креативной и даже обрести сознание, но у неё не будет совести. В данном случае совесть – это способность отличать добро от зла, а у ИИ не может быть морали и глубоких принципов. Интересное отличие от слов того же Альтмана, который признал, что он и есть моральный камертон ИИ.
✦ Подняли тему решения всех экономических проблем с помощью искусственного интеллекта. Фридман вспомнил эксперимент «Вселенная-25», где мыши, которые ни в чём не нуждались, деградировали и вымерли. По аналогии, ИИ может устранить дефицит ресурсов и лишить людей необходимости работать и развиваться, что идёт вразрез с человеческой природой и может привести к похожим, как у мышей, последствиям.
В целом получилась очень философская и человекоцентричная беседа. Мы видим это и по пути развития Телеграма, который не меняет стратегию и не пытается переобуться на волне хайпа ИИ-технологий. Если честно, иногда даже хочется – вспоминаем, как радовались новостям об интеграции Grok на уровне приложения.
YouTube
Pavel Durov: Telegram, Freedom, Censorship, Money, Power & Human Nature | Lex Fridman Podcast #482
Pavel Durov is the founder and CEO of Telegram.
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep482-sb
See below for timestamps, transcript, and to give feedback, submit questions, contact Lex, etc.
*Transcript:*
http…
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep482-sb
See below for timestamps, transcript, and to give feedback, submit questions, contact Lex, etc.
*Transcript:*
http…
👍3❤1
Китай обогнал всех по ИИ-моделям. Но есть нюанс
На конференции WAIC в Шанхае озвучили цифру: 1509 всех моделей искусственного интеллекта разрабатываются в Китае. Это примерно 40% от мировых. Страна построила экосистему из более 5 тысяч ИИ-компаний (15% глобального рынка) и вырастила 71 единорога (26% от общего количества).
Даже если учитывать особенности подсчётов (считали китайцы, включая вариации, версии и производные модели), цифра всё равно впечатляет.
Одновременно на другой конференции, Yunqi 2025, Alibaba выпустили целых 7 новых моделей, многие из которых оказались в позиции лидеров на бенчмарках, и стала одной из немногих в мире компаний с собственным полным ИИ-стеком. То есть Китай умудряется делать сразу и много, и качественно.
Стратегия не новая – «пусть цветут все цветы». Компании делают ставку на эксперименты и агрессивную экспансию за счёт релиза моделей с открытым исходным кодом, которыми без риска и затрат могут пользоваться разработчики и бизнес по всему миру, дообучая и адаптируя под собственные нужды (параллельно начиная от них зависеть).
Такая стратегия даёт свои плоды: на платформе LMArena китайские open-source решения занимают верхние строчки глобальных рейтингов. Более того, крупные компании начинают закрываться – у той же Alibaba среди последней линейки гораздо меньше открытых моделей, чем обычно. Вероятно, в будущем мы увидим ещё большую поляризацию рынка и протекционизм со стороны ведущих разработчиков.
Кажется, всё отлично – но пока у Китая остаются большие проблемы с железом. Глава Suanova (китайской компании-поставщика облачных и ИИ-вычислений) считает, что доля отечественных вычислительных мощностей в Китае ниже 10%. Несмотря на попытки иногда даже принудительного перехода на отечественные чипы, этот процесс идёт не быстро.
На конференции WAIC в Шанхае озвучили цифру: 1509 всех моделей искусственного интеллекта разрабатываются в Китае. Это примерно 40% от мировых. Страна построила экосистему из более 5 тысяч ИИ-компаний (15% глобального рынка) и вырастила 71 единорога (26% от общего количества).
Даже если учитывать особенности подсчётов (считали китайцы, включая вариации, версии и производные модели), цифра всё равно впечатляет.
Одновременно на другой конференции, Yunqi 2025, Alibaba выпустили целых 7 новых моделей, многие из которых оказались в позиции лидеров на бенчмарках, и стала одной из немногих в мире компаний с собственным полным ИИ-стеком. То есть Китай умудряется делать сразу и много, и качественно.
Стратегия не новая – «пусть цветут все цветы». Компании делают ставку на эксперименты и агрессивную экспансию за счёт релиза моделей с открытым исходным кодом, которыми без риска и затрат могут пользоваться разработчики и бизнес по всему миру, дообучая и адаптируя под собственные нужды (параллельно начиная от них зависеть).
Такая стратегия даёт свои плоды: на платформе LMArena китайские open-source решения занимают верхние строчки глобальных рейтингов. Более того, крупные компании начинают закрываться – у той же Alibaba среди последней линейки гораздо меньше открытых моделей, чем обычно. Вероятно, в будущем мы увидим ещё большую поляризацию рынка и протекционизм со стороны ведущих разработчиков.
Кажется, всё отлично – но пока у Китая остаются большие проблемы с железом. Глава Suanova (китайской компании-поставщика облачных и ИИ-вычислений) считает, что доля отечественных вычислительных мощностей в Китае ниже 10%. Несмотря на попытки иногда даже принудительного перехода на отечественные чипы, этот процесс идёт не быстро.
1❤4🤯1
В Китае сделали мозг
Точнее, придумали новую архитектуру, которая очень старается повторить его работу
Китайская академия наук выпустила SpikingBrain 1.0 – языковую модель, которую обучили на местных GPU стартапа MetaX и которая, по заявлениям разработчиков, работает в сто раз быстрее обычных LLM.
Модель назвали «мозгоподобной», потому что архитектура имитирует избирательную активацию нейронов: вместо обработки всего текста сразу система фокусируется на ближайшем контексте, как человеческий мозг в разговоре. Так разработчики пытались сократить количество нужных для работы модели вычислений и увеличить контекст.
Правда, заявленное стократное ускорение относится к очень специфическому сценарию – обработке промптов длиной в миллионы токенов. На обычных задачах выигрыш скромнее и измеряется десятками процентов.
Качество модели оценили по внутренним тестам: версия на 7 миллиардов параметров показала 65,8 балла по MMLU, версия на 76 миллиардов – 73,6. Цифры сопоставимы с открытыми моделями вроде Llama. Семимиллиардная модель выложена открыто.
Исследователи в репозитории признаются, что «мозгоподобность» модели пока условна. Спайковые нейронные сети остаются недостижимой целью, а рабочий продукт – это гибрид линейного внимания, микс экспертов и классических трансформеров. Но даже эмуляция поведения спайковой сети позволила увеличить скорость работы модели и снизить энергопотребление.
Точнее, придумали новую архитектуру, которая очень старается повторить его работу
Китайская академия наук выпустила SpikingBrain 1.0 – языковую модель, которую обучили на местных GPU стартапа MetaX и которая, по заявлениям разработчиков, работает в сто раз быстрее обычных LLM.
Модель назвали «мозгоподобной», потому что архитектура имитирует избирательную активацию нейронов: вместо обработки всего текста сразу система фокусируется на ближайшем контексте, как человеческий мозг в разговоре. Так разработчики пытались сократить количество нужных для работы модели вычислений и увеличить контекст.
Правда, заявленное стократное ускорение относится к очень специфическому сценарию – обработке промптов длиной в миллионы токенов. На обычных задачах выигрыш скромнее и измеряется десятками процентов.
Качество модели оценили по внутренним тестам: версия на 7 миллиардов параметров показала 65,8 балла по MMLU, версия на 76 миллиардов – 73,6. Цифры сопоставимы с открытыми моделями вроде Llama. Семимиллиардная модель выложена открыто.
Исследователи в репозитории признаются, что «мозгоподобность» модели пока условна. Спайковые нейронные сети остаются недостижимой целью, а рабочий продукт – это гибрид линейного внимания, микс экспертов и классических трансформеров. Но даже эмуляция поведения спайковой сети позволила увеличить скорость работы модели и снизить энергопотребление.
1🔥4❤3👍1
Как продать ручку
Мы писали про обновление веб-поиска в ChatGPT, который научился отделять коммерческие запросы от информационных. Теперь сделан следующий шаг: ChatGPT запускает Instant Checkout, покупки прямо в чате без перехода на сайт. Бот находит товары, ранжирует по цене и наличию и предлагает оплату в один тап. Из партнёров сейчас только Etsy, в планах Shopify.
Прорывом это назвать сложно, похожие протоколы есть у Visa и Google, а у Shopify есть сделка с Perplexity. Дело в масштабе: у ChatGPT около 700 млн недельных пользователей, и конверсия хотя бы 1% в покупки даст трафик уровня крупных маркетплейсов. OpenAI при этом не только заменяет поиск, но и берёт комиссию с мерчанта.
Преимущество ИИ-сервисов в том, что бот знает, какие вопросы пользователь задавал и проблемы пытался решить. Рекомендации здесь диалоговые, а коммуникация почти доверительная. OpenAI подчёркивают, что результаты поиска органические. Но, кажется, это вопрос времени, когда начнут продавать рекламу внутри чат-бота и брать деньги за продвижение товаров, брендов или нарративов.
При всём удобстве общения через интерфейс, он остаётся ограниченным: нельзя показать полную карточку товара, похожие позиции, отзывы, добавить в избранное или совершить другие привычные для маркетплейсов действия. Да и доверять покупку нейросети, которая может добавить к сумме лишний ноль или придумать адрес, решатся не все. Поэтому ChatGPT рискует оставаться лишь витриной, с которой пользователи всё равно переходят на сайты магазинов – а это он умел и раньше.
Мы писали про обновление веб-поиска в ChatGPT, который научился отделять коммерческие запросы от информационных. Теперь сделан следующий шаг: ChatGPT запускает Instant Checkout, покупки прямо в чате без перехода на сайт. Бот находит товары, ранжирует по цене и наличию и предлагает оплату в один тап. Из партнёров сейчас только Etsy, в планах Shopify.
Прорывом это назвать сложно, похожие протоколы есть у Visa и Google, а у Shopify есть сделка с Perplexity. Дело в масштабе: у ChatGPT около 700 млн недельных пользователей, и конверсия хотя бы 1% в покупки даст трафик уровня крупных маркетплейсов. OpenAI при этом не только заменяет поиск, но и берёт комиссию с мерчанта.
Преимущество ИИ-сервисов в том, что бот знает, какие вопросы пользователь задавал и проблемы пытался решить. Рекомендации здесь диалоговые, а коммуникация почти доверительная. OpenAI подчёркивают, что результаты поиска органические. Но, кажется, это вопрос времени, когда начнут продавать рекламу внутри чат-бота и брать деньги за продвижение товаров, брендов или нарративов.
При всём удобстве общения через интерфейс, он остаётся ограниченным: нельзя показать полную карточку товара, похожие позиции, отзывы, добавить в избранное или совершить другие привычные для маркетплейсов действия. Да и доверять покупку нейросети, которая может добавить к сумме лишний ноль или придумать адрес, решатся не все. Поэтому ChatGPT рискует оставаться лишь витриной, с которой пользователи всё равно переходят на сайты магазинов – а это он умел и раньше.
🔥2
Абу-Даби хочет себе первое в мире ИИ-правительство
Это не то, что вы могли подумать
Наследный принц Халед бин Мохамед и его дядя провели заседание Совета по ИИ, где утвердили цифровую стратегию. Эмират намерен превратить госаппарат в первую в мире ИИ-управляемую структуру за два года, развернув более 200 систем искусственного интеллекта в государственных службах.
Правда, в отличие от громких заявлений из Албании и Японии, речь не о чат-боте на сайте правительства. Страна планирует комплексную стратегию, которая охватывает обучение всех госслужащих работе с ИИ-инструментами, интеграцию алгоритмов в принятие решений и создание инфраструктуры для привлечения бигтеха. Параллельно эмират запускает программы повышения цифровой грамотности населения. Технологический фундамент строится на суверенной облачной инфраструктуре
Совет – это оперативный штаб с прямым доступом к бюджетам и международным партнёрствам. Эмират покупает экспертизу, лицензии и стартапы, чтобы обогнать Сингапур и Дубай в гонке за статус ИИ-хаба. В программу вложат 3,5 миллиарда долларов – деньги пойдут на разработку больших языковых моделей.
Это не то, что вы могли подумать
Наследный принц Халед бин Мохамед и его дядя провели заседание Совета по ИИ, где утвердили цифровую стратегию. Эмират намерен превратить госаппарат в первую в мире ИИ-управляемую структуру за два года, развернув более 200 систем искусственного интеллекта в государственных службах.
Правда, в отличие от громких заявлений из Албании и Японии, речь не о чат-боте на сайте правительства. Страна планирует комплексную стратегию, которая охватывает обучение всех госслужащих работе с ИИ-инструментами, интеграцию алгоритмов в принятие решений и создание инфраструктуры для привлечения бигтеха. Параллельно эмират запускает программы повышения цифровой грамотности населения. Технологический фундамент строится на суверенной облачной инфраструктуре
Совет – это оперативный штаб с прямым доступом к бюджетам и международным партнёрствам. Эмират покупает экспертизу, лицензии и стартапы, чтобы обогнать Сингапур и Дубай в гонке за статус ИИ-хаба. В программу вложат 3,5 миллиарда долларов – деньги пойдут на разработку больших языковых моделей.
This media is not supported in your browser
VIEW IN TELEGRAM
Индусы познали ИИ
Перевели вам небольшой «туториал» по промпт-инжинирингу для ChatGPT. Изучайте и экспериментируйте на выходных
Перевели вам небольшой «туториал» по промпт-инжинирингу для ChatGPT. Изучайте и экспериментируйте на выходных
1😁5
#нейродайджест Аишки за неделю
• OpenAI превратили Sora 2 в соцсеть для дипфейков
• Что Дуров и Фридман сказали про ИИ? При чём здесь «эхо-камеры» и эксперимент «Вселенная-25»?
• Китайская академия создала «мозгоподобную» модель, которая в 100 раз быстрее обычных LLM
• Вьетнам вводит уроки о важном – ученики будут изучать ИИ с первого класса
• Ютубер построил GPT внутри Minecraft без модов и скриптов
• Apple обвиняют в пиратстве датасета Books3
• Китай делает 40% всех языковых ИИ-моделей мира, но не успевает развивать железо
• ChatGPT запускает покупки внутри чата без перехода на сайты
• Anthropic утраивает международный штат в попытке угнаться за конкурентами
• Apple тестирует новую Siri в закрытой песочнице, потому что боятся скандалов и утечек
• Абу-Даби вкладывает 3,5 миллиарда долларов в ИИ-правительство. Это не то же, что в Албании
• OpenAI превратили Sora 2 в соцсеть для дипфейков
• Что Дуров и Фридман сказали про ИИ? При чём здесь «эхо-камеры» и эксперимент «Вселенная-25»?
• Китайская академия создала «мозгоподобную» модель, которая в 100 раз быстрее обычных LLM
• Вьетнам вводит уроки о важном – ученики будут изучать ИИ с первого класса
• Ютубер построил GPT внутри Minecraft без модов и скриптов
• Apple обвиняют в пиратстве датасета Books3
• Китай делает 40% всех языковых ИИ-моделей мира, но не успевает развивать железо
• ChatGPT запускает покупки внутри чата без перехода на сайты
• Anthropic утраивает международный штат в попытке угнаться за конкурентами
• Apple тестирует новую Siri в закрытой песочнице, потому что боятся скандалов и утечек
• Абу-Даби вкладывает 3,5 миллиарда долларов в ИИ-правительство. Это не то же, что в Албании
Каждой ноте по чеку
Музыкальные лейблы хотят монетизировать ИИ по модели стриминга
Universal Music и Warner Music находятся в финальной стадии переговоров с ИИ-компаниями о лицензировании музыкальных каталогов. Они хотят установить единый стандарт оплаты для всей индустрии, пока ИИ не разрушил их текущую бизнес-модель.
Переговоры ведутся со стартапами ElevenLabs, Stability AI, Suno, Udio и Klay Vision, а также с гигантами вроде Google и Spotify. Лейблы предлагают схему, аналогичную стримингу: каждое использование композиции в ИИ-треке будет запускать микроплатёж. Технология атрибуции, как Content ID от YouTube, должна отслеживать, когда и как используется музыка.
В 2024 году те же лейблы подали в суд на Suno и Udio за нарушение авторских прав, а теперь пытаются договориться и урегулировать прошлые нарушения. FT пишут, что лейблы боятся повторения начала 2000-х, когда Napster и LimeWire обрушили индустрию.
А это вполне может произойти: сервис Deezer заявил в сентябре, что почти треть загружаемых треков сгенерированы ИИ. Spotify удалил 75 миллионов таких композиций за год. Поток постоянно растёт, а монетизировать его сейчас для студий почти невозможно. Выигрывают отдельные авторы, которые зарабатывают на ИИ, но в будущем количество сгенерированных однотипных треков может убить площадки.
Правда, остаётся вопрос, согласятся ли стартапы в реальном времени делиться данными и выручкой. Но как мы увидели на примере Anthropiс – вопрос с авторскими правами постепенно начинают урегулировать.
Музыкальные лейблы хотят монетизировать ИИ по модели стриминга
Universal Music и Warner Music находятся в финальной стадии переговоров с ИИ-компаниями о лицензировании музыкальных каталогов. Они хотят установить единый стандарт оплаты для всей индустрии, пока ИИ не разрушил их текущую бизнес-модель.
Переговоры ведутся со стартапами ElevenLabs, Stability AI, Suno, Udio и Klay Vision, а также с гигантами вроде Google и Spotify. Лейблы предлагают схему, аналогичную стримингу: каждое использование композиции в ИИ-треке будет запускать микроплатёж. Технология атрибуции, как Content ID от YouTube, должна отслеживать, когда и как используется музыка.
В 2024 году те же лейблы подали в суд на Suno и Udio за нарушение авторских прав, а теперь пытаются договориться и урегулировать прошлые нарушения. FT пишут, что лейблы боятся повторения начала 2000-х, когда Napster и LimeWire обрушили индустрию.
А это вполне может произойти: сервис Deezer заявил в сентябре, что почти треть загружаемых треков сгенерированы ИИ. Spotify удалил 75 миллионов таких композиций за год. Поток постоянно растёт, а монетизировать его сейчас для студий почти невозможно. Выигрывают отдельные авторы, которые зарабатывают на ИИ, но в будущем количество сгенерированных однотипных треков может убить площадки.
Правда, остаётся вопрос, согласятся ли стартапы в реальном времени делиться данными и выручкой. Но как мы увидели на примере Anthropiс – вопрос с авторскими правами постепенно начинают урегулировать.
👍4❤1
ChatGPT превращается в экосистему
Всё важное, что показали на конференции для разработчиков OpenAI
На DevDay 2025 было много интересных релизов. OpenAI создаёт экосистему, как это водится, замкнутую на собственных сервисах, и очень хочет превратиться в платформу для бизнеса и мини-приложений на базе ИИ. Такое мы уже видели на примере Claude, но в меньшем масштабе.
✦ Приложения в чате. С Apps SDK разработчики смогут встраивать приложения прямо в чат. Например, можно попросить Canva нарисовать презентацию с заданными параметрами и получить готовый проект. ChatGPT имеет доступ к информации из приложения, понимает, что пользователь делает в данный момент. Обещана монетизация через новый Agentic Commerce Protocol, что превращает ChatGPT в торговую площадку.
Пока не понятно, насколько актуально будет для России, но уже заявленные интеграции с Figma и Canva выглядят интересно.
✦ AgentKit – конвейер для ИИ-агентов. Сделали систему для создания агентов: визуальный конструктор, готовые компоненты интерфейса, коннекторы к данным, встроенные инструменты безопасности. То есть предлагают бизнесу и небольшим разработчикам разворачивать приложения прямо на их инфраструктуре, выигрывая в скорости (и проигрывая в контроле и безопасности).
Для полноценного продукта это подойдёт вряд ли, но протестировать гипотезы и получить готовый код со сложной логикой взаимодействия разных агентов можно. Ниша не пустая, и прорывом это назвать сложно – давно были конкуренты вроде Vertex AI Agent Builder от Гугла. Но демократизация работы с агентным пайплайном случилась.
✦ Codex выходит из preview. Ассистент для программистов обновился, появилась интеграция со Slack. Говорят, что инженеры OpenAI, использующие Codex, делают на 70% больше pull-request'ов в неделю. Вопрос «а важнее количество или качество?» остаётся.
✦ В API обновление: появились Sora 2 и GPT-5 Pro для сложных и дорогих задач, а также gpt-realtime-mini (голос на 70% дешевле) и gpt-image-1-mini (изображения на 80% дешевле) для менее требовательных. Так что ждём ещё больше ИИ-приложений для генерации видео и работы с голосовым вводом.
OpenAI строит вертикально интегрированную платформу: модели, инструменты разработки, дистрибуция через ChatGPT, инфраструктура на собственных мощностях. Кажется, они хотят стать для ИИ тем, чем Apple стала для мобильных устройств.
Всё важное, что показали на конференции для разработчиков OpenAI
На DevDay 2025 было много интересных релизов. OpenAI создаёт экосистему, как это водится, замкнутую на собственных сервисах, и очень хочет превратиться в платформу для бизнеса и мини-приложений на базе ИИ. Такое мы уже видели на примере Claude, но в меньшем масштабе.
✦ Приложения в чате. С Apps SDK разработчики смогут встраивать приложения прямо в чат. Например, можно попросить Canva нарисовать презентацию с заданными параметрами и получить готовый проект. ChatGPT имеет доступ к информации из приложения, понимает, что пользователь делает в данный момент. Обещана монетизация через новый Agentic Commerce Protocol, что превращает ChatGPT в торговую площадку.
Пока не понятно, насколько актуально будет для России, но уже заявленные интеграции с Figma и Canva выглядят интересно.
✦ AgentKit – конвейер для ИИ-агентов. Сделали систему для создания агентов: визуальный конструктор, готовые компоненты интерфейса, коннекторы к данным, встроенные инструменты безопасности. То есть предлагают бизнесу и небольшим разработчикам разворачивать приложения прямо на их инфраструктуре, выигрывая в скорости (и проигрывая в контроле и безопасности).
Для полноценного продукта это подойдёт вряд ли, но протестировать гипотезы и получить готовый код со сложной логикой взаимодействия разных агентов можно. Ниша не пустая, и прорывом это назвать сложно – давно были конкуренты вроде Vertex AI Agent Builder от Гугла. Но демократизация работы с агентным пайплайном случилась.
✦ Codex выходит из preview. Ассистент для программистов обновился, появилась интеграция со Slack. Говорят, что инженеры OpenAI, использующие Codex, делают на 70% больше pull-request'ов в неделю. Вопрос «а важнее количество или качество?» остаётся.
✦ В API обновление: появились Sora 2 и GPT-5 Pro для сложных и дорогих задач, а также gpt-realtime-mini (голос на 70% дешевле) и gpt-image-1-mini (изображения на 80% дешевле) для менее требовательных. Так что ждём ещё больше ИИ-приложений для генерации видео и работы с голосовым вводом.
OpenAI строит вертикально интегрированную платформу: модели, инструменты разработки, дистрибуция через ChatGPT, инфраструктура на собственных мощностях. Кажется, они хотят стать для ИИ тем, чем Apple стала для мобильных устройств.
❤5👍1
Хорошо эти 2 новости смотрятся рядом:
✦ Deloitte и Университет науки и технологий имени короля Абдаллы (KAUST) в Саудовской Аравии подписали соглашение о партнёрстве для развития искусственного интеллекта. Компания обещает объединить глобальную экспертизу с локальными знаниями для создания инновационных ИИ-решений
✦ Deloitte возмещает ущерб правительству Австралии за отчёт, подготовленный с помощью ИИ. В нём обнаружили ссылки на несуществующих людей, выдуманные цитаты и множество других ошибок. В итоге пришлось переписать документ и вернуть финальный платёж по контракту в 290 тысяч долларов.
✦ Deloitte и Университет науки и технологий имени короля Абдаллы (KAUST) в Саудовской Аравии подписали соглашение о партнёрстве для развития искусственного интеллекта. Компания обещает объединить глобальную экспертизу с локальными знаниями для создания инновационных ИИ-решений
✦ Deloitte возмещает ущерб правительству Австралии за отчёт, подготовленный с помощью ИИ. В нём обнаружили ссылки на несуществующих людей, выдуманные цитаты и множество других ошибок. В итоге пришлось переписать документ и вернуть финальный платёж по контракту в 290 тысяч долларов.
😁4
OpenAI торгует будущим
Nvidia платит деньгами, AMD – акциями.
За десятилетие капитализация AMD выросла с нескольких миллиардов долларов до более 330 миллиардов, а сама компания сместила фокус в сторону дата-центров: во втором квартале 2025 клиенты и гейминг принесли AMD 3,6 миллиарда, а дата-центры 3,2. Теперь AMD заключила контракт с OpenAI на поставку процессоров мощностью 6 гигаватт. Первые чипы MI450 должны поступить во второй половине 2026 года.
Сумма сделки не разглашается, но в компании говорят про «десятки миллиардов» долларов. Взамен OpenAI получает опционы на 160 млн акций AMD по цене 1 цент за штуку. Потенциально это 10% компании. Последний транш активируется, только если акции достигнут 600 долларов (сейчас 204), что даст AMD триллионную оценку.
История отсылает к сентябрьской сделке OpenAI с Nvidia, только наоборот. Если Nvidia возвращает себе свои же деньги покупкой чипов, то AMD отдаёт акции бесплатно и делится долей в своём росте, получая выручку от продаж и обеспечивая рынок сбыта. Разница в подходе объясняется позициями: Nvidia контролирует 80% рынка ИИ-чипов, а AMD только борется за долю и готова платить опционами.
Кое-что общее у схем есть: они обе работают, пока OpenAI растёт экспоненциально. Обе превращают поставщиков в заложников клиента: если стартап споткнётся, они окажутся одновременно инвесторами, поставщиками и совладельцами проблемного актива.
OpenAI уже подписали контрактов на 1 триллион долларов – при годовой выручке, по утечкам, примерно в 13 млрд и убытках не меньше 10. Сэм Альтман говорит, что прибыльность «не в топ-10 его забот», что может звучать нормально для владельца маленького стартапа на посевной стадии, но не для крупнейшей компании в индустрии.
Везде прослеживается один и тот же паттерн – производители чипов получают особые условиях, обеспечивает себе искусственно спрос, который обеспечивает рост – фактически субсидируя продажи. Акции Nvidia, AMD или Oracle после этого, по понятным причинам, взлетают. Рынок снова с готовностью покупает обещания и надежду, что спрос будет расти быстрее предложения. Вот только вопрос – насколько это всё-таки рыночная, а не искусственно спроектированная история?
Nvidia платит деньгами, AMD – акциями.
За десятилетие капитализация AMD выросла с нескольких миллиардов долларов до более 330 миллиардов, а сама компания сместила фокус в сторону дата-центров: во втором квартале 2025 клиенты и гейминг принесли AMD 3,6 миллиарда, а дата-центры 3,2. Теперь AMD заключила контракт с OpenAI на поставку процессоров мощностью 6 гигаватт. Первые чипы MI450 должны поступить во второй половине 2026 года.
Сумма сделки не разглашается, но в компании говорят про «десятки миллиардов» долларов. Взамен OpenAI получает опционы на 160 млн акций AMD по цене 1 цент за штуку. Потенциально это 10% компании. Последний транш активируется, только если акции достигнут 600 долларов (сейчас 204), что даст AMD триллионную оценку.
История отсылает к сентябрьской сделке OpenAI с Nvidia, только наоборот. Если Nvidia возвращает себе свои же деньги покупкой чипов, то AMD отдаёт акции бесплатно и делится долей в своём росте, получая выручку от продаж и обеспечивая рынок сбыта. Разница в подходе объясняется позициями: Nvidia контролирует 80% рынка ИИ-чипов, а AMD только борется за долю и готова платить опционами.
Кое-что общее у схем есть: они обе работают, пока OpenAI растёт экспоненциально. Обе превращают поставщиков в заложников клиента: если стартап споткнётся, они окажутся одновременно инвесторами, поставщиками и совладельцами проблемного актива.
OpenAI уже подписали контрактов на 1 триллион долларов – при годовой выручке, по утечкам, примерно в 13 млрд и убытках не меньше 10. Сэм Альтман говорит, что прибыльность «не в топ-10 его забот», что может звучать нормально для владельца маленького стартапа на посевной стадии, но не для крупнейшей компании в индустрии.
Везде прослеживается один и тот же паттерн – производители чипов получают особые условиях, обеспечивает себе искусственно спрос, который обеспечивает рост – фактически субсидируя продажи. Акции Nvidia, AMD или Oracle после этого, по понятным причинам, взлетают. Рынок снова с готовностью покупает обещания и надежду, что спрос будет расти быстрее предложения. Вот только вопрос – насколько это всё-таки рыночная, а не искусственно спроектированная история?
❤2
Почему ИИ не может написать длинный текст
На днях получили от подписчика закономерный вопрос – если компании заявляют, что их языковая модель может удерживать в памяти сразу всю „Войну и мир“, то почему ChatGPT не может написать не то что роман Толстого, но хотя бы текст на двадцать тысяч знаков?
Потому что, как вы могли догадаться, подобные заявления не более чем маркетинг. Они отсылают нас к тому самому волшебному «до» в объявлении «скидки до 250%». Реальность же куда прозаичнее.
Технически модели действительно могут держать в памяти «Войну и мир», контекстное окно в миллион-два токенов позволяет. Но есть нюанс: это общее количество на вход и выход. Окно быстро забивается историей чата, системными инструкциями, цепочкой рассуждений, вызовами инструментов/коннекторов, файлами и т. д.
Поэтому если скопировать текст «Войны и мир» в чат и попросить переписать на языке зумеров, то на ответ уже ресурсов не останется. Именно поэтому важно каждый раз начинать новый чат. Но это в теории – на практике даже вставить текст романа в чат не получится из-за технических ограничений.
Интерфейсы специально ограничивают длину контекстного окна. Она разная у разных сервисов. Если на вход дают более щедрые лимиты, то на длину ответа ИИ обычно ограничения от 8 до 64 тысяч токенов. Причина простая: вычисления растут нелинейно, и каждая следующая тысяча слов стоит заметно дороже предыдущей. Компания без жёстких лимитов сжигала бы деньги быстрее, чем страны успевают их печатать. И даже если дать печатный станок Альтману, ситуация вряд ли изменится.
Тут можно сказать: «Как же так? Можно без проблем загрузить pdf с длинным романом и попросить ChatGPT пересказать». Всё правильно – компании научились работать с большими файлами через RAG. Они делают эмбеддинги загруженных пользователем файлов, преобразуют в векторные базы данных и подгружают нужный фрагмент, исходя из контекста запроса пользователя. Для повторных и похожих запросов используется кэширование. Но это не более чем костыли и надстройки, хотя и очень удобные – реально LLM массовой аудитории пока контекст в 2 миллиона токенов не предоставляют.
«LLM с контекстом в триллион токенов, которая помнит всю вашу жизнь» уже занимает умы CEO ИИ-компаний, но пока остаётся несбыточной мечтой. И одним из основных бутылочных горлышек на пути развития ИИ.
На днях получили от подписчика закономерный вопрос – если компании заявляют, что их языковая модель может удерживать в памяти сразу всю „Войну и мир“, то почему ChatGPT не может написать не то что роман Толстого, но хотя бы текст на двадцать тысяч знаков?
Потому что, как вы могли догадаться, подобные заявления не более чем маркетинг. Они отсылают нас к тому самому волшебному «до» в объявлении «скидки до 250%». Реальность же куда прозаичнее.
Технически модели действительно могут держать в памяти «Войну и мир», контекстное окно в миллион-два токенов позволяет. Но есть нюанс: это общее количество на вход и выход. Окно быстро забивается историей чата, системными инструкциями, цепочкой рассуждений, вызовами инструментов/коннекторов, файлами и т. д.
Поэтому если скопировать текст «Войны и мир» в чат и попросить переписать на языке зумеров, то на ответ уже ресурсов не останется. Именно поэтому важно каждый раз начинать новый чат. Но это в теории – на практике даже вставить текст романа в чат не получится из-за технических ограничений.
Интерфейсы специально ограничивают длину контекстного окна. Она разная у разных сервисов. Если на вход дают более щедрые лимиты, то на длину ответа ИИ обычно ограничения от 8 до 64 тысяч токенов. Причина простая: вычисления растут нелинейно, и каждая следующая тысяча слов стоит заметно дороже предыдущей. Компания без жёстких лимитов сжигала бы деньги быстрее, чем страны успевают их печатать. И даже если дать печатный станок Альтману, ситуация вряд ли изменится.
Тут можно сказать: «Как же так? Можно без проблем загрузить pdf с длинным романом и попросить ChatGPT пересказать». Всё правильно – компании научились работать с большими файлами через RAG. Они делают эмбеддинги загруженных пользователем файлов, преобразуют в векторные базы данных и подгружают нужный фрагмент, исходя из контекста запроса пользователя. Для повторных и похожих запросов используется кэширование. Но это не более чем костыли и надстройки, хотя и очень удобные – реально LLM массовой аудитории пока контекст в 2 миллиона токенов не предоставляют.
«LLM с контекстом в триллион токенов, которая помнит всю вашу жизнь» уже занимает умы CEO ИИ-компаний, но пока остаётся несбыточной мечтой. И одним из основных бутылочных горлышек на пути развития ИИ.
👍6😁3
В дополнение к посту про цифровое детство и 2 мира поколения Альфа хочется подробнее написать про ИИ и ассистентов.
Например, возьмём поколение Альфа – они научились разговаривать с устройствами раньше, чем взрослые осознали, что это вообще нормально. К концу 2024 года почти три четверти российских подростков уже пользовались нейросетями через чат-ботов. Для них голос и диалог с ИИ так же естественны, как для их родителей звонок по телефону.
В семьях с умными колонками дети болтают с ними минимум раз в неделю или чаще. Причём чем младше ребёнок, тем больше он говорит с колонкой, ведь родился в эпоху, когда колонка уже стояла на полке, и воспринимает голосовое общение как базовый способ взаимодействия с ней. Общаться с голосовыми ассистентами дети начинают быстрее, чем учатся писать.
Точкой входа в нейросети для них становятся не сайты, а боты в Telegram – по крайней мере, такие данные приводит Ростелеком в исследовании «Виртуальный мир глазами детей». Это удобно, потому что боты работают в России, интерфейс знакомый и ответ приходит мгновенно.
Хотя хорошего в этом мало, ведь подобные боты не прозрачны: не понятно, какая модель используется, какие у неё инструкции, как хранятся и монетизируются данные, кто стоит за ботом и есть ли детский режим. А на практике именно подобный «чёрный ящик» становится точкой входа в ИИ для миллионов детей.
Отсюда рождаются тренды, которые активно поддерживаются крупными компаниями: детские профили, голос как важный или основной интерфейс управления, понятная индикация ИИ-контента и наличие фидбека для родителей.
А кто-то до сих пор надеется, что ИИ – это временное явление. Интересно, что на этот счёт думают дети?
Например, возьмём поколение Альфа – они научились разговаривать с устройствами раньше, чем взрослые осознали, что это вообще нормально. К концу 2024 года почти три четверти российских подростков уже пользовались нейросетями через чат-ботов. Для них голос и диалог с ИИ так же естественны, как для их родителей звонок по телефону.
В семьях с умными колонками дети болтают с ними минимум раз в неделю или чаще. Причём чем младше ребёнок, тем больше он говорит с колонкой, ведь родился в эпоху, когда колонка уже стояла на полке, и воспринимает голосовое общение как базовый способ взаимодействия с ней. Общаться с голосовыми ассистентами дети начинают быстрее, чем учатся писать.
Точкой входа в нейросети для них становятся не сайты, а боты в Telegram – по крайней мере, такие данные приводит Ростелеком в исследовании «Виртуальный мир глазами детей». Это удобно, потому что боты работают в России, интерфейс знакомый и ответ приходит мгновенно.
Хотя хорошего в этом мало, ведь подобные боты не прозрачны: не понятно, какая модель используется, какие у неё инструкции, как хранятся и монетизируются данные, кто стоит за ботом и есть ли детский режим. А на практике именно подобный «чёрный ящик» становится точкой входа в ИИ для миллионов детей.
Отсюда рождаются тренды, которые активно поддерживаются крупными компаниями: детские профили, голос как важный или основной интерфейс управления, понятная индикация ИИ-контента и наличие фидбека для родителей.
А кто-то до сих пор надеется, что ИИ – это временное явление. Интересно, что на этот счёт думают дети?
Telegram
Content Review
Цифровое детство
Про 2 мира поколения Альфа
Иногда кажется, что дети исчезли из реальности: сидят в интернете, не выходят во двор, не звонят по телефону. А меж тем концепция «двора» поменялась – он стал цифровым. Да и отношение к «реальности», ведь переписка…
Про 2 мира поколения Альфа
Иногда кажется, что дети исчезли из реальности: сидят в интернете, не выходят во двор, не звонят по телефону. А меж тем концепция «двора» поменялась – он стал цифровым. Да и отношение к «реальности», ведь переписка…
👍2
Forwarded from Content Review
Нас надули?
Утренняя реплика Ильи Власова о том, как он перестал бояться и полюбил рынок триллионных инвестиций в убыточные ИИ-компании
Мы всегда настороженно относились к буму рынка ИИ. Сегодня такое отношение стало мейнстримом: сам Альтман признаёт, что инвесторы «перевозбуждены», а медиа дружно печатают тревожные колонки о пузыре. Кажется, нас начинают готовить к неприятным последствиям приятных инвестиций. Но даже если пузырь сдуется, инфраструктура – чипы, дата-центры, энергия – останется и изменит рынок ИТ.
К октябрю 2025 года в ИИ-стартапы вложили 193 миллиарда долларов – впервые более половины венчурных инвестиций ушло в искусственный интеллект. Morgan Stanley прогнозирует почти 3 триллиона долларов расходов на дата-центры к 2028 году, а гиперскейлеры тратят сотни миллиардов на капитальные вложения, хотя недавно такие суммы казались фантастикой.
Деньги распределяются причудливо: Nvidia вкладывается в стартапы, которые арендуют GPU у неё же; OpenAI получает сотни миллиардов долларов от Oracle и SoftBank, чтобы строить инфраструктуру и создавать спрос для тех же поставщиков. Получается самоподдерживающаяся экосистема, где компании инвестируют в рост, который сами создают.
Это закономерное следствие появления ИИ, без которого ВВП США за полгода 2025 вырос бы всего на 0,1%. Уже сейчас он стал спасательным кругом, которого ждала стагнирующая мировая экономика – next big thing и поводом для триллионых инвестиций, буквально спасающих мир от рецессии. Правда, скорее откладывая её и грозя привести нас к кризису в сферах ИТ и электроэнергетики, который перекинется на другие сферы и в итоге рецессию усугубит.
Теперь почти любой крупный капитал в мире – венчурный. Все надеются, что пузырь не лопнет, а медленно сдуется, дав возможность участникам заработать. Государства превратились в венчурных инвесторов, рискуя деньгами налогоплательщиков, чтобы не остаться за пределами «следующей индустриальной революции»: США вливают 52 миллиарда долларов в чипы, ЕС – 43 миллиарда евро, даже Саудовская Аравия с ОАЭ создают ИИ-фонды на десятки миллиардов.
Мы уже видели подобное с доткомами, криптой, метавселенными. Теперь очередь ИИ. Так есть ли смысл бороться с тем, что не можешь победить? Компании действуют интуитивно и руководствуются тремя ориентирами – FOMO, стадным инстинктом и жаждой сиюминутной выгоды. Это не рационально, но естественно. Пузыри вообще одно из самых естественных проявлений рыночной экономики: ускоренная конверсия ожиданий в деньги, а денег в инфраструктуру.
На фоне общей перегретости рынка отдельные события интерпретируют как сигналы кризиса отрасли, вроде «неудачного» релиза GPT-5. Неудачного для кого? Несмотря на критику, аудитория ChatGPT продолжила расти и достигла 800 миллионов пользователей в неделю. Благодаря унификации и упрощению работы GPT-5 OpenAI экономит деньги. При этом рынок ИИ – это не только ChatGPT: он конкурентный, а один спорный релиз не является маркером проблем всей индустрии. Вспоминается сказка про голого короля – только теперь в суперпозиции: все спорят, голый король или нет, но никто не знает, существует ли он вообще.
У пузырей есть заметный плюс: золотой дождь инвестиций рождает инновации. Без дотком-бума не было бы Google. То же самое происходит с ИИ: работа с данными, умный поиск, голосовые ассистенты, генерация текста, картинок и даже видео, невозможные ещё несколько лет назад, останутся и облегчат рабочий и творческий процесс большому количеству людей. Поэтому не стоит хоронить пока что живой и растущий рынок. А ещё лучше разделять рынок, технологии – и громкие заявления Альтмана или Маска.
#утренняяреплика
Утренняя реплика Ильи Власова о том, как он перестал бояться и полюбил рынок триллионных инвестиций в убыточные ИИ-компании
Мы всегда настороженно относились к буму рынка ИИ. Сегодня такое отношение стало мейнстримом: сам Альтман признаёт, что инвесторы «перевозбуждены», а медиа дружно печатают тревожные колонки о пузыре. Кажется, нас начинают готовить к неприятным последствиям приятных инвестиций. Но даже если пузырь сдуется, инфраструктура – чипы, дата-центры, энергия – останется и изменит рынок ИТ.
К октябрю 2025 года в ИИ-стартапы вложили 193 миллиарда долларов – впервые более половины венчурных инвестиций ушло в искусственный интеллект. Morgan Stanley прогнозирует почти 3 триллиона долларов расходов на дата-центры к 2028 году, а гиперскейлеры тратят сотни миллиардов на капитальные вложения, хотя недавно такие суммы казались фантастикой.
Деньги распределяются причудливо: Nvidia вкладывается в стартапы, которые арендуют GPU у неё же; OpenAI получает сотни миллиардов долларов от Oracle и SoftBank, чтобы строить инфраструктуру и создавать спрос для тех же поставщиков. Получается самоподдерживающаяся экосистема, где компании инвестируют в рост, который сами создают.
Это закономерное следствие появления ИИ, без которого ВВП США за полгода 2025 вырос бы всего на 0,1%. Уже сейчас он стал спасательным кругом, которого ждала стагнирующая мировая экономика – next big thing и поводом для триллионых инвестиций, буквально спасающих мир от рецессии. Правда, скорее откладывая её и грозя привести нас к кризису в сферах ИТ и электроэнергетики, который перекинется на другие сферы и в итоге рецессию усугубит.
Теперь почти любой крупный капитал в мире – венчурный. Все надеются, что пузырь не лопнет, а медленно сдуется, дав возможность участникам заработать. Государства превратились в венчурных инвесторов, рискуя деньгами налогоплательщиков, чтобы не остаться за пределами «следующей индустриальной революции»: США вливают 52 миллиарда долларов в чипы, ЕС – 43 миллиарда евро, даже Саудовская Аравия с ОАЭ создают ИИ-фонды на десятки миллиардов.
Мы уже видели подобное с доткомами, криптой, метавселенными. Теперь очередь ИИ. Так есть ли смысл бороться с тем, что не можешь победить? Компании действуют интуитивно и руководствуются тремя ориентирами – FOMO, стадным инстинктом и жаждой сиюминутной выгоды. Это не рационально, но естественно. Пузыри вообще одно из самых естественных проявлений рыночной экономики: ускоренная конверсия ожиданий в деньги, а денег в инфраструктуру.
На фоне общей перегретости рынка отдельные события интерпретируют как сигналы кризиса отрасли, вроде «неудачного» релиза GPT-5. Неудачного для кого? Несмотря на критику, аудитория ChatGPT продолжила расти и достигла 800 миллионов пользователей в неделю. Благодаря унификации и упрощению работы GPT-5 OpenAI экономит деньги. При этом рынок ИИ – это не только ChatGPT: он конкурентный, а один спорный релиз не является маркером проблем всей индустрии. Вспоминается сказка про голого короля – только теперь в суперпозиции: все спорят, голый король или нет, но никто не знает, существует ли он вообще.
У пузырей есть заметный плюс: золотой дождь инвестиций рождает инновации. Без дотком-бума не было бы Google. То же самое происходит с ИИ: работа с данными, умный поиск, голосовые ассистенты, генерация текста, картинок и даже видео, невозможные ещё несколько лет назад, останутся и облегчат рабочий и творческий процесс большому количеству людей. Поэтому не стоит хоронить пока что живой и растущий рынок. А ещё лучше разделять рынок, технологии – и громкие заявления Альтмана или Маска.
#утренняяреплика
👍4