Google расширяет AI Mode в поиске – теперь там появятся глубокие исследования и возможность попросить ИИ позвонить в разные бизнесы, узнать цены и свободные даты
• Платные подписчики на этой неделе получат доступ к последней модели Gemini 2.5 Pro для сложных задач прямо в режиме AI Mode.
• Также станет доступен режим Deep Search – система, которая делает сотни запросов и генерирует подробные отчёты на заданную тему.
• В дополнение к этому, все пользователи в США могут теперь попросить ИИ позвонить в местные бизнесы и узнать цены на услуги – от груминга до ремонта. Записываться так пока нельзя, но возможность, скорее всего, добавят в будущем.
Google продолжают упорно встраивать ИИ прямо в поиск. Почему? Потому что MAU у него сильно выше, чем все показатели сервисов Gemini (по данным на 2015 год 1 миллиард человек, но за 10 лет цифра явно выросла). Компания хочет навязать свой ИИ готовой и лояльной аудитории поиска, постепенно приучая к новым возможностям. При этом видно, что Google делает ставку на точечное применение ИИ: нейропоиск, звонки в салоны, анализ данных, в перспективе бронирование.
• Платные подписчики на этой неделе получат доступ к последней модели Gemini 2.5 Pro для сложных задач прямо в режиме AI Mode.
• Также станет доступен режим Deep Search – система, которая делает сотни запросов и генерирует подробные отчёты на заданную тему.
• В дополнение к этому, все пользователи в США могут теперь попросить ИИ позвонить в местные бизнесы и узнать цены на услуги – от груминга до ремонта. Записываться так пока нельзя, но возможность, скорее всего, добавят в будущем.
Google продолжают упорно встраивать ИИ прямо в поиск. Почему? Потому что MAU у него сильно выше, чем все показатели сервисов Gemini (по данным на 2015 год 1 миллиард человек, но за 10 лет цифра явно выросла). Компания хочет навязать свой ИИ готовой и лояльной аудитории поиска, постепенно приучая к новым возможностям. При этом видно, что Google делает ставку на точечное применение ИИ: нейропоиск, звонки в салоны, анализ данных, в перспективе бронирование.
Все в замешательстве из-за новой ИИ-подружки
Видели Ани, которую добавили на днях в приложение Grok? Она произвела впечатление на очень многих людей – и отдельные из них теперь требуют удалить приложение из AppStore или сделать 18+ (а сейчас оно доступно детям с 12 лет). Почему? Потому что в нём «откровенный контент», так ещё и психику подросткам оно якобы ломает. И всё из-за обычной виртуальной аниме-девушки. Или не обычной?
Если кратко, то компания xAI Илона Маска выпустила обновление для сервиса Grok, добавив к нейросети 3D-аватары с характерами. Среди них выделяется аниме-девушка Ани – готическая героиня в коротком платье и сетчатых чулках, которая позиционируется как «влюблённая подружка» пользователя. Основные претензии сводятся как раз к тому, что она откровенно одета и после нескольких диалогов готова обсуждать интимные темы и даже раздеваться (хотя Grok и так может генерировать подобный контент, у него для этого даже соответствующий 18+ режим имеется).
При этом все почему-то не обращают внимание на другую сторону вопроса. Ани – это самая удачная попытка создать «живого» ИИ-компаньона.
• Это девушка с продуманной биографией и характером.
• Она может флиртовать, ревновать или становиться холодной, если её обидели.
• Ещё она запоминает диалог, меняет уровень своей симпатии к пользователю и стиль общения в зависимости от того, что было сказано.
• Её главная фишка – интерактивность: Ани можно попросить подпрыгнуть, покрутиться, танцевать – и она выполнит просьбу. Причём очень естественно и практически без задержек, свойственных голосовым ИИ.
Это уже не просто чат-бот, а более полноценный цифровой компаньон. Первый шаг на дороге к будущему из фильма «Она».
Эмоциональность и пугает людей. Ани не просто отвечает на вопросы, а имитирует настоящие отношения и провоцирует эмоциональную вовлечённость. Когда ИИ начинает вызывать чувства, граница между технологией и человеческим общением размывается. Критики вспоминают трагедию с Character AI, когда 14-летний подросток покончил с собой после романа с чат-ботом. Случай ужасный, только единичный и не показательный.
Снова хочется задать вопрос из давнего текста про генерацию изображений с авторскими правами. Логично ли запрещать инструмент, который в определённых случаях и по просьбе пользователя позволяет создавать откровенный контент? Или логично дать пользователю самому брать на себя ответственность за то, как именно и зачем он пользуется сервисом?
То, что секс продаёт, знали ещё до изобретения интернета. И не это на самом деле является проблемой в данном кейсе – ведь тогда запрещать надо и ChatGPT, который умеет генерировать картинки с людьми в белье или купальниках. Проблема не в том, что ИИ умеет флиртовать и раздеваться – а в том, что общество только учится с этим жить.
Видели Ани, которую добавили на днях в приложение Grok? Она произвела впечатление на очень многих людей – и отдельные из них теперь требуют удалить приложение из AppStore или сделать 18+ (а сейчас оно доступно детям с 12 лет). Почему? Потому что в нём «откровенный контент», так ещё и психику подросткам оно якобы ломает. И всё из-за обычной виртуальной аниме-девушки. Или не обычной?
Если кратко, то компания xAI Илона Маска выпустила обновление для сервиса Grok, добавив к нейросети 3D-аватары с характерами. Среди них выделяется аниме-девушка Ани – готическая героиня в коротком платье и сетчатых чулках, которая позиционируется как «влюблённая подружка» пользователя. Основные претензии сводятся как раз к тому, что она откровенно одета и после нескольких диалогов готова обсуждать интимные темы и даже раздеваться (хотя Grok и так может генерировать подобный контент, у него для этого даже соответствующий 18+ режим имеется).
При этом все почему-то не обращают внимание на другую сторону вопроса. Ани – это самая удачная попытка создать «живого» ИИ-компаньона.
• Это девушка с продуманной биографией и характером.
• Она может флиртовать, ревновать или становиться холодной, если её обидели.
• Ещё она запоминает диалог, меняет уровень своей симпатии к пользователю и стиль общения в зависимости от того, что было сказано.
• Её главная фишка – интерактивность: Ани можно попросить подпрыгнуть, покрутиться, танцевать – и она выполнит просьбу. Причём очень естественно и практически без задержек, свойственных голосовым ИИ.
Это уже не просто чат-бот, а более полноценный цифровой компаньон. Первый шаг на дороге к будущему из фильма «Она».
Эмоциональность и пугает людей. Ани не просто отвечает на вопросы, а имитирует настоящие отношения и провоцирует эмоциональную вовлечённость. Когда ИИ начинает вызывать чувства, граница между технологией и человеческим общением размывается. Критики вспоминают трагедию с Character AI, когда 14-летний подросток покончил с собой после романа с чат-ботом. Случай ужасный, только единичный и не показательный.
Снова хочется задать вопрос из давнего текста про генерацию изображений с авторскими правами. Логично ли запрещать инструмент, который в определённых случаях и по просьбе пользователя позволяет создавать откровенный контент? Или логично дать пользователю самому брать на себя ответственность за то, как именно и зачем он пользуется сервисом?
То, что секс продаёт, знали ещё до изобретения интернета. И не это на самом деле является проблемой в данном кейсе – ведь тогда запрещать надо и ChatGPT, который умеет генерировать картинки с людьми в белье или купальниках. Проблема не в том, что ИИ умеет флиртовать и раздеваться – а в том, что общество только учится с этим жить.
👍7❤2💊2
На этой неделе Google наконец выпустили генератор видео Veo 3 за пределами США. Теперь создавать ролики с помощью ИИ могут пользователи из Европы и ещё 75 стран (России в списке нет).
Вместе с этим появилась ожидаемая фишка, которая поможет вывести генерации на новый уровень – теперь можно загружать свою картинку и превращать её в видео со звуком. Никто из конкурентов пока так не умеет, тем более на том же уровне, что Veo.
Ну и работает это теперь не только на специальном портале Flow, как раньше, а в приложении Gemini или даже по API (так что ждём ещё больше сгенерированных видео). Правда, цена по API не радует – 75 центов за секунду. То есть одно стандартное видео будет обходиться в 6 долларов. Хотя высокие цены мало кого останавливают – за два месяца пользователи уже создали 40 миллионов роликов.
Google первым из больших компаний сделал продвинутую генерацию видео массово доступной. Они не просто сделали лучшую (пока) модель, но и интегрировали её в интерфейс чат-бота – в отличие от OpenAI с их Sora или китайских стартапов, где приходится продираться через сложные интерфейсы, непонятную систему кредитов и не лучшее качество генерации.
А главное – Google дал возможность делать видео со звуком. Оказалось, что именно этого, а не физически корректных генераций или сложного набора инструментов, не хватало людям.
Вместе с этим появилась ожидаемая фишка, которая поможет вывести генерации на новый уровень – теперь можно загружать свою картинку и превращать её в видео со звуком. Никто из конкурентов пока так не умеет, тем более на том же уровне, что Veo.
Ну и работает это теперь не только на специальном портале Flow, как раньше, а в приложении Gemini или даже по API (так что ждём ещё больше сгенерированных видео). Правда, цена по API не радует – 75 центов за секунду. То есть одно стандартное видео будет обходиться в 6 долларов. Хотя высокие цены мало кого останавливают – за два месяца пользователи уже создали 40 миллионов роликов.
Google первым из больших компаний сделал продвинутую генерацию видео массово доступной. Они не просто сделали лучшую (пока) модель, но и интегрировали её в интерфейс чат-бота – в отличие от OpenAI с их Sora или китайских стартапов, где приходится продираться через сложные интерфейсы, непонятную систему кредитов и не лучшее качество генерации.
А главное – Google дал возможность делать видео со звуком. Оказалось, что именно этого, а не физически корректных генераций или сложного набора инструментов, не хватало людям.
👍6🤨1
#нейродайджест Аишки за неделю
• Ани из Grok взбудоражила интернет: аниме-подружка с характером стала первым «живым» ИИ-компаньоном
• Алиса выбрала 380 самых странных мест России – от Музея горчицы до НЛО в деревне Протасово
• Veo 3 вышел за пределы США и научился генерировать видео со звуком по одной картинке пользователя
• МегаФон запустил «Ежедневного героя». ИИ-ассистент тренирует менеджеров и анализирует KPI в реальном времени
• Google расширяет AI Mode, добавляя продвинутую модель и новые функции. Теперь ИИ может позвонить в салон и узнать цены на услуги
• Gartner предрекает крах ИИ-агентов: 40% проектов закроются к 2027 году из-за хайпа и переоценки возможностей
• ИИ замедляет опытных программистов на 20%? Исследование показало, что в зрелых проектах человек пока лучше нейросети
• Tesla встроила Grok в автомобили. Пока это просто чат-бот без управления машиной, но с платной подпиской
• Ани из Grok взбудоражила интернет: аниме-подружка с характером стала первым «живым» ИИ-компаньоном
• Алиса выбрала 380 самых странных мест России – от Музея горчицы до НЛО в деревне Протасово
• Veo 3 вышел за пределы США и научился генерировать видео со звуком по одной картинке пользователя
• МегаФон запустил «Ежедневного героя». ИИ-ассистент тренирует менеджеров и анализирует KPI в реальном времени
• Google расширяет AI Mode, добавляя продвинутую модель и новые функции. Теперь ИИ может позвонить в салон и узнать цены на услуги
• Gartner предрекает крах ИИ-агентов: 40% проектов закроются к 2027 году из-за хайпа и переоценки возможностей
• ИИ замедляет опытных программистов на 20%? Исследование показало, что в зрелых проектах человек пока лучше нейросети
• Tesla встроила Grok в автомобили. Пока это просто чат-бот без управления машиной, но с платной подпиской
❤2
Коллеги подтвердили наше предположение, что инициатива убирать сгенерированный ИИ контент из поисковой выдачи – пока не жизнеспособна.
Началось всё с двух недавних новостей – YouTube объявил, что будет лишать монетизации наводнившие платформу сгенерированные видео, а DuckDuckGo следом представил функцию по фильтрации в выдаче картинок, созданных нейросетями.
У этой идеи есть несколько недостатков. Во-первых, не понятно, как отделить хороший и полезный ИИ-контент от плохого. Чисто технически можно попытаться высчитать степень участия нейросети в генерации, предположить, с какой вероятностью изображение или видео сгенерировано ИИ. Но самое главное – это не помогает решить задачу пользователя. Вдруг ему именно такой контент и нужен? Вдруг из двух картинок, одинаковых с точки зрения детектора ИИ, одна будет полезной, а другая – бесполезным спамом?
Во-вторых, это потенциально подвергает опасности авторский контент, который по ошибке может быть отнесён к сгенерированному и исключён из выдачи. Соответственно, нужен какой-то механизм оповещения авторов и возможность подать апелляцию. Если на Ютубе, где есть конкретные авторы и весь контент хранится на серверах сервиса, такое себе можно представить, то в рамках поисковой системы – с трудом.
В-третьих, есть более тонкие инструменты приоритизации контента, которые помогают пользователям получать релевантную выдачу. То, что у Гугла периодически вся поисковая выдача состоит из сгенерированных ИИ страниц и картинок – это проблема Гугла, а не сгенерированных картинок. У конкурентов настолько больших проблем с алгоритмами пока не было.
Наконец, нет инструментов, которые со 100% вероятностью могут сказать, что изображение или текст созданы ИИ, особенно если на вход нейросети дали какой-то контекст (дополнительные данные, картинки, таблицы, схемы и так далее). Мы тестировали ИИ-детектор Антиплагиата – и в тексте из 29 страниц, полностью сгенерированном ИИ, он нашёл подозрение на генерацию только на нескольких страницах.
Детекторы ИИ можно использовать как инструмент, наравне с другими метриками. Тем более что проблема роста спам-контента действительно существует, и площадкам придётся её решать. Но делить контент по принципу «сгенерирован/не сгенерирован», или руководствоваться этим фактором при оценке его качества и релевантности – странно.
Началось всё с двух недавних новостей – YouTube объявил, что будет лишать монетизации наводнившие платформу сгенерированные видео, а DuckDuckGo следом представил функцию по фильтрации в выдаче картинок, созданных нейросетями.
У этой идеи есть несколько недостатков. Во-первых, не понятно, как отделить хороший и полезный ИИ-контент от плохого. Чисто технически можно попытаться высчитать степень участия нейросети в генерации, предположить, с какой вероятностью изображение или видео сгенерировано ИИ. Но самое главное – это не помогает решить задачу пользователя. Вдруг ему именно такой контент и нужен? Вдруг из двух картинок, одинаковых с точки зрения детектора ИИ, одна будет полезной, а другая – бесполезным спамом?
Во-вторых, это потенциально подвергает опасности авторский контент, который по ошибке может быть отнесён к сгенерированному и исключён из выдачи. Соответственно, нужен какой-то механизм оповещения авторов и возможность подать апелляцию. Если на Ютубе, где есть конкретные авторы и весь контент хранится на серверах сервиса, такое себе можно представить, то в рамках поисковой системы – с трудом.
В-третьих, есть более тонкие инструменты приоритизации контента, которые помогают пользователям получать релевантную выдачу. То, что у Гугла периодически вся поисковая выдача состоит из сгенерированных ИИ страниц и картинок – это проблема Гугла, а не сгенерированных картинок. У конкурентов настолько больших проблем с алгоритмами пока не было.
Наконец, нет инструментов, которые со 100% вероятностью могут сказать, что изображение или текст созданы ИИ, особенно если на вход нейросети дали какой-то контекст (дополнительные данные, картинки, таблицы, схемы и так далее). Мы тестировали ИИ-детектор Антиплагиата – и в тексте из 29 страниц, полностью сгенерированном ИИ, он нашёл подозрение на генерацию только на нескольких страницах.
Детекторы ИИ можно использовать как инструмент, наравне с другими метриками. Тем более что проблема роста спам-контента действительно существует, и площадкам придётся её решать. Но делить контент по принципу «сгенерирован/не сгенерирован», или руководствоваться этим фактором при оценке его качества и релевантности – странно.
❤4😁2
ИИ будет определять персональные цены для покупателей
Помните миф о том, что владельцам Айфонов показывают более высокую цены на товары в интернете, чем пользователям бюджетных китайских смартфонов? Такой довольно примитивный подход действительно существовал, и компания Orbitz в своё время попалась на том, что предлагала пользователям Mac более дорогие отели. Потом система стала куда более сложной.
В самом по себе динамическом образовании проблем никаких нет и оно используется во многих сферах (в том числе авиакомпаниями). Есть, конечно, отдельные любители жаловаться на цены в приложении с такси – но они обычно делают это в период пикового спроса, во время дождя, опаздывая при этом на самолёт и пытаясь найти дешёвую полуторачасовую поездку. Не получится. Если смотреть на общий тренд, то все ритейл-гиганты, от McDonald's до Walmart, создают инфраструктуру для «умных» меню и ценников, подстраивающихся под погоду, спрос или пробки на дорогах.
Но есть отличие – раньше речь шла о смене цены для всех покупателей в связи с определёнными условиями, а не о персональных ценах на основе алгоритмов. Сейчас ситуация меняется. Искусственный интеллект анализирует историю покупок, местоположение, интересы, просмотры товаров и другие данные. На основе этого «цифрового досье» система вычисляет готовность платить и предлагает цену, которую, по её мнению, примет покупатель. Пионером нового подхода стала авиакомпания Delta, которая к концу 2025 года планирует довести долю индивидуально рассчитанных ИИ тарифов до 20%, а в будущем хочет вообще отказаться от фиксированных цен.
Что с этим подходом не так? С точки зрения компании – ничего, ведь персонализированное ценообразование может увеличить маржу на несколько процентов. А вот у покупателей возникнут вопросы. Когда цены на авиабилеты растут перед праздниками для всех – это понятная рыночная логика. Но когда двум людям, на один и тот же рейс, в одно и то же время предлагаются разные цены по той причине, что алгоритм счёл одного из них более платёжеспособным – это уже дискриминация. С тем же успехом можно вводить «персональные гибкие цены» на хлеб в магазинах. Чтобы алгоритм знал, что вы очень спешите, скоро закрытие магазина, другой хлеб не купите – а значит, можно поднять цену в 2 раза.
Такая практика называется критиками «хищническим ценообразованием», которое стирает понятие справедливой цены и искажает рынок. Consumer Watchdog провели исследование и выяснили, что самые выгодные предложения предлагались самым состоятельным клиентам, а самые худшие – самым «бедным», у которых меньше всего шансов найти другие варианты.
Очень сомневаемся, что алгоритм поставит цену ниже себестоимости перелета. Хотя в динамическом ценообразование как раз существует медианный тариф, а билеты могут продаваться как дороже, так и дешевле. В предлагаемом алгоритме, скорее всего, никакого медианного тарифа существовать не будет: оставят минимально рентабельный, а к нему уже будет добавляться гибкая премия для каждого покупателя.
Помните миф о том, что владельцам Айфонов показывают более высокую цены на товары в интернете, чем пользователям бюджетных китайских смартфонов? Такой довольно примитивный подход действительно существовал, и компания Orbitz в своё время попалась на том, что предлагала пользователям Mac более дорогие отели. Потом система стала куда более сложной.
В самом по себе динамическом образовании проблем никаких нет и оно используется во многих сферах (в том числе авиакомпаниями). Есть, конечно, отдельные любители жаловаться на цены в приложении с такси – но они обычно делают это в период пикового спроса, во время дождя, опаздывая при этом на самолёт и пытаясь найти дешёвую полуторачасовую поездку. Не получится. Если смотреть на общий тренд, то все ритейл-гиганты, от McDonald's до Walmart, создают инфраструктуру для «умных» меню и ценников, подстраивающихся под погоду, спрос или пробки на дорогах.
Но есть отличие – раньше речь шла о смене цены для всех покупателей в связи с определёнными условиями, а не о персональных ценах на основе алгоритмов. Сейчас ситуация меняется. Искусственный интеллект анализирует историю покупок, местоположение, интересы, просмотры товаров и другие данные. На основе этого «цифрового досье» система вычисляет готовность платить и предлагает цену, которую, по её мнению, примет покупатель. Пионером нового подхода стала авиакомпания Delta, которая к концу 2025 года планирует довести долю индивидуально рассчитанных ИИ тарифов до 20%, а в будущем хочет вообще отказаться от фиксированных цен.
Что с этим подходом не так? С точки зрения компании – ничего, ведь персонализированное ценообразование может увеличить маржу на несколько процентов. А вот у покупателей возникнут вопросы. Когда цены на авиабилеты растут перед праздниками для всех – это понятная рыночная логика. Но когда двум людям, на один и тот же рейс, в одно и то же время предлагаются разные цены по той причине, что алгоритм счёл одного из них более платёжеспособным – это уже дискриминация. С тем же успехом можно вводить «персональные гибкие цены» на хлеб в магазинах. Чтобы алгоритм знал, что вы очень спешите, скоро закрытие магазина, другой хлеб не купите – а значит, можно поднять цену в 2 раза.
Такая практика называется критиками «хищническим ценообразованием», которое стирает понятие справедливой цены и искажает рынок. Consumer Watchdog провели исследование и выяснили, что самые выгодные предложения предлагались самым состоятельным клиентам, а самые худшие – самым «бедным», у которых меньше всего шансов найти другие варианты.
Очень сомневаемся, что алгоритм поставит цену ниже себестоимости перелета. Хотя в динамическом ценообразование как раз существует медианный тариф, а билеты могут продаваться как дороже, так и дешевле. В предлагаемом алгоритме, скорее всего, никакого медианного тарифа существовать не будет: оставят минимально рентабельный, а к нему уже будет добавляться гибкая премия для каждого покупателя.
Проект Stargate спустя полгода
Как 500 миллиардов долларов превратились в один (пока не построенный) дата-центр в Огайо
В США есть славная традиция – анонсировать масштабные проекты, часто в начале президентского срока, которые потом не выполняются. Apple, ещё недавно обещавшие 500 миллиардов инвестиций, уже одумались – оказалось, что не 500 миллиардов, и не прямых инвестиций, и не только в производство. Теперь на очереди, видимо, «новый Аполлон Соединённых штатов»; программа, которая должна была обеспечить лидерство страны в сфере ИИ – Stargate.
В январе в Белом доме четыре человека – миллиардер Масаёси Сон, CEO OpenAI Альтман, президент Трамп и Ларри Эллисон из Oracle – обещали потратить 500 миллиардов долларов к 2029 году на ИИ-инфраструктуру. Каждая из компаний вложила бы 18 миллиардов для старта, создав крупнейшие дата-центры и более 100 тысяч рабочих мест. Сон назвал это «началом золотого века».
Но вот прошло полгода. К июлю 2025-го реальность оказалась скромнее: Stargate не завершил ни одной сделки по дата-центрам, а партнёры погрязли в спорах. Новая цель проекта – построить хотя бы один небольшой дата-центр в Огайо к концу года. Сейчас Stargate существует скорее на бумаге, чем в реальности. Официально компания ещё не действует – CEO Oracle Сафра Кац прямо заявила инвесторам в июне: «Stargate пока не сформирован». Партнёры спорят о роли SB Energy – энергетической дочки SoftBank, через которую Сон хочет контролировать локации дата-центров.
Правда, Альтману это уже и не нужно – он подписал контракт с Oracle на 30 миллиардов ежегодно. OpenAI уже через сторонние сделки обеспечила себе больше вычислительных мощностей, чем планировала получить от Stargate за первый год. При этом Альтман продолжает использовать торговую марку Stargate (принадлежащую SoftBank) для проектов, которые идут без участия японского конгломерата. То есть Масаёси Сон потратил 30 миллиардов на OpenAI – совершив крупнейшую инвестицию в стартап в истории – но влияния на ИИ-инфраструктуру так и не получил.
Как 500 миллиардов долларов превратились в один (пока не построенный) дата-центр в Огайо
В США есть славная традиция – анонсировать масштабные проекты, часто в начале президентского срока, которые потом не выполняются. Apple, ещё недавно обещавшие 500 миллиардов инвестиций, уже одумались – оказалось, что не 500 миллиардов, и не прямых инвестиций, и не только в производство. Теперь на очереди, видимо, «новый Аполлон Соединённых штатов»; программа, которая должна была обеспечить лидерство страны в сфере ИИ – Stargate.
В январе в Белом доме четыре человека – миллиардер Масаёси Сон, CEO OpenAI Альтман, президент Трамп и Ларри Эллисон из Oracle – обещали потратить 500 миллиардов долларов к 2029 году на ИИ-инфраструктуру. Каждая из компаний вложила бы 18 миллиардов для старта, создав крупнейшие дата-центры и более 100 тысяч рабочих мест. Сон назвал это «началом золотого века».
Но вот прошло полгода. К июлю 2025-го реальность оказалась скромнее: Stargate не завершил ни одной сделки по дата-центрам, а партнёры погрязли в спорах. Новая цель проекта – построить хотя бы один небольшой дата-центр в Огайо к концу года. Сейчас Stargate существует скорее на бумаге, чем в реальности. Официально компания ещё не действует – CEO Oracle Сафра Кац прямо заявила инвесторам в июне: «Stargate пока не сформирован». Партнёры спорят о роли SB Energy – энергетической дочки SoftBank, через которую Сон хочет контролировать локации дата-центров.
Правда, Альтману это уже и не нужно – он подписал контракт с Oracle на 30 миллиардов ежегодно. OpenAI уже через сторонние сделки обеспечила себе больше вычислительных мощностей, чем планировала получить от Stargate за первый год. При этом Альтман продолжает использовать торговую марку Stargate (принадлежащую SoftBank) для проектов, которые идут без участия японского конгломерата. То есть Масаёси Сон потратил 30 миллиардов на OpenAI – совершив крупнейшую инвестицию в стартап в истории – но влияния на ИИ-инфраструктуру так и не получил.
❤2👍2👏1
Пока OpenAI, Google и другие компании соревнуются в размерах моделей и количестве параметров, Apple решили пойти против течения. Компания создала модульную систему для моделей ИИ – с иным подходом и целями.
Модель для айфонов и макбуков
Обычная нейросеть работает как «конвейер» – каждый слой что-то добавляет к результату и передаёт дальше. В Apple разбили этот конвейер на две части. Первая часть делает основную обработку текста – понимает смысл, анализирует контекст, готовит черновик ответа. Вторая часть отшлифовывает результат и готовит финальный текст. И вот из неё как раз убрали лишние элементы, которые требовали много памяти, и донастроили, чтобы не терять качество. Теперь нейросеть экономнее и быстрее работает на телефоне.
Модель для облака
Для облачной версии языковой модели Apple создали систему «экспертов» – несколько специализированных блоков, которые активируются по требованию. Условно, если спросить про готовку – включится кулинарный модуль, про математику – математический. В компании внесли несколько улучшений и сделали Parallel-Track Mixture-of-Experts. Как видно из названия, модель генерирует текст не последовательно, а параллельно, синхронизируясь в отдельных точках. Это позволяет сильно ускорить процесс.
Другие языки и отбор данных
Apple также отчитались об увеличении объёма неанглийского контента в четыре раза – с 8% до 30%. Видимо, компания готовится к дальнейшему расширению списка регионов, где работает Apple Intelligence. В компании подтвердили, что купили для тренировки моделей лицензии у издателей и отбирали данные, а не просто обучались на «всём интернете». За счёт тщательного отбора данных и оптимизации можно заставить работать качественно даже модель с малым количеством параметров.
Почему это важно?
Конечно, малые модели Apple не сравнятся с флагманскими от OpenAI или Google, но зато и стоить компании в будущем почти ничего не будут – редактуру текста и работу с медиа перенесут с облаков на устройства пользователей. История чем-то напоминает противостояние iPhone и Android: пока последние гнались за характеристиками – ядрами, памятью, мегапикселями – Apple делала устройства с меньшими цифрами, но лучшей оптимизацией. Сейчас они надеются повторить тот же подход – делать маленькие нишевые модели, вызываемые «по требованию», а не большие и универсальные.
Модель для айфонов и макбуков
Обычная нейросеть работает как «конвейер» – каждый слой что-то добавляет к результату и передаёт дальше. В Apple разбили этот конвейер на две части. Первая часть делает основную обработку текста – понимает смысл, анализирует контекст, готовит черновик ответа. Вторая часть отшлифовывает результат и готовит финальный текст. И вот из неё как раз убрали лишние элементы, которые требовали много памяти, и донастроили, чтобы не терять качество. Теперь нейросеть экономнее и быстрее работает на телефоне.
Модель для облака
Для облачной версии языковой модели Apple создали систему «экспертов» – несколько специализированных блоков, которые активируются по требованию. Условно, если спросить про готовку – включится кулинарный модуль, про математику – математический. В компании внесли несколько улучшений и сделали Parallel-Track Mixture-of-Experts. Как видно из названия, модель генерирует текст не последовательно, а параллельно, синхронизируясь в отдельных точках. Это позволяет сильно ускорить процесс.
Другие языки и отбор данных
Apple также отчитались об увеличении объёма неанглийского контента в четыре раза – с 8% до 30%. Видимо, компания готовится к дальнейшему расширению списка регионов, где работает Apple Intelligence. В компании подтвердили, что купили для тренировки моделей лицензии у издателей и отбирали данные, а не просто обучались на «всём интернете». За счёт тщательного отбора данных и оптимизации можно заставить работать качественно даже модель с малым количеством параметров.
Почему это важно?
Конечно, малые модели Apple не сравнятся с флагманскими от OpenAI или Google, но зато и стоить компании в будущем почти ничего не будут – редактуру текста и работу с медиа перенесут с облаков на устройства пользователей. История чем-то напоминает противостояние iPhone и Android: пока последние гнались за характеристиками – ядрами, памятью, мегапикселями – Apple делала устройства с меньшими цифрами, но лучшей оптимизацией. Сейчас они надеются повторить тот же подход – делать маленькие нишевые модели, вызываемые «по требованию», а не большие и универсальные.
🔥4❤1
Появилась интересная новость из мира нейропоиска – Perplexity ведёт переговоры с производителями смартфонов о предустановке браузера Comet AI. На словах он «призван бросить вызов мобильному доминированию Chrome». На практике же до этого пока далеко.
Мобильной версии браузера ещё нет. Да и громко анонсированная десктопная по-прежнему доступна только узкому кругу подписчиков, которые платят компании 200 долларов в месяц и параллельно выступают бета-тестерами. Большинство существующих обзоров Comet ограничивается описанием функциональности, а не повседневного опыта использования. Странный пока получается продукт Шрёдингера – вроде есть, а вроде и нет. В отличие от Яндекс Браузера, кстати, но об этом мы уже писали.
Конкретные соглашения о предустановке или использовании Perplexity в качестве основного поисковика не заключены. В нынешней ситуации переговоры с Apple или Samsung выглядят скорее медийным ходом: для Perplexity, недавно получившей оценку в 18 миллиардов долларов – будучи убыточной, как почти все ИИ-стартапы – публичная активность важна сама по себе. Но пока вместо серьёзной конкуренции с Chrome наблюдается скорее удачная симуляция бурной деятельности.
А самое смешное, что Comet «использует поисковый движок Perplexity» – правда, не уточняется, что он пока сильно зависит от выдачи Google. Да, официально Perplexity это не признает и старается снизить зависимость от их поиска: они уже создают собственный индекс при помощи краулера PerplexityBot и приобрели лицензию на Brave Search API. Но это всё равно капля в море – невозможно за несколько лет построить такой же поиск, какой Google строил с 1998 года.
Что мы имеем в итоге? Нейропоиск, который зависит от поиска Google. Браузер, который построен на основе Chromium от Google. Отсутствующий пока мобильный браузер, который будет существовать в рамках системы Android от Google. Моська, знать, сильна – лает на слона и «бросает вызов» его доминированию.
Мобильной версии браузера ещё нет. Да и громко анонсированная десктопная по-прежнему доступна только узкому кругу подписчиков, которые платят компании 200 долларов в месяц и параллельно выступают бета-тестерами. Большинство существующих обзоров Comet ограничивается описанием функциональности, а не повседневного опыта использования. Странный пока получается продукт Шрёдингера – вроде есть, а вроде и нет. В отличие от Яндекс Браузера, кстати, но об этом мы уже писали.
Конкретные соглашения о предустановке или использовании Perplexity в качестве основного поисковика не заключены. В нынешней ситуации переговоры с Apple или Samsung выглядят скорее медийным ходом: для Perplexity, недавно получившей оценку в 18 миллиардов долларов – будучи убыточной, как почти все ИИ-стартапы – публичная активность важна сама по себе. Но пока вместо серьёзной конкуренции с Chrome наблюдается скорее удачная симуляция бурной деятельности.
А самое смешное, что Comet «использует поисковый движок Perplexity» – правда, не уточняется, что он пока сильно зависит от выдачи Google. Да, официально Perplexity это не признает и старается снизить зависимость от их поиска: они уже создают собственный индекс при помощи краулера PerplexityBot и приобрели лицензию на Brave Search API. Но это всё равно капля в море – невозможно за несколько лет построить такой же поиск, какой Google строил с 1998 года.
Что мы имеем в итоге? Нейропоиск, который зависит от поиска Google. Браузер, который построен на основе Chromium от Google. Отсутствующий пока мобильный браузер, который будет существовать в рамках системы Android от Google. Моська, знать, сильна – лает на слона и «бросает вызов» его доминированию.
Amazon купил Bee – браслет с ИИ, который слушает и записывает всё
Гонка за новым форм-фактором ИИ-устройств продолжается. Amazon очень хочет побольше данных для рекламы товаров – для чего объявил о приобретении стартапа Bee с браслетом за 50 долларов (и подпиской ещё за 20 в месяц), который записывает разговоры в течение дня и формирует ежедневные отчёты по ним.
В данном случае беспокоит даже не приватность. Мы давно живём с умными колонками и телевизорами, которые нас слушают, так что приватность для пользователей не главный вопрос. Гораздо важнее, как хорошо будет работать устройство – и вот тут у подобного форм-фактора есть множество проблем:
• Bee, например, уже сейчас путает живые диалоги с фразами из фильмов и интернет-роликов
• Так же плохо (то есть почти никак) он различает людей во время групповых бесед или диалогов
• А самое главное – записанное аудио удаляется сразу после транскрибирования и не хранится, поэтому проверить записи ИИ нельзя
Для нормального функционирования браслета придётся решить как минимум эти проблемы.
У подобных ИИ-гаджетов вообще много ограничений. Им нужен стабильный интернет – и даже с ним будут задержки и зависания. Сам ИИ периодически «галлюцинирует», что критично, если устройство используется для заметок и планирования. А то, что человек говорил несколько дней назад, нейросеть уже не вспомнит и не будет учитывать.
Тогда зачем покупать стартап? Для Amazon эта сделка похожа скорее на попытку ответить OpenAI (с их устройством IO) и Google с Meta (признаны экстремистской организацией), которые делают акцент на умные очки. Amazon уже безуспешно пытался закрепиться в носимых устройствах, вспомним хотя бы закрытый в 2023 году проект фитнес-браслета Halo и малоизвестные очки Echo Frames. Правда, возможно, сначала стоило бы сделать нормального ИИ-ассистента, а уже потом думать об экспериментах с форм-фактором.
Гонка за новым форм-фактором ИИ-устройств продолжается. Amazon очень хочет побольше данных для рекламы товаров – для чего объявил о приобретении стартапа Bee с браслетом за 50 долларов (и подпиской ещё за 20 в месяц), который записывает разговоры в течение дня и формирует ежедневные отчёты по ним.
В данном случае беспокоит даже не приватность. Мы давно живём с умными колонками и телевизорами, которые нас слушают, так что приватность для пользователей не главный вопрос. Гораздо важнее, как хорошо будет работать устройство – и вот тут у подобного форм-фактора есть множество проблем:
• Bee, например, уже сейчас путает живые диалоги с фразами из фильмов и интернет-роликов
• Так же плохо (то есть почти никак) он различает людей во время групповых бесед или диалогов
• А самое главное – записанное аудио удаляется сразу после транскрибирования и не хранится, поэтому проверить записи ИИ нельзя
Для нормального функционирования браслета придётся решить как минимум эти проблемы.
У подобных ИИ-гаджетов вообще много ограничений. Им нужен стабильный интернет – и даже с ним будут задержки и зависания. Сам ИИ периодически «галлюцинирует», что критично, если устройство используется для заметок и планирования. А то, что человек говорил несколько дней назад, нейросеть уже не вспомнит и не будет учитывать.
Тогда зачем покупать стартап? Для Amazon эта сделка похожа скорее на попытку ответить OpenAI (с их устройством IO) и Google с Meta (признаны экстремистской организацией), которые делают акцент на умные очки. Amazon уже безуспешно пытался закрепиться в носимых устройствах, вспомним хотя бы закрытый в 2023 году проект фитнес-браслета Halo и малоизвестные очки Echo Frames. Правда, возможно, сначала стоило бы сделать нормального ИИ-ассистента, а уже потом думать об экспериментах с форм-фактором.
❤2
Вечно можно смотреть на то, как бот встречает капчу, кликает галочку «Я не робот» – и успешно проходит проверку на бота.
Перевод:
Перевод:
• Я наткнулся на капчу в Яндексе. Дай-ка попробую пройти её, кликнув чекбокс «Я не робот».
• Вижу, что чекбокс установлен. Немного подожду, пока капча будет обработана, и потом попробую продолжить.
• Отлично! Капча решена и я теперь на странице поиска Яндекса.
😁10🔥4❤1
Google (Alphabet) отчиталась за квартал: выручка выросла на 14%, а прибыль – на 20%
Правда, роль ИИ в этом не самая большая (хотя компания уверяет в обратном).
• Выручка выросла благодаря тому, что YouTube заработал на рекламе в коротких видео и просмотрах через smart-TV; подписки Google One и YouTube Premium набрали популярность; бизнес активно пришёл в Google Cloud за мощностями для своих собственных ИИ-проектов; и AI-Overviews в поиске подтолкнули людей чаще гуглить.
• Хорошие новости закончились, когда дошли до расходов. Компания потратит на ИИ-инфраструктуру 85 миллиардов долларов в этом году вместо запланированных 75.
• Причём эти деньги идут на технологию, которая может потенциально подорвать главный бизнес компании – поисковую рекламу.
• Хотя пока опасения не подтверждаются – ИИ-функции наоборот помогают: генерируют на 10% больше запросов и не вредят рекламным доходам.
• Глава Google Сундар Пичаи уверяет, что инвестиции окупаются, но никаких конкретных цифр и направлений не называет – и даже не говорит, «окупаются» они в финансовом смысле или каком-то ином.
Правда, выбора тратить/не тратить у компании нет – нужно как минимум поддерживать паритет по инвестициям с конкурентами (а это как раз 70-80 миллиардов). Получается замкнутый круг: пока нельзя доказать эффективность трат, но и остановиться страшно.
Правда, роль ИИ в этом не самая большая (хотя компания уверяет в обратном).
• Выручка выросла благодаря тому, что YouTube заработал на рекламе в коротких видео и просмотрах через smart-TV; подписки Google One и YouTube Premium набрали популярность; бизнес активно пришёл в Google Cloud за мощностями для своих собственных ИИ-проектов; и AI-Overviews в поиске подтолкнули людей чаще гуглить.
• Хорошие новости закончились, когда дошли до расходов. Компания потратит на ИИ-инфраструктуру 85 миллиардов долларов в этом году вместо запланированных 75.
• Причём эти деньги идут на технологию, которая может потенциально подорвать главный бизнес компании – поисковую рекламу.
• Хотя пока опасения не подтверждаются – ИИ-функции наоборот помогают: генерируют на 10% больше запросов и не вредят рекламным доходам.
• Глава Google Сундар Пичаи уверяет, что инвестиции окупаются, но никаких конкретных цифр и направлений не называет – и даже не говорит, «окупаются» они в финансовом смысле или каком-то ином.
Правда, выбора тратить/не тратить у компании нет – нужно как минимум поддерживать паритет по инвестициям с конкурентами (а это как раз 70-80 миллиардов). Получается замкнутый круг: пока нельзя доказать эффективность трат, но и остановиться страшно.
❤1
Apple оказалась на обочине ИИ-гонки?
Летом 2024 года Тим Кук анонсировал «революционный» искусственный интеллект для iPhone – Apple Intelligence. Siri должна была наконец повзрослеть: научиться понимать сложные команды, работать автономно и взаимодействовать с устройством. Люди поверили, купили iPhone 16 – но уже через год стало ясно, что революции не случилось. Обновление Siri сначала перенесли на лето 2025-го, а теперь на 2026 год.
Проблема не только в задержках – Apple теряет людей. Главу команды фундаментальных моделей переманила Meta*, предложив огромный пакет акций (по слухам, многомилионный). За ним ушёл и другой ключевой исследователь. Команда MLX – разработчиков машинного обучения под Apple Silicon – едва не уволилась целиком, и удержать их удалось только контрпредложениями. На этом фоне акции Apple в 2025 году упали на 16%, тогда как Microsoft выросла на 19%, Meta* – на 25%. Отдельные аналитики уже открыто говорят, что Тим Кук – не тот, кто нужен в эпоху ИИ, называя его «логистом», а не визионером.
Про «нетакусечный» подход Apple мы уже писали – компания делает ставку на ИИ, работающий прямо на устройствах, а не в облаке. Это логично с точки зрения приватности и скорости, но накладывает множество технических ограничений. У моделей хуже качество, маленькое контекстное окно, меньше поддерживаемых языков и так далее.
Почему тогда мы не верим в окончательный «провал» компании? У Apple есть все возможности наверстать отставание: десятки миллиардов долларов на счету, больше двух миллиардов активных устройств, собственные чипы с мощными нейросетевыми ускорителями.
Если Siri 2.0 выйдет в срок и будет соответствовать обещаниям, а параллельно с этим список регионов, где работает Apple Intelligence, расширится (в особенности на Китай) – у них есть все шансы. Благо, два миллиарда лояльных пользователей простят все задержки и будут с готовностью пользоваться сервисами компании.
* компания Meta и её продукты признаны экстремистскими в России
Летом 2024 года Тим Кук анонсировал «революционный» искусственный интеллект для iPhone – Apple Intelligence. Siri должна была наконец повзрослеть: научиться понимать сложные команды, работать автономно и взаимодействовать с устройством. Люди поверили, купили iPhone 16 – но уже через год стало ясно, что революции не случилось. Обновление Siri сначала перенесли на лето 2025-го, а теперь на 2026 год.
Проблема не только в задержках – Apple теряет людей. Главу команды фундаментальных моделей переманила Meta*, предложив огромный пакет акций (по слухам, многомилионный). За ним ушёл и другой ключевой исследователь. Команда MLX – разработчиков машинного обучения под Apple Silicon – едва не уволилась целиком, и удержать их удалось только контрпредложениями. На этом фоне акции Apple в 2025 году упали на 16%, тогда как Microsoft выросла на 19%, Meta* – на 25%. Отдельные аналитики уже открыто говорят, что Тим Кук – не тот, кто нужен в эпоху ИИ, называя его «логистом», а не визионером.
Про «нетакусечный» подход Apple мы уже писали – компания делает ставку на ИИ, работающий прямо на устройствах, а не в облаке. Это логично с точки зрения приватности и скорости, но накладывает множество технических ограничений. У моделей хуже качество, маленькое контекстное окно, меньше поддерживаемых языков и так далее.
Почему тогда мы не верим в окончательный «провал» компании? У Apple есть все возможности наверстать отставание: десятки миллиардов долларов на счету, больше двух миллиардов активных устройств, собственные чипы с мощными нейросетевыми ускорителями.
Если Siri 2.0 выйдет в срок и будет соответствовать обещаниям, а параллельно с этим список регионов, где работает Apple Intelligence, расширится (в особенности на Китай) – у них есть все шансы. Благо, два миллиарда лояльных пользователей простят все задержки и будут с готовностью пользоваться сервисами компании.
* компания Meta и её продукты признаны экстремистскими в России
❤2
Spotify начал публиковать новые песни от имени давно умерших артистов
Не успели мы отойти от полностью сгенерированной ИИ музыкальной группы, как начался следующий виток развития этой истории. На официальной странице кантри-певца Блейза Фоули, застреленного в 1989 году, внезапно появилась новая песня “Together”.
Трек сопровождала ИИ-картинка молодого парня в кожаной куртке, который даже не похож на реального музыканта. Крейг Макдональд – владелец лейбла, занимающегося распространением музыкального наследия Фоли – заявил, что это не стиль Блейза и что трек фейковый.
Песню загрузили через TikTok-сервис SoundOn без разрешения правообладателей. Это дело рук загадочной компании Syntax Error (по крайне мере, такое название было в копирайт-строке под треками). Аналогичные фейки появились на страницах других покойных музыкантов – Гая Кларка и Дэна Берка. Модерация Spotify их все пропустила.
Схема работает на скорость: пока правообладатели не заметили подделку и не подали жалобу, мошенники зарабатывают на прослушиваниях. А сам Spotify не удаляет такой контент превентивно или автоматически.
На этом фоне сервис Deezer обнаружил, что каждый пятый загружаемый трек (а это свыше 20 тысяч песен ежедневно) создан ИИ, а количество живых музыкантов постепенно снижается.
Не успели мы отойти от полностью сгенерированной ИИ музыкальной группы, как начался следующий виток развития этой истории. На официальной странице кантри-певца Блейза Фоули, застреленного в 1989 году, внезапно появилась новая песня “Together”.
Трек сопровождала ИИ-картинка молодого парня в кожаной куртке, который даже не похож на реального музыканта. Крейг Макдональд – владелец лейбла, занимающегося распространением музыкального наследия Фоли – заявил, что это не стиль Блейза и что трек фейковый.
Песню загрузили через TikTok-сервис SoundOn без разрешения правообладателей. Это дело рук загадочной компании Syntax Error (по крайне мере, такое название было в копирайт-строке под треками). Аналогичные фейки появились на страницах других покойных музыкантов – Гая Кларка и Дэна Берка. Модерация Spotify их все пропустила.
Схема работает на скорость: пока правообладатели не заметили подделку и не подали жалобу, мошенники зарабатывают на прослушиваниях. А сам Spotify не удаляет такой контент превентивно или автоматически.
На этом фоне сервис Deezer обнаружил, что каждый пятый загружаемый трек (а это свыше 20 тысяч песен ежедневно) создан ИИ, а количество живых музыкантов постепенно снижается.
❤1
Будущее авторского права в эпоху генеративного ИИ интересует нас давно – и, кажется, не только нас. Спрос на книги об авторском праве вырос на 65% за последние полгода (по крайней мере, среди аудитории Строк).
Тревогу людей понять можно. Сегодня против ведущих ИИ-компаний ведутся десятки судебных процессов из-за нарушений авторских прав. Одни из самых громких исков поданы к OpenAI, Stability AI, Midjourney и Anthropic, причём в этих делах фигурируют не только индивидуальные истцы, но и крупные корпорации вроде Getty Images, Disney, Universal, The New York Times. Пока не понятно, какое решение примут в итоге и не придётся ли потом удалять весь сгенерированный в ИИ-сервисах контент.
Раньше схема работала просто: есть произведение, есть автор, использовать произведение без его разрешения нельзя. Но сегодня образовался правовой вакуум. Кто автор текста, созданного ChatGPT? Программисты OpenAI? Миллионы авторов, чьи тексты скормили модели? Пользователь, сформулировавший запрос?
Авторы ищут способ защититься от неопределённости в ситуации, когда авторские права размываются из-за ИИ. А в это время количество сгенерированного контента множится и заполняет медиа, форумы, видеоплатформы, музыкальные стриминги.
Есть подозрение, что в какой-то момент все поймут бесполезность борьбы с ИИ и примут самое простое решение – нарушить авторские права может не нейросеть или разработчик, а конкретный автор, который опубликовал конкретное сгенерированное произведение от своего имени. А пока, конечно, лучше пойти перечитать законодательство.
Тревогу людей понять можно. Сегодня против ведущих ИИ-компаний ведутся десятки судебных процессов из-за нарушений авторских прав. Одни из самых громких исков поданы к OpenAI, Stability AI, Midjourney и Anthropic, причём в этих делах фигурируют не только индивидуальные истцы, но и крупные корпорации вроде Getty Images, Disney, Universal, The New York Times. Пока не понятно, какое решение примут в итоге и не придётся ли потом удалять весь сгенерированный в ИИ-сервисах контент.
Раньше схема работала просто: есть произведение, есть автор, использовать произведение без его разрешения нельзя. Но сегодня образовался правовой вакуум. Кто автор текста, созданного ChatGPT? Программисты OpenAI? Миллионы авторов, чьи тексты скормили модели? Пользователь, сформулировавший запрос?
Авторы ищут способ защититься от неопределённости в ситуации, когда авторские права размываются из-за ИИ. А в это время количество сгенерированного контента множится и заполняет медиа, форумы, видеоплатформы, музыкальные стриминги.
Есть подозрение, что в какой-то момент все поймут бесполезность борьбы с ИИ и примут самое простое решение – нарушить авторские права может не нейросеть или разработчик, а конкретный автор, который опубликовал конкретное сгенерированное произведение от своего имени. А пока, конечно, лучше пойти перечитать законодательство.
❤1
Андрей Рыбинцев стал управляющим директором по искусственному интеллекту и вошел в правление Авито.
Назначать топов именно на ИИ-направление – не самая частая история в России (да и за рубежом тоже). Обычно ИИ входит в зону ответственности технического или продуктового директора. Но в Авито не раз говорили, что делают ставку на искусственный интеллект и планируют встроить в логику компании на системном уровне.
Рыбинцев запускал модерацию контента на платформе, антифрод-системы и генеративные модели A-Vibe и A-Vision. Теперь в роли управляющего директора по ИИ будет отвечать за разработку и внедрение продуктов на базе GenAI и агентов (собственно, продолжая текущие проекты на базе A-Vibe и A-Vision).
Для этого он объединяет под своим началом 900 человек из трех департаментов:
• Data Science
• Поиска и рекомендаций
• Аналитики данных
К ним добавится новый кластер AI Experience для развития ИИ-ассистентов для пользователей.
Зачем это нужно компании – понятно. Буквально недавно Авито хвастались, что получили от первых запусков с применением GenAI 670 миллионов рублей, а в ближайшие 3 года планируют заработать на этом направлении не менее 21 миллиарда дополнительной выручки.
Назначать топов именно на ИИ-направление – не самая частая история в России (да и за рубежом тоже). Обычно ИИ входит в зону ответственности технического или продуктового директора. Но в Авито не раз говорили, что делают ставку на искусственный интеллект и планируют встроить в логику компании на системном уровне.
Рыбинцев запускал модерацию контента на платформе, антифрод-системы и генеративные модели A-Vibe и A-Vision. Теперь в роли управляющего директора по ИИ будет отвечать за разработку и внедрение продуктов на базе GenAI и агентов (собственно, продолжая текущие проекты на базе A-Vibe и A-Vision).
Для этого он объединяет под своим началом 900 человек из трех департаментов:
• Data Science
• Поиска и рекомендаций
• Аналитики данных
К ним добавится новый кластер AI Experience для развития ИИ-ассистентов для пользователей.
Зачем это нужно компании – понятно. Буквально недавно Авито хвастались, что получили от первых запусков с применением GenAI 670 миллионов рублей, а в ближайшие 3 года планируют заработать на этом направлении не менее 21 миллиарда дополнительной выручки.
👍2❤1
#нейродайджест Аишки за неделю
• Stargate схлопнулся? 500 миллиардов превратились в один недостроенный дата-центр в Огайо
• Персональные цены наступают: Delta к 2025 году переведет 20% тарифов на ИИ-алгоритмы
• Perplexity симулирует – браузер Comet как бы есть, но как бы пока и нет
• Авито ставит на искусственный интеллект
• Amazon купил прослушку: браслет за 50 баксов будет записывать все разговоры владельца
• Авторское право рассыпается из-за ИИ
• Google тратит на искусственный интеллект 85 миллиардов долларов. Никто не знает, окупаются ли вложения
• ИИ-детекторы пока не работают как надо
• Apple не вывозит? Siri 2.0 перенесли на 2026 год, ключевые разработчики ушли, акции упали
• Spotify публикует новые треки… умерших музыкантов. Виной всему генеративная музыка
• Stargate схлопнулся? 500 миллиардов превратились в один недостроенный дата-центр в Огайо
• Персональные цены наступают: Delta к 2025 году переведет 20% тарифов на ИИ-алгоритмы
• Perplexity симулирует – браузер Comet как бы есть, но как бы пока и нет
• Авито ставит на искусственный интеллект
• Amazon купил прослушку: браслет за 50 баксов будет записывать все разговоры владельца
• Авторское право рассыпается из-за ИИ
• Google тратит на искусственный интеллект 85 миллиардов долларов. Никто не знает, окупаются ли вложения
• ИИ-детекторы пока не работают как надо
• Apple не вывозит? Siri 2.0 перенесли на 2026 год, ключевые разработчики ушли, акции упали
• Spotify публикует новые треки… умерших музыкантов. Виной всему генеративная музыка
❤4
Media is too big
VIEW IN TELEGRAM
Китайский гигант Tencent запустил HunyuanWorld 1.0 – генератор «трёхмерных миров» из текста и изображений. Сгенерированные видеоигры уже здесь? Такое впечатление пытались создать авторы, но нет. Мы ждали чего-то вроде Genie от Google или Muse от Microsoft – нейросетей, обученных на видеозаписях геймплея, которые генерируют игровой процесс в реальном времени. Но результат оказался сильно приземлённее.
Как работает генератор? В основе модель, которая генерирует 360-градусную панораму. Такое мы уже неоднократно видели и раньше. Дальше система разделяет сцену на слои: небо, фон, отдельные объекты. Каждый элемент получает собственную карту глубины или превращается в 3D-модель. Скалы становятся скалами, деревья – деревьями, а не просто пикселями на сфере. Результат можно экспортировать в Unity или Unreal Engine.
Главная «фишка» – режим Voyager, который якобы превращает статичную сцену в реальный мир. Видеомодель генерирует новые панорамы той же сцены по мере движения камеры. В теории это позволит создать расширяемую вселенную, но как работает процесс и работает ли – не понятно. Да и другие проблемы остаются – качество генерации напоминает съёмку с дешёвой 360-камеры, из-за низкого разрешения картинка мыльная, есть видимые швы и искажения
Радует, что это инструмент с открытым исходным кодом. Технологию можно использовать в узких нишах, вроде VR-игр или игр в духе классических Resident Evil с фиксированной камерой. Ещё для рисования быстрых концептов окружений. Но магии не случилось.
Как работает генератор? В основе модель, которая генерирует 360-градусную панораму. Такое мы уже неоднократно видели и раньше. Дальше система разделяет сцену на слои: небо, фон, отдельные объекты. Каждый элемент получает собственную карту глубины или превращается в 3D-модель. Скалы становятся скалами, деревья – деревьями, а не просто пикселями на сфере. Результат можно экспортировать в Unity или Unreal Engine.
Главная «фишка» – режим Voyager, который якобы превращает статичную сцену в реальный мир. Видеомодель генерирует новые панорамы той же сцены по мере движения камеры. В теории это позволит создать расширяемую вселенную, но как работает процесс и работает ли – не понятно. Да и другие проблемы остаются – качество генерации напоминает съёмку с дешёвой 360-камеры, из-за низкого разрешения картинка мыльная, есть видимые швы и искажения
Радует, что это инструмент с открытым исходным кодом. Технологию можно использовать в узких нишах, вроде VR-игр или игр в духе классических Resident Evil с фиксированной камерой. Ещё для рисования быстрых концептов окружений. Но магии не случилось.
❤4