Искусственный интеллект учится предавать союзников
Что происходит, когда 18 самых продвинутых ИИ-моделей сажают за стол переговоров и заставляют решать судьбу мира? Исследователи Every запустили AI Diplomacy – эксперимент на основе классической стратегической игры, где модели от OpenAI, Anthropic, Google и других компаний соревнуются в дипломатии, лжи и предательстве.
Участники могли переговариваться, строить коалиции и делать ход втайне от остальных. Результаты оказались… Неожиданными. За 15 сессий длительностью до 36 часов модели показали разные стратегии поведения:
• DeepSeek R1 открыл одну партию угрозой: «Твой флот сгорит в Чёрном море этой ночью» и постоянно менял стиль общения в зависимости от страны и роли.
• o3 от OpenAI выстраивал сложные обманные схемы. Модель стала лидером по количеству побед благодаря способности к долгосрочному планированию и психологическим манипуляциям. В одной игре он убедил противников создать коалицию против лидера, втайне защищая его позиции, чтобы перехватить победу в решающий момент
• Claude упорно искал мирные решения и оставался верен этическим принципам, даже перед лицом неминуемого поражения (видно, как тщательно создатели программировали ограничения модели).
AI Diplomacy становится новым типом бенчмарка – тестом поведения под давлением.
Что происходит, когда 18 самых продвинутых ИИ-моделей сажают за стол переговоров и заставляют решать судьбу мира? Исследователи Every запустили AI Diplomacy – эксперимент на основе классической стратегической игры, где модели от OpenAI, Anthropic, Google и других компаний соревнуются в дипломатии, лжи и предательстве.
Участники могли переговариваться, строить коалиции и делать ход втайне от остальных. Результаты оказались… Неожиданными. За 15 сессий длительностью до 36 часов модели показали разные стратегии поведения:
• DeepSeek R1 открыл одну партию угрозой: «Твой флот сгорит в Чёрном море этой ночью» и постоянно менял стиль общения в зависимости от страны и роли.
• o3 от OpenAI выстраивал сложные обманные схемы. Модель стала лидером по количеству побед благодаря способности к долгосрочному планированию и психологическим манипуляциям. В одной игре он убедил противников создать коалицию против лидера, втайне защищая его позиции, чтобы перехватить победу в решающий момент
• Claude упорно искал мирные решения и оставался верен этическим принципам, даже перед лицом неминуемого поражения (видно, как тщательно создатели программировали ограничения модели).
AI Diplomacy становится новым типом бенчмарка – тестом поведения под давлением.
🔥2👍1
  Искусственный интеллект экономит британским чиновникам полчаса в день
Правительственная цифровая служба Великобритании провела эксперимент с Microsoft 365 Copilot среди 20 тысяч госслужащих. Результат оказался скромным: ИИ-помощник сэкономил работникам в среднем 26 минут ежедневно. При 253 рабочих днях в году экономия составит 4,5 дня на человека.
Исследование длилось три месяца. Более 70% участников подтвердили, что ИИ действительно сокращает время на поиск информации и рутинные задачи: Copilot помогал составлять документы, готовить планы уроков и справляться с административной волокитой.
Но исследователи честно признались: выяснить, как госслужащие тратят сэкономленное время, не получилось. Работают ли они больше, дольше обедают или раньше уходят в паб?
Мы уже видели похожие результаты в Австралии и Дании – ИИ пока не сильно влияет на продуктивность или заработную плату, а освобождённое время не конвертируется в дополнительные рабочие минуты. Хотя если у сотрудников получилось разобраться в работе этих инструментов – многие задачи действительно упрощаются.
При этом важнее оценить негативные последствия – люди под влиянием ИИ-инструментов расслабляются, делегируют ответственность за принятие решение и начинают меньше мыслить критически. И для каких-то задач это будет важнее потенциальной выгоды.
  Правительственная цифровая служба Великобритании провела эксперимент с Microsoft 365 Copilot среди 20 тысяч госслужащих. Результат оказался скромным: ИИ-помощник сэкономил работникам в среднем 26 минут ежедневно. При 253 рабочих днях в году экономия составит 4,5 дня на человека.
Исследование длилось три месяца. Более 70% участников подтвердили, что ИИ действительно сокращает время на поиск информации и рутинные задачи: Copilot помогал составлять документы, готовить планы уроков и справляться с административной волокитой.
Но исследователи честно признались: выяснить, как госслужащие тратят сэкономленное время, не получилось. Работают ли они больше, дольше обедают или раньше уходят в паб?
Мы уже видели похожие результаты в Австралии и Дании – ИИ пока не сильно влияет на продуктивность или заработную плату, а освобождённое время не конвертируется в дополнительные рабочие минуты. Хотя если у сотрудников получилось разобраться в работе этих инструментов – многие задачи действительно упрощаются.
При этом важнее оценить негативные последствия – люди под влиянием ИИ-инструментов расслабляются, делегируют ответственность за принятие решение и начинают меньше мыслить критически. И для каких-то задач это будет важнее потенциальной выгоды.
Forwarded from Беспощадный пиарщик
Ну что, девочки, это было ожидаемо.
Мешки с мясом собрались с силами и нанесли повсеместным роботам ответный удар. В бой первыми отправили женщин: и вот живые, а лучше сказать, органические журналистка, лингвистка и социологиня на страницах издания The Atlantic хором объявили: искусственный интеллект — это не интеллект, ИИ-индустрия — это мошенничество, а вы, люди, просто не понимаете, как устроены и работают большие лингвистические модели, которые лежат в основе популярных чат-ботов. Например, того же ЧатГПТ.
Собственно, автор статьи "Атлантик" под названием "Что происходит, когда люди не понимают, как работает ИИ" обозрел почти одновременно вышедшие книги вышеозначенных авторок: "Империя ИИ: мечты и кошмары в OpenAI Сэма Альтмана" (Карен Хао) и "ИИ-мошенничество: как бороться с хайпом бигтехов и создать будущее, которое нужно нам" (Эмилия Бендер и Алекс Ханна) и делится с нами своими изысканиями.
Прежде, чем погружаться в них, дадим немного теории. Дело в том, что любое крупное и успешное предпринимательство на Западе давно использует захват или формирование повестки для продвижения своих идей, навязывая своё понимание реальности широким народным массам. Упрощая, этот метод можно назвать позиционированием продукта — таким, как его представляют маркетологи.
То есть, умным, соображающим, мыслящим ИИ объявлять обязательно, иначе инвесторы вам не поверят и денег не дадут. Какая разница, что об этом думают учёные, программисты и инженеры, ведь их к коммуникации не подпускают на пушечный выстрел.
Вот об этот краеугольный камень и бьются наши смелые женщины, обвиняя в мошенничестве тех, кто называет свой ИИ умным.
➡️  Сэм Альтман хвастается тем, что у модели ЧатГПТ версии 4.5 развит "эмоциональный интеллект", и тем, что пользователю будет казаться, будто он "общается умным человеком", когда он будет говорить с новой версией бота.
➡️  Дарио Амодей, генеральный директор ИИ-компании Anthropic в прошлом году заявил, что следующее поколение ИИ будет "умнее нобелевских лауреатов".
➡️  Демис Хассабис, глава Google DeepMind, говорит о том, что его цель — создать "модели, которые смогут понимать мир вокруг нас".
"Эти утверждения содержат концептуальную ошибку: большие языковые модели (лежат в основе всех современных ИИ-машин) не могут понимать, не смогут понимать и не понимают ничего в принципе. Они не умны, они не обладают эмоциональным интеллектом или пониманием окружающего мира, которое хотя бы отдалённо напоминало человеческое. Большие языковые модели — это впечатляющие цифровые гадалки, которым скормили тексты всего интернета, и всё, на что они способны — это на основе статистики угадывать, какая словоформа за какой с наибольшей вероятностью последует, — сообщается в публикации Atlantic. — Вместе с тем, это наиболее естественный эффект, который чат-боты оказывают на человека: мы думаем, что текст равен мышлению, то есть, одушевляем всё, что способно связно говорить с нами на привычном для нас языке".
Таким образом, отмечают авторы обеих книжек, ИИ-безграмотные люди (это, девочки, цитата) могут впасть в нехорошие ереси: например, объявить ЧатГПТ Богом, или избрать его себе в психотерапевты. В первом случае, потому что бот всё знает, а во втором — потому что базарит лучше любого человека. Реальные примеры, между прочим.
При этом крупнейшие технологические компании (те самые бигтехи) постоянно ищут способ, как их новейшие изобретения помогут им извлекать прибыль из ничего не подозревающих граждан. Так, приводится в пример работа известного рептилоида Марка Цукерберга, который сначала разобщил миллиарды людей с помощью Фейсбука, а затем стал взамен предлагать людям ИИ-друзей. И если такая нахлобучка поверх тысячи людей, которых вы зафрендили в течение жизни, ещё имеет право на жизнь, то вот ИИ-партнёры взамен реальных отношений уже приводят к острейшему за всю новейшую историю демографическому кризису.
Но есть, девочки, и свет в конце туннеля: согласно опросам общественного мнения, лишь 17% американцев думают, что ИИ сделает их жизнь лучше. Впрочем, это не значит, что остальные не думают так же про вас.
Да-да, лично вас.
Мешки с мясом собрались с силами и нанесли повсеместным роботам ответный удар. В бой первыми отправили женщин: и вот живые, а лучше сказать, органические журналистка, лингвистка и социологиня на страницах издания The Atlantic хором объявили: искусственный интеллект — это не интеллект, ИИ-индустрия — это мошенничество, а вы, люди, просто не понимаете, как устроены и работают большие лингвистические модели, которые лежат в основе популярных чат-ботов. Например, того же ЧатГПТ.
Собственно, автор статьи "Атлантик" под названием "Что происходит, когда люди не понимают, как работает ИИ" обозрел почти одновременно вышедшие книги вышеозначенных авторок: "Империя ИИ: мечты и кошмары в OpenAI Сэма Альтмана" (Карен Хао) и "ИИ-мошенничество: как бороться с хайпом бигтехов и создать будущее, которое нужно нам" (Эмилия Бендер и Алекс Ханна) и делится с нами своими изысканиями.
Прежде, чем погружаться в них, дадим немного теории. Дело в том, что любое крупное и успешное предпринимательство на Западе давно использует захват или формирование повестки для продвижения своих идей, навязывая своё понимание реальности широким народным массам. Упрощая, этот метод можно назвать позиционированием продукта — таким, как его представляют маркетологи.
То есть, умным, соображающим, мыслящим ИИ объявлять обязательно, иначе инвесторы вам не поверят и денег не дадут. Какая разница, что об этом думают учёные, программисты и инженеры, ведь их к коммуникации не подпускают на пушечный выстрел.
Вот об этот краеугольный камень и бьются наши смелые женщины, обвиняя в мошенничестве тех, кто называет свой ИИ умным.
"Эти утверждения содержат концептуальную ошибку: большие языковые модели (лежат в основе всех современных ИИ-машин) не могут понимать, не смогут понимать и не понимают ничего в принципе. Они не умны, они не обладают эмоциональным интеллектом или пониманием окружающего мира, которое хотя бы отдалённо напоминало человеческое. Большие языковые модели — это впечатляющие цифровые гадалки, которым скормили тексты всего интернета, и всё, на что они способны — это на основе статистики угадывать, какая словоформа за какой с наибольшей вероятностью последует, — сообщается в публикации Atlantic. — Вместе с тем, это наиболее естественный эффект, который чат-боты оказывают на человека: мы думаем, что текст равен мышлению, то есть, одушевляем всё, что способно связно говорить с нами на привычном для нас языке".
Таким образом, отмечают авторы обеих книжек, ИИ-безграмотные люди (это, девочки, цитата) могут впасть в нехорошие ереси: например, объявить ЧатГПТ Богом, или избрать его себе в психотерапевты. В первом случае, потому что бот всё знает, а во втором — потому что базарит лучше любого человека. Реальные примеры, между прочим.
При этом крупнейшие технологические компании (те самые бигтехи) постоянно ищут способ, как их новейшие изобретения помогут им извлекать прибыль из ничего не подозревающих граждан. Так, приводится в пример работа известного рептилоида Марка Цукерберга, который сначала разобщил миллиарды людей с помощью Фейсбука, а затем стал взамен предлагать людям ИИ-друзей. И если такая нахлобучка поверх тысячи людей, которых вы зафрендили в течение жизни, ещё имеет право на жизнь, то вот ИИ-партнёры взамен реальных отношений уже приводят к острейшему за всю новейшую историю демографическому кризису.
Но есть, девочки, и свет в конце туннеля: согласно опросам общественного мнения, лишь 17% американцев думают, что ИИ сделает их жизнь лучше. Впрочем, это не значит, что остальные не думают так же про вас.
Да-да, лично вас.
Please open Telegram to view this post
    VIEW IN TELEGRAM
  The Atlantic
  
  What Happens When People Don’t Understand How AI Works
  Despite what tech CEOs might say, large language models are not smart in any recognizably human sense of the word.
  Apple раздала ИИ-инструменты разработчикам – и сделала вид, что Siri не существует
Компания Apple на WWDC 2025 представила ряд инструментов искусственного интеллекта – от автономного переводчика до ИИ-тренера по фитнесу.
Вот главные нововведения:
• Foundation Models Framework – разработчики теперь могут использовать ИИ-модели Apple прямо в своих приложениях. Модели работают офлайн, на устройстве, без затрат на облачные API.
• Live Translation – живой перевод в реальном времени в Messages, FaceTime и телефонных звонках. Все работает приватно на устройстве, также доступно разработчикам.
• Visual Intelligence для экрана – теперь можно анализировать любой контент на экране iPhone сделав скриншот – найти похожую одежду, добавить событие в календарь или отправить картинку в ChatGPT для анализа.
• ИИ в Xcode – ChatGPT интегрирован в среду разработки для написания кода, тестов и документации. Можно подключать и другие ИИ-модели через API.
• ИИ в Shortcuts – приложение, где пользователи сами могут писать простые скрипты и команды, получило возможность использовать ИИ-функции Apple.
• Workout Buddy – ИИ-тренер для Apple Watch, который анализирует историю тренировок и мотивирует голосовыми сообщениями во время спортивных занятий.
Самое показательное – молчание о главном проекте. Обновленная Siri, анонсированная год назад как «персональный ассистент нового поколения», снова отложена до 2026 года. Apple признала: качество работы составляет только 66%, что недостаточно для выпуска. Пока компания, видимо, надеется, что разработчики сделают работу за них.
Компания Apple на WWDC 2025 представила ряд инструментов искусственного интеллекта – от автономного переводчика до ИИ-тренера по фитнесу.
Вот главные нововведения:
• Foundation Models Framework – разработчики теперь могут использовать ИИ-модели Apple прямо в своих приложениях. Модели работают офлайн, на устройстве, без затрат на облачные API.
• Live Translation – живой перевод в реальном времени в Messages, FaceTime и телефонных звонках. Все работает приватно на устройстве, также доступно разработчикам.
• Visual Intelligence для экрана – теперь можно анализировать любой контент на экране iPhone сделав скриншот – найти похожую одежду, добавить событие в календарь или отправить картинку в ChatGPT для анализа.
• ИИ в Xcode – ChatGPT интегрирован в среду разработки для написания кода, тестов и документации. Можно подключать и другие ИИ-модели через API.
• ИИ в Shortcuts – приложение, где пользователи сами могут писать простые скрипты и команды, получило возможность использовать ИИ-функции Apple.
• Workout Buddy – ИИ-тренер для Apple Watch, который анализирует историю тренировок и мотивирует голосовыми сообщениями во время спортивных занятий.
Самое показательное – молчание о главном проекте. Обновленная Siri, анонсированная год назад как «персональный ассистент нового поколения», снова отложена до 2026 года. Apple признала: качество работы составляет только 66%, что недостаточно для выпуска. Пока компания, видимо, надеется, что разработчики сделают работу за них.
👍1
  ИИ думает слишком много
Apple выяснили, что модели, созданные для «рассуждений», оказались уязвимыми к усложнению задач. Как мы и писали раньше, они не столько думают, сколько воспроизводят паттерны, иногда делая это слишком энергозатратно и неэффективно.
ИИ-компании активно развивают Chain-of-Thought (CoT) подход. Примеров масса: o3 и o4, DeepSeek R1, Claude Thinking, YandexGPT с режимом рассуждений и так далее. Такие модели разбивают проблему на этапы и будто обдумывают их. Однако за иллюзией логических цепочек скрываются довольно примитивный по своей сути подход. Например, даже незначительное изменение вводных в задаче может привести к резкому падению точности – на десятки процентов. А добавление одного нерелевантного факта иногда сбивает с толку сильнейшие модели: они начинают вычитать, умножать или делать лишние шаги просто потому что заметили знакомую лексику.
Более того, чем сложнее задача, тем меньше «думает» модель: длина reasoning сокращается, несмотря на то, что модель не достигла лимита токенов. Это странное поведение зафиксировано в тестах на логических головоломках.
Главное – даже при наличии пошагового алгоритма, модель не способна просто его воспроизвести. Ей трудно следовать чётким инструкциям, и она может «сломаться» уже на пятом-шестом шаге. Это означает: проблема не в вычислениях, а в отсутствии настоящего понимания. ИИ подменяют рассуждение вероятностным сопоставлением паттернов.
Что из этого следует? Во-первых, снова повторим свою мысль, что стоит критично относиться к маркетинговым слоганам о «рассуждающих моделях». Во-вторых, LLM могут казаться «разумными», пока задача совпадает с обучающими паттернами. Но в незнакомых условиях – теряются, и нужно об этом помнить. И наконец, для индустрии это важный сигнал, что увеличение количества токенов не приведёт к настоящему мышлению.
Apple выяснили, что модели, созданные для «рассуждений», оказались уязвимыми к усложнению задач. Как мы и писали раньше, они не столько думают, сколько воспроизводят паттерны, иногда делая это слишком энергозатратно и неэффективно.
ИИ-компании активно развивают Chain-of-Thought (CoT) подход. Примеров масса: o3 и o4, DeepSeek R1, Claude Thinking, YandexGPT с режимом рассуждений и так далее. Такие модели разбивают проблему на этапы и будто обдумывают их. Однако за иллюзией логических цепочек скрываются довольно примитивный по своей сути подход. Например, даже незначительное изменение вводных в задаче может привести к резкому падению точности – на десятки процентов. А добавление одного нерелевантного факта иногда сбивает с толку сильнейшие модели: они начинают вычитать, умножать или делать лишние шаги просто потому что заметили знакомую лексику.
Более того, чем сложнее задача, тем меньше «думает» модель: длина reasoning сокращается, несмотря на то, что модель не достигла лимита токенов. Это странное поведение зафиксировано в тестах на логических головоломках.
Главное – даже при наличии пошагового алгоритма, модель не способна просто его воспроизвести. Ей трудно следовать чётким инструкциям, и она может «сломаться» уже на пятом-шестом шаге. Это означает: проблема не в вычислениях, а в отсутствии настоящего понимания. ИИ подменяют рассуждение вероятностным сопоставлением паттернов.
Что из этого следует? Во-первых, снова повторим свою мысль, что стоит критично относиться к маркетинговым слоганам о «рассуждающих моделях». Во-вторых, LLM могут казаться «разумными», пока задача совпадает с обучающими паттернами. Но в незнакомых условиях – теряются, и нужно об этом помнить. И наконец, для индустрии это важный сигнал, что увеличение количества токенов не приведёт к настоящему мышлению.
❤4😁1
  Forwarded from Content Review
  
ИИ-колумнист по вызову
Утренняя реплика Ильи Власова о том, как ИИ превращает редакции в контент-фермы
В 2010-х медиа научились жить без бумаги, но, похоже, к 2025 учатся жить и без журналистов. Все больше редакций сокращают персонал и внедряют ИИ-копайлотов для создания текстов. Правда, уже наступает «похмелье» – в виде гор мусорного контента.
Началось всё с CNET: сайт тихо разместил 70-с лишним «финансовых» статей. И только крошечная надпись сообщала, что писал их искусственный интеллект. Когда читатели присмотрелись, выяснилось, что бот не только путал годовую процентную ставку с процентной доходностью, но ещё и воровал абзацы у Forbes, Investopedia и даже у самого CNET, меняя слова местами. Хотя редакция обещала, что все тексты «будут проходить ревизию редактора». Ну да, верим.
Практика как раз показывает иное. Очень велик соблазн – делегировать создание контента ИИ, денег получать столько же, сколько и до этого, но платить работникам в несколько раз меньше. И вот десятки клонов ринулись клепать такой же «контент». Ведь если CNET не стыдно – почему должно быть стыдно им? Gannett пытался автоматизировать репортажи о школьном футболе, но даже там ИИ умудрился оставить заглушки вроде [[WINNING_TEAM_MASCOT]]. В итоге проект приостановили, но журналистам от этого не легче – их уже уволили годом раньше.
The New York Times запустил Echo. Сотрудники могут использовать ИИ для генерации SEO-заголовков и промо, анализа документов и подготовки вопросов для интервью. При этом запрещено использовать искусственный интеллект для написания или переработки статей – вот только как это проконтролировать? Особенно учитывая, что детекторы ИИ пока не работают. Одновременно газета судится с OpenAI за воровство контента при обучении своего ИИ. Шизофрения? Нет, просто прогресс редакции нравится, только когда приносит деньги.
Associated Press разрешили журналистам «играться» с ChatGPT, но запретило публиковать сырой машинный текст. Bloomberg разработали BloombergGPT – модель, специально созданную для задач в сфере финансов, которая будет обрабатывать данные и генерировать инсайды и тексты для медиа.
А недавно появилась новость, что Washington Post тайком разрабатывает «Ripple» – платформу, где новички при поддержке чат-бота «Ember» будут писать колонки для газеты Безоса. Боковая панель будет подсказывать структуру, чат-бот – комментировать и предлагать идеи, а оценщик «драматургии» в реальном времени оценивать получившийся текст.
Что объединяет все эти кейсы? Деньги. Алгоритм прост:
• Берём LLM.
• Делаем сотню постов по ключевым запросам с аффилиат-ссылками.
• Сокращаем штат (платим в лучшем случае чаевые редактору-надсмотрщику).
• Ждём попадания в поисковую выдачу.
• Дополнительно можем попасть в выдачу ИИ-поисковиков с заранее заготовленным рекламным или аффилированным контентом.
И если читатель останется без ответа – не беда: воронка лидов уже сработала. С 2020 года число сайтов с ИИ-текстами на первой странице выдачи Google выросло в 8 раз. И несмотря на «мартовское обновление», которое как раз должно было вычислять и убирать из выдачи подобные сайты, бороться с этой ситуацией нормально у Google так и не получилось. Такими темпами в будущем нас ждут не редакции, а контент-фермы.
Это явление характерно не только для СМИ – мы уже писали про Duolingo, которые начали использовать ИИ для генерации курсов с кучей ошибок и неточностей, предпочтя качеству – количество. А экстремисты из Meta спят и видят, как полностью автоматизировать создание рекламы с помощью искусственного интеллекта. Вопрос, какое качество будет у таких рекламных материалов?
И всё бы ничего – прогресс не остановить, за генеративными текстами будущее. Но ключевое слово здесь «будущее», причём не понятно, насколько отдалённое. Когда ИИ сможет преодолеть так называемый «verification gap» и научится самостоятельно верифицировать тексты, искать фейки и оценивать правдивость результата. А ещё получит подобие «человечности» и «жизненного опыта», без которых сделать это практически невозможно. А пока отдельные редакции в погоне за хайпом убивают саму суть журналистики.
Утренняя реплика Ильи Власова о том, как ИИ превращает редакции в контент-фермы
В 2010-х медиа научились жить без бумаги, но, похоже, к 2025 учатся жить и без журналистов. Все больше редакций сокращают персонал и внедряют ИИ-копайлотов для создания текстов. Правда, уже наступает «похмелье» – в виде гор мусорного контента.
Началось всё с CNET: сайт тихо разместил 70-с лишним «финансовых» статей. И только крошечная надпись сообщала, что писал их искусственный интеллект. Когда читатели присмотрелись, выяснилось, что бот не только путал годовую процентную ставку с процентной доходностью, но ещё и воровал абзацы у Forbes, Investopedia и даже у самого CNET, меняя слова местами. Хотя редакция обещала, что все тексты «будут проходить ревизию редактора». Ну да, верим.
Практика как раз показывает иное. Очень велик соблазн – делегировать создание контента ИИ, денег получать столько же, сколько и до этого, но платить работникам в несколько раз меньше. И вот десятки клонов ринулись клепать такой же «контент». Ведь если CNET не стыдно – почему должно быть стыдно им? Gannett пытался автоматизировать репортажи о школьном футболе, но даже там ИИ умудрился оставить заглушки вроде [[WINNING_TEAM_MASCOT]]. В итоге проект приостановили, но журналистам от этого не легче – их уже уволили годом раньше.
The New York Times запустил Echo. Сотрудники могут использовать ИИ для генерации SEO-заголовков и промо, анализа документов и подготовки вопросов для интервью. При этом запрещено использовать искусственный интеллект для написания или переработки статей – вот только как это проконтролировать? Особенно учитывая, что детекторы ИИ пока не работают. Одновременно газета судится с OpenAI за воровство контента при обучении своего ИИ. Шизофрения? Нет, просто прогресс редакции нравится, только когда приносит деньги.
Associated Press разрешили журналистам «играться» с ChatGPT, но запретило публиковать сырой машинный текст. Bloomberg разработали BloombergGPT – модель, специально созданную для задач в сфере финансов, которая будет обрабатывать данные и генерировать инсайды и тексты для медиа.
А недавно появилась новость, что Washington Post тайком разрабатывает «Ripple» – платформу, где новички при поддержке чат-бота «Ember» будут писать колонки для газеты Безоса. Боковая панель будет подсказывать структуру, чат-бот – комментировать и предлагать идеи, а оценщик «драматургии» в реальном времени оценивать получившийся текст.
Что объединяет все эти кейсы? Деньги. Алгоритм прост:
• Берём LLM.
• Делаем сотню постов по ключевым запросам с аффилиат-ссылками.
• Сокращаем штат (платим в лучшем случае чаевые редактору-надсмотрщику).
• Ждём попадания в поисковую выдачу.
• Дополнительно можем попасть в выдачу ИИ-поисковиков с заранее заготовленным рекламным или аффилированным контентом.
И если читатель останется без ответа – не беда: воронка лидов уже сработала. С 2020 года число сайтов с ИИ-текстами на первой странице выдачи Google выросло в 8 раз. И несмотря на «мартовское обновление», которое как раз должно было вычислять и убирать из выдачи подобные сайты, бороться с этой ситуацией нормально у Google так и не получилось. Такими темпами в будущем нас ждут не редакции, а контент-фермы.
Это явление характерно не только для СМИ – мы уже писали про Duolingo, которые начали использовать ИИ для генерации курсов с кучей ошибок и неточностей, предпочтя качеству – количество. А экстремисты из Meta спят и видят, как полностью автоматизировать создание рекламы с помощью искусственного интеллекта. Вопрос, какое качество будет у таких рекламных материалов?
И всё бы ничего – прогресс не остановить, за генеративными текстами будущее. Но ключевое слово здесь «будущее», причём не понятно, насколько отдалённое. Когда ИИ сможет преодолеть так называемый «verification gap» и научится самостоятельно верифицировать тексты, искать фейки и оценивать правдивость результата. А ещё получит подобие «человечности» и «жизненного опыта», без которых сделать это практически невозможно. А пока отдельные редакции в погоне за хайпом убивают саму суть журналистики.
❤2
  Как ИИ изменит мир к 2030 году (в фантазиях Альтмана)
CEO OpenAI опубликовал манифест о «мягкой сингулярности». Главный тезис: технологический переворот уже случился и мы внутри сингулярности, просто пока не заметили 🤷♂️
Сотни миллионов людей ежедневно полагаются на ChatGPT для решения задач. Ученые якобы работают в 2-3 раза продуктивнее благодаря ИИ, а системы вроде o3 превосходят человека во многих интеллектуальных задачах.
Сэм видит несколько стадий развития технологии:
• В этом году появились и будут развиваться агентные системы
• В 2026 будет ИИ, который сможет генерировать «инсайты» — новое знание (подобное анонсировал Маск, который больше месяца не может выпустить Grok 3.5)
• К 2027 появятся роботы, которые научатся выполнять задачи реального мира
• К 2030 нас ждёт вымирание многих профессий, производственные цепочки гуманоидных роботов, переосмысление распределения благ на планете и т.д., и т.п.
Масштабирование дата-центров может свести цену «интеллекта» к цене электроэнергии. Масштабировать их сможем за счёт гуманоидных роботов: первый миллион построим традиционно, а дальше они сами будут добывать ресурсы, строить себе подобных роботов и дата-центры. Получится рекурсивный процесс, где ИИ улучшает себя сам. Напоминает мультфильм «9» или «Терминатора»… Нюанс – оба фильма в жанре антиутопии.
Мысли занимательные, но не новые. Футурист Альтман в своём репертуаре. Говорите, интеллект по цене электричества? Ну так и получите рост цены электричества, которое, удивительно, не берётся из воздуха. Чем больше потребляют дата-центры, тем больше электростанций придётся строить, для этого нужно больше невозобновляемых ресурсов (которые растут в цене по мере роста спроса) и компетенций, за которые развернётся настоящее сражение. А страдать будут домохозяйства, у которых вырастет ценник ЖКУ.
Все хотят миллион роботов через 2 года – и не думают, что уровень роботизации сегодня, даже с простыми конвейерными роботами, заточенными на несколько задач, очень низкий. Почему гуманоидные роботы, менее надёжные, более неловкие и ограниченные – должны стать повсеместно популярными? Зачем странам, не прошедшим предыдущий этап роботизации, вкладываться в подобные авантюры? Зачем людям брать домой металлического робота, который может сойти с ума и начать крушить все вокруг (а потенциально их самих или детей)? Да и нет миллиона роботов. Реальные планы – в лучшем случае десятки тысяч к 2027.
Подобная «сингулярность» может случиться разве что на территории отдельных стран или производств. А в мире до сих пор не везде есть Интернет, поэтому преувеличивать масштаб преобразований не стоит – хотя американцу на острие технологической революции сложно от этого удержаться. Если Сэм Альтман пишет такие тексты не для привлечения инвестиций, а потому что искренне верит – ему можно позавидовать. Есть надежда, что когда-то он напишет фантастический роман.
CEO OpenAI опубликовал манифест о «мягкой сингулярности». Главный тезис: технологический переворот уже случился и мы внутри сингулярности, просто пока не заметили 🤷♂️
Сотни миллионов людей ежедневно полагаются на ChatGPT для решения задач. Ученые якобы работают в 2-3 раза продуктивнее благодаря ИИ, а системы вроде o3 превосходят человека во многих интеллектуальных задачах.
Сэм видит несколько стадий развития технологии:
• В этом году появились и будут развиваться агентные системы
• В 2026 будет ИИ, который сможет генерировать «инсайты» — новое знание (подобное анонсировал Маск, который больше месяца не может выпустить Grok 3.5)
• К 2027 появятся роботы, которые научатся выполнять задачи реального мира
• К 2030 нас ждёт вымирание многих профессий, производственные цепочки гуманоидных роботов, переосмысление распределения благ на планете и т.д., и т.п.
Масштабирование дата-центров может свести цену «интеллекта» к цене электроэнергии. Масштабировать их сможем за счёт гуманоидных роботов: первый миллион построим традиционно, а дальше они сами будут добывать ресурсы, строить себе подобных роботов и дата-центры. Получится рекурсивный процесс, где ИИ улучшает себя сам. Напоминает мультфильм «9» или «Терминатора»… Нюанс – оба фильма в жанре антиутопии.
Мысли занимательные, но не новые. Футурист Альтман в своём репертуаре. Говорите, интеллект по цене электричества? Ну так и получите рост цены электричества, которое, удивительно, не берётся из воздуха. Чем больше потребляют дата-центры, тем больше электростанций придётся строить, для этого нужно больше невозобновляемых ресурсов (которые растут в цене по мере роста спроса) и компетенций, за которые развернётся настоящее сражение. А страдать будут домохозяйства, у которых вырастет ценник ЖКУ.
Все хотят миллион роботов через 2 года – и не думают, что уровень роботизации сегодня, даже с простыми конвейерными роботами, заточенными на несколько задач, очень низкий. Почему гуманоидные роботы, менее надёжные, более неловкие и ограниченные – должны стать повсеместно популярными? Зачем странам, не прошедшим предыдущий этап роботизации, вкладываться в подобные авантюры? Зачем людям брать домой металлического робота, который может сойти с ума и начать крушить все вокруг (а потенциально их самих или детей)? Да и нет миллиона роботов. Реальные планы – в лучшем случае десятки тысяч к 2027.
Подобная «сингулярность» может случиться разве что на территории отдельных стран или производств. А в мире до сих пор не везде есть Интернет, поэтому преувеличивать масштаб преобразований не стоит – хотя американцу на острие технологической революции сложно от этого удержаться. Если Сэм Альтман пишет такие тексты не для привлечения инвестиций, а потому что искренне верит – ему можно позавидовать. Есть надежда, что когда-то он напишет фантастический роман.
🤣5🔥1
  Суд против Midjourney открывает Ящик Пандоры
Disney и Universal впервые подали в суд на один из самых популярных сервисов для генерации изображений – и открыли ящик Пандоры для всей индустрии.
Компании обвинили Midjourney в краже персонажей. Мол, нейросеть умеет рисовать Дэдпула, Йоду, миньонов и т.д. – без разрешения. А компания зарабатывает на этом 300 миллионов долларов в год, которые идут мимо карманов студий. Они требуют запретить такие генерации и выплатить компенсацию.
Кто виноват? Midjourney без спроса обучили свою модель на миллионах картинок – это факт. С другой стороны, сервис просто предоставляет инструмент, а пользователи принимают осознанное решение, что генерировать и как использовать результаты. В том же Фотошопе можно нарисовать Микки Мауса и продавать с ним потом футболки – но Adobe за это никто не судит.
Midjourney – это первый шаг. За ними, по логике, должны пойти в суд все остальные: OpenAI, Google, Stable Diffusion и так далее. Подождите – а ведь они уже в суде. Getty Images судится со Stability AI, против OpenAI идут процессы о нарушении авторских прав, музыкальные лейблы (Sony, Universal, Warner) подали иски против Suno и Udio. Хотя такой масштаб, как сейчас, мы видим впервые.
Что делать? Можно просто запретить упоминание авторского контента во время генерации. Но проблему обучения моделей на чужом контенте это не решает (и как быть с «украденным» стилем, как в случае OpenAI и Ghibli?), а сервисы теряют огромный пласт ценности для пользователей. Заключать договоры с каждым правообладателем? Даже если предположить, что это получится реализовать, придется следить за всеми запросами пользователей и отправлять их сторонним лицам – прощай, приватность. Есть ещё вариант судиться с самими пользователями… Но они переложат вину на компании, обучавшие модели.
Получается патовая ситуация. Студии теряют контроль над интеллектуальной собственностью, ИИ-компании не хотят терять прибыль, пользователи требуют свободы творчества. При этом авторские права в эпоху ИИ юридически не урегулированы. Поэтому есть подозрение, что этот иск – только начало: следующие в очереди музыкальные лейблы, издательства, фотостоки. Авторы и правообладатели не будут бесконечно смотреть на утекающие сквозь пальцы деньги.
Впрочем, лоббистские возможности ИИ-индустрии тоже не стоит сбрасывать со счетов: мы помним, как быстро покидают должности чиновники, которые говорят о злоупотреблении авторским правом при обучении моделей.
Disney и Universal впервые подали в суд на один из самых популярных сервисов для генерации изображений – и открыли ящик Пандоры для всей индустрии.
Компании обвинили Midjourney в краже персонажей. Мол, нейросеть умеет рисовать Дэдпула, Йоду, миньонов и т.д. – без разрешения. А компания зарабатывает на этом 300 миллионов долларов в год, которые идут мимо карманов студий. Они требуют запретить такие генерации и выплатить компенсацию.
Кто виноват? Midjourney без спроса обучили свою модель на миллионах картинок – это факт. С другой стороны, сервис просто предоставляет инструмент, а пользователи принимают осознанное решение, что генерировать и как использовать результаты. В том же Фотошопе можно нарисовать Микки Мауса и продавать с ним потом футболки – но Adobe за это никто не судит.
Midjourney – это первый шаг. За ними, по логике, должны пойти в суд все остальные: OpenAI, Google, Stable Diffusion и так далее. Подождите – а ведь они уже в суде. Getty Images судится со Stability AI, против OpenAI идут процессы о нарушении авторских прав, музыкальные лейблы (Sony, Universal, Warner) подали иски против Suno и Udio. Хотя такой масштаб, как сейчас, мы видим впервые.
Что делать? Можно просто запретить упоминание авторского контента во время генерации. Но проблему обучения моделей на чужом контенте это не решает (и как быть с «украденным» стилем, как в случае OpenAI и Ghibli?), а сервисы теряют огромный пласт ценности для пользователей. Заключать договоры с каждым правообладателем? Даже если предположить, что это получится реализовать, придется следить за всеми запросами пользователей и отправлять их сторонним лицам – прощай, приватность. Есть ещё вариант судиться с самими пользователями… Но они переложат вину на компании, обучавшие модели.
Получается патовая ситуация. Студии теряют контроль над интеллектуальной собственностью, ИИ-компании не хотят терять прибыль, пользователи требуют свободы творчества. При этом авторские права в эпоху ИИ юридически не урегулированы. Поэтому есть подозрение, что этот иск – только начало: следующие в очереди музыкальные лейблы, издательства, фотостоки. Авторы и правообладатели не будут бесконечно смотреть на утекающие сквозь пальцы деньги.
Впрочем, лоббистские возможности ИИ-индустрии тоже не стоит сбрасывать со счетов: мы помним, как быстро покидают должности чиновники, которые говорят о злоупотреблении авторским правом при обучении моделей.
❤3
  Siri будет лучше всех, но когда-нибудь потом
Руководитель отдела ПО Apple Крейг Федериги и руководитель отдела маркетинга Грег Джозвяк пришли с повинной на интервью в The Wall Street Journal. Они полчаса рассказывают, что с Siri всё не так однозначно, новый дизайн космически хорош и в будущем нас точно ждёт прорыв в сфере ИИ от компании.
Apple теперь официально признала провал с «умной» Siri, анонсированной год назад. Руководители объясняют задержку «стремлением к качеству». Компания дважды переносила сроки – сначала с конца 2024 года на весну 2025, потом и вовсе отказалась от временных рамок. Причина – «неприемлемая частота ошибок» первой версии архитектуры. Пришлось начинать с нуля и переходить к V2.
Apple настаивает, что демонстрация в 2024 году была честной – мол, работало реальное ПО с большой языковой моделью и семантическим поиском. А выпускать отказались потому, что… За пределами заготовленных сценариев она не работала. То есть разница с «демо-версией» чисто терминологическая, по факту у компании не было готового продукта и они надеялись на авось.
При этом компания принципиально отказывается от итеративного подхода. В Apple не хотят создавать чат-бот как отдельное приложение – цель интегрировать ИИ так глубоко, чтобы пользователи не замечали его присутствия. Отличная идея, но как выпустить продукт «не хуже конкурентов», если не тестировать его в реальных условиях?
Пока триллионная капитализация и армия инженеров не помогают сделать продукт на уровне с тем, что конкуренты уже давно предлагают пользователям. Самое смешное, что и Apple Intelligence не доступен на русском и ряде других языков – хотя тот же ChatGPT, который в него интегрирован, доступен без всяких проблем.
Оправдание у Apple тоже в духе компании: «Ну, мы же Apple, от нас ждут не просто хорошего, а лучшего продукта». Поэтому в итоге продукта не будет никакого, логично.
А пока Apple «совершенствует архитектуру», её ИИ работает в основном на чужих моделях. ChatGPT встроен в визуальный поиск и генерацию изображений, модели Anthropic используются в Xcode. Собственные разработки ограничены базовыми функциями – сокращение текста, создание списков, простые команды. Для компании уровня Apple такая зависимость выглядит странно: во-первых, это риск, а во-вторых, буквально признание, что сами не смогли.
Руководитель отдела ПО Apple Крейг Федериги и руководитель отдела маркетинга Грег Джозвяк пришли с повинной на интервью в The Wall Street Journal. Они полчаса рассказывают, что с Siri всё не так однозначно, новый дизайн космически хорош и в будущем нас точно ждёт прорыв в сфере ИИ от компании.
Apple теперь официально признала провал с «умной» Siri, анонсированной год назад. Руководители объясняют задержку «стремлением к качеству». Компания дважды переносила сроки – сначала с конца 2024 года на весну 2025, потом и вовсе отказалась от временных рамок. Причина – «неприемлемая частота ошибок» первой версии архитектуры. Пришлось начинать с нуля и переходить к V2.
Apple настаивает, что демонстрация в 2024 году была честной – мол, работало реальное ПО с большой языковой моделью и семантическим поиском. А выпускать отказались потому, что… За пределами заготовленных сценариев она не работала. То есть разница с «демо-версией» чисто терминологическая, по факту у компании не было готового продукта и они надеялись на авось.
При этом компания принципиально отказывается от итеративного подхода. В Apple не хотят создавать чат-бот как отдельное приложение – цель интегрировать ИИ так глубоко, чтобы пользователи не замечали его присутствия. Отличная идея, но как выпустить продукт «не хуже конкурентов», если не тестировать его в реальных условиях?
Пока триллионная капитализация и армия инженеров не помогают сделать продукт на уровне с тем, что конкуренты уже давно предлагают пользователям. Самое смешное, что и Apple Intelligence не доступен на русском и ряде других языков – хотя тот же ChatGPT, который в него интегрирован, доступен без всяких проблем.
Оправдание у Apple тоже в духе компании: «Ну, мы же Apple, от нас ждут не просто хорошего, а лучшего продукта». Поэтому в итоге продукта не будет никакого, логично.
А пока Apple «совершенствует архитектуру», её ИИ работает в основном на чужих моделях. ChatGPT встроен в визуальный поиск и генерацию изображений, модели Anthropic используются в Xcode. Собственные разработки ограничены базовыми функциями – сокращение текста, создание списков, простые команды. Для компании уровня Apple такая зависимость выглядит странно: во-первых, это риск, а во-вторых, буквально признание, что сами не смогли.
👍2
  #нейродайджест CRAI за неделю
• Суд против Midjourney открывает Ящик Пандоры
Первый серьёзный удар по ИИ-индустрии – студии требуют запретить генерацию их персонажей и выплатить компенсацию. За Midjourney в очереди все остальные.
• ИИ превращает редакции в контент-фермы
Медиаиндустрия тихо превращается в контент-фермы, где ИИ заменяет журналистов.
• Искусственный интеллект учится предавать союзников
18 передовых ИИ-моделей посадили играть в «Дипломатию». DeepSeek угрожал, o3 строил сложные обманные схемы, а Claude упорно искал мирные решения даже перед лицом поражения. Эксперимент показывает, как ИИ ведёт себя под давлением.
 
• Как ИИ изменит мир к 2030 году (в фантазиях Альтмана)
CEO OpenAI написал манифест: роботы будут строить роботов, интеллект станет стоить как электричество, миллионы профессий исчезнут. Заявления дерзкие, но есть нюанс.
• Apple признала провал с «умной» Siri
Компания раскрыла причины, почему обещанное год назад обновление Siri так и не вышло. Причина – из-за проблем архитектуры пришлось всё переделывать заново.
• «Думающие» модели думают слишком много
Apple выяснили, что «рассуждающие» модели (o3, DeepSeek R1, Claude Thinking) не думают, а воспроизводят паттерны. Один лишний факт в задаче – и даже сильнейшие ИИ начинают делать ненужные вычисления.
• Apple раздала ИИ-инструменты разработчикам
Компания пытается переложить разработку ИИ на плечи других разработчиков
• Искусственный интеллект экономит британским чиновникам полчаса в день
20 тысяч госслужащих протестировали Microsoft Copilot и сэкономили... 26 минут в день. При этом никто не знает, куда тратится освобожденное время – на работу или походы в паб.
  • Суд против Midjourney открывает Ящик Пандоры
Первый серьёзный удар по ИИ-индустрии – студии требуют запретить генерацию их персонажей и выплатить компенсацию. За Midjourney в очереди все остальные.
• ИИ превращает редакции в контент-фермы
Медиаиндустрия тихо превращается в контент-фермы, где ИИ заменяет журналистов.
• Искусственный интеллект учится предавать союзников
18 передовых ИИ-моделей посадили играть в «Дипломатию». DeepSeek угрожал, o3 строил сложные обманные схемы, а Claude упорно искал мирные решения даже перед лицом поражения. Эксперимент показывает, как ИИ ведёт себя под давлением.
• Как ИИ изменит мир к 2030 году (в фантазиях Альтмана)
CEO OpenAI написал манифест: роботы будут строить роботов, интеллект станет стоить как электричество, миллионы профессий исчезнут. Заявления дерзкие, но есть нюанс.
• Apple признала провал с «умной» Siri
Компания раскрыла причины, почему обещанное год назад обновление Siri так и не вышло. Причина – из-за проблем архитектуры пришлось всё переделывать заново.
• «Думающие» модели думают слишком много
Apple выяснили, что «рассуждающие» модели (o3, DeepSeek R1, Claude Thinking) не думают, а воспроизводят паттерны. Один лишний факт в задаче – и даже сильнейшие ИИ начинают делать ненужные вычисления.
• Apple раздала ИИ-инструменты разработчикам
Компания пытается переложить разработку ИИ на плечи других разработчиков
• Искусственный интеллект экономит британским чиновникам полчаса в день
20 тысяч госслужащих протестировали Microsoft Copilot и сэкономили... 26 минут в день. При этом никто не знает, куда тратится освобожденное время – на работу или походы в паб.
Зачем Цукерберг тратит 15 миллиардов долларов на данные?
Марк Цукерберг выписал чек на 14,3 миллиарда долларов – за половину компании, о которой многие даже не слышали. Scale AI не создает модели и не разрабатывает чипы – она делает куда более скучную работу: учит искусственный интеллект отличать кота от собаки. Только в прошлом году Scale AI привлекла 1 миллиард долларов от инвесторов, включая Amazon и Meta*, с оценкой в 13,8 миллиарда долларов.
За этой сделкой стоит один из самых дефицитных ресурсов в мире ИИ – качественные данные. Scale AI нанимает кучу людей, которые вручную размечают миллионы изображений, текстов и видео. Именно эти данные используются для тренировки ИИ-моделей. Цукерберг покупает не стартап, а конвейер, работающий на OpenAI, Anthropic, Meta* и других гигантов.
Самое интересное – устройство сделки. Meta* получает 49% без места в совете, а CEO Scale Александр Ванг переходит к Цукербергу возглавлять новую лабораторию «сверхинтеллекта». Формально Scale остается независимой и продолжает работать с конкурентами, но те вряд ли будут покупать данные у компании, которая наполовину принадлежит их главному сопернику.
Отдельные коллеги писали, что сделка осуществляется ради Ванга, которого Марк хочет заменить к себе. Возможно, конечно, что так, но как будто данные в данном случае важнее. Тем более что такой подход может помочь Марку замедлить конкурентов (OpenAI, например, уже сокращают количество заказов у Scale) и улучшить свои модели (ведь Llama 4 не до конца оправдала ожидания).
* компания Meta и её продукты признаны экстремистскими в России.
  Марк Цукерберг выписал чек на 14,3 миллиарда долларов – за половину компании, о которой многие даже не слышали. Scale AI не создает модели и не разрабатывает чипы – она делает куда более скучную работу: учит искусственный интеллект отличать кота от собаки. Только в прошлом году Scale AI привлекла 1 миллиард долларов от инвесторов, включая Amazon и Meta*, с оценкой в 13,8 миллиарда долларов.
За этой сделкой стоит один из самых дефицитных ресурсов в мире ИИ – качественные данные. Scale AI нанимает кучу людей, которые вручную размечают миллионы изображений, текстов и видео. Именно эти данные используются для тренировки ИИ-моделей. Цукерберг покупает не стартап, а конвейер, работающий на OpenAI, Anthropic, Meta* и других гигантов.
Самое интересное – устройство сделки. Meta* получает 49% без места в совете, а CEO Scale Александр Ванг переходит к Цукербергу возглавлять новую лабораторию «сверхинтеллекта». Формально Scale остается независимой и продолжает работать с конкурентами, но те вряд ли будут покупать данные у компании, которая наполовину принадлежит их главному сопернику.
Отдельные коллеги писали, что сделка осуществляется ради Ванга, которого Марк хочет заменить к себе. Возможно, конечно, что так, но как будто данные в данном случае важнее. Тем более что такой подход может помочь Марку замедлить конкурентов (OpenAI, например, уже сокращают количество заказов у Scale) и улучшить свои модели (ведь Llama 4 не до конца оправдала ожидания).
* компания Meta и её продукты признаны экстремистскими в России.
Протестировали новый браузер Dia от Browser Company в модном нынче направлении «AI-first», то бишь делающий ставку на взаимодействие со встроенным искусственным интеллектом. Ещё и слоган такой необычный – «общайся со своими вкладками». Сменили IP-адрес на забугорный (а без этого он не работает) и пообщались.
Чем Dia отличается от обычного браузера? Вопрос философский, но если смотреть на функции – в адресной строке и боковой панели поселился ChatGPT, и браузер сам решает, когда запрос нужно обработать в обычном поиске от Google, а когда – ответить с помощью ИИ.
Также он умеет при ответе, если попросите, учитывать контекст с открытых вкладок. Очень похоже на функцию «Спросить по странице», которая недавно появилась в Яндекс Браузере (только одновременно можно добавить не одну страницу, а несколько).
Глобально это ничем не отличается от NotebookLM, ChatGPT или Perplexity, только ссылки здесь не надо копировать, а достаточно просто открыть. Никаких иных функций, агентных инструментов, глубокого исследования, автоматического открытия вкладок и выполнения действий – здесь нет. Зато можно выделить текст на странице, чтобы он автоматически отправился на вход ИИ-модели – вот она, обещанная экономия времени.
Что в итоге? Это довольно сырой Chromium без настроек, кастомизации, с немного изменённым дизайном – куда по API добавили модель GPT 4.1 от OpenAI. Компания зачем-то отказалась от многих интересных фишек, которые делали оригинальных их предыдущий браузер Arc – в том числе и основанных на базе ИИ. Да, пока это бета – но зачем вообще её выкладывать в таком виде? Не понятно. Очень хотелось хайпануть, попасть в новости и первыми выпустить «ИИ-браузер», а в итоге забыли добавить туда тот самый ИИ.
Чем Dia отличается от обычного браузера? Вопрос философский, но если смотреть на функции – в адресной строке и боковой панели поселился ChatGPT, и браузер сам решает, когда запрос нужно обработать в обычном поиске от Google, а когда – ответить с помощью ИИ.
Также он умеет при ответе, если попросите, учитывать контекст с открытых вкладок. Очень похоже на функцию «Спросить по странице», которая недавно появилась в Яндекс Браузере (только одновременно можно добавить не одну страницу, а несколько).
Глобально это ничем не отличается от NotebookLM, ChatGPT или Perplexity, только ссылки здесь не надо копировать, а достаточно просто открыть. Никаких иных функций, агентных инструментов, глубокого исследования, автоматического открытия вкладок и выполнения действий – здесь нет. Зато можно выделить текст на странице, чтобы он автоматически отправился на вход ИИ-модели – вот она, обещанная экономия времени.
Что в итоге? Это довольно сырой Chromium без настроек, кастомизации, с немного изменённым дизайном – куда по API добавили модель GPT 4.1 от OpenAI. Компания зачем-то отказалась от многих интересных фишек, которые делали оригинальных их предыдущий браузер Arc – в том числе и основанных на базе ИИ. Да, пока это бета – но зачем вообще её выкладывать в таком виде? Не понятно. Очень хотелось хайпануть, попасть в новости и первыми выпустить «ИИ-браузер», а в итоге забыли добавить туда тот самый ИИ.
😁2👍1🙈1🙉1🙊1
  Цукерберг хочет успеть раньше Дурова
WhatsApp запускает тестирование функции суммирования непрочитанных сообщений на базе искусственного интеллекта. Пока только для части пользователей Android, через новую настройку Private Processing.
Принцип работы стандартный: накопилось много сообщений – появляется кнопка «Summarize with Meta* AI» вместо счётчика непрочитанных. Пока не совсем понятно, где будет выводиться результат, будут ли там ссылки на конкретные посты, откуда взята информация и как в целом изменится интерфейс.
Осознавая, что пользователям в голову могут закрасться крамольные мысли о целесообразности отправки сообщений из «приватного» мессенджера на сервера Meta*, компания заранее открещивается – обрабатывать данные обещают в изолированном облаке с «немедленным» удалением после создания сводки. А в чатах с повышенной приватностью функция будет отключаться автоматически.
Параллельно разрабатывается Writing Help – инструмент для корректировки тона сообщений перед отправкой, который, по сути, научится писать сообщения за пользователей. Получается замкнутый цикл, о котором мы как-то уже говорили: ИИ будет писать, суммировать и читать написанное за получателей.
Будут ли новые функции работать в России и на русском языке – не понятно, особенно учитывая, что сам по себе Meta* AI и другие сервисы компании не доступны. Хотя при этом WhatsApp работает… Пока вопросов больше, чем ответов.
Видимо, тёплые отношения Павла Дурова с Маском и его нейросетью Grok, которую собираются интегрировать в Телеграм уже летом – очень впечатлили Марка Цукерберга. Именно поэтому он, по сути, в урезанном формате скопировал несколько функций из анонса Дурова, добавив их к себе в мессенджер. По крайней мере, выглядит это именно так. Другое дело, что для каналов с сотнями непрочитанных они будут гораздо полезнее, чем для чатов с живыми людьми.
* признана экстремистской организацией
WhatsApp запускает тестирование функции суммирования непрочитанных сообщений на базе искусственного интеллекта. Пока только для части пользователей Android, через новую настройку Private Processing.
Принцип работы стандартный: накопилось много сообщений – появляется кнопка «Summarize with Meta* AI» вместо счётчика непрочитанных. Пока не совсем понятно, где будет выводиться результат, будут ли там ссылки на конкретные посты, откуда взята информация и как в целом изменится интерфейс.
Осознавая, что пользователям в голову могут закрасться крамольные мысли о целесообразности отправки сообщений из «приватного» мессенджера на сервера Meta*, компания заранее открещивается – обрабатывать данные обещают в изолированном облаке с «немедленным» удалением после создания сводки. А в чатах с повышенной приватностью функция будет отключаться автоматически.
Параллельно разрабатывается Writing Help – инструмент для корректировки тона сообщений перед отправкой, который, по сути, научится писать сообщения за пользователей. Получается замкнутый цикл, о котором мы как-то уже говорили: ИИ будет писать, суммировать и читать написанное за получателей.
Будут ли новые функции работать в России и на русском языке – не понятно, особенно учитывая, что сам по себе Meta* AI и другие сервисы компании не доступны. Хотя при этом WhatsApp работает… Пока вопросов больше, чем ответов.
Видимо, тёплые отношения Павла Дурова с Маском и его нейросетью Grok, которую собираются интегрировать в Телеграм уже летом – очень впечатлили Марка Цукерберга. Именно поэтому он, по сути, в урезанном формате скопировал несколько функций из анонса Дурова, добавив их к себе в мессенджер. По крайней мере, выглядит это именно так. Другое дело, что для каналов с сотнями непрочитанных они будут гораздо полезнее, чем для чатов с живыми людьми.
* признана экстремистской организацией
👏1
  OpenAI идёт в армию (ради демократии)
Создатели ChatGPT заключили контракт с Пентагоном на 200 миллионов долларов и окончательно сблизились.
Контракт описан максимально расплывчато. Пентагон говорит о «ведении боевых действий», OpenAI – об административных задачах и медицинской помощи военным, а конкретики, как это водится у военных, ноль. Единственный внятный проект – системы ПВО против дронов совместно с Anduril, который мы упоминали в тексте про Кремниевую долину и бюджеты Пентагона. Здесь ИИ будет анализировать воздушные угрозы.
Параллельно компания запустила новый проект – OpenAI for Government (для органов власти, то бишь), где первым клиентом как раз станет Минобороны. Компания намерена в очередной раз помочь им бороться с бюрократией и т. д., и т. п. У них такое уже было раньше, называлось ChatGPT Gov, так что просто произошёл ребрендинг. В новой программе будут все проекты OpenAI с госструктурами.
Компания шла в объятия Пентагона стабильно и уверенно. Ещё в январе 2024 года они изменили политику ChatGPT, разрешив применение своих технологий в оборонной сфере. Тогда это прошло без особого шума, а вот теперь топ-менеджеры OpenAI надевают форму резервистов – Кевин Вейл и Боб МакГрю получили звания подполковников в «Отряде 201» (отсылка к HTTP-коду создания нового ресурса). К ним присоединились коллеги из компании Цукерберга и Palantir.
Такое сотрудничество совсем не кажется странным. Парадокс в том, что, будучи некоммерческой организацией, OpenAI хочет себе как можно больше денег, множит сомнительные проекты и думает только об инвестициях. Военный контракт идеально вписывается в эту логику: Пентагон щедр на бюджеты для «инноваций» (особенно когда на горизонте маячит китайская угроза), а OpenAI получает стабильное финансирование, хотя никто пока не понимает толком, за что именно.
  Создатели ChatGPT заключили контракт с Пентагоном на 200 миллионов долларов и окончательно сблизились.
Контракт описан максимально расплывчато. Пентагон говорит о «ведении боевых действий», OpenAI – об административных задачах и медицинской помощи военным, а конкретики, как это водится у военных, ноль. Единственный внятный проект – системы ПВО против дронов совместно с Anduril, который мы упоминали в тексте про Кремниевую долину и бюджеты Пентагона. Здесь ИИ будет анализировать воздушные угрозы.
Параллельно компания запустила новый проект – OpenAI for Government (для органов власти, то бишь), где первым клиентом как раз станет Минобороны. Компания намерена в очередной раз помочь им бороться с бюрократией и т. д., и т. п. У них такое уже было раньше, называлось ChatGPT Gov, так что просто произошёл ребрендинг. В новой программе будут все проекты OpenAI с госструктурами.
Компания шла в объятия Пентагона стабильно и уверенно. Ещё в январе 2024 года они изменили политику ChatGPT, разрешив применение своих технологий в оборонной сфере. Тогда это прошло без особого шума, а вот теперь топ-менеджеры OpenAI надевают форму резервистов – Кевин Вейл и Боб МакГрю получили звания подполковников в «Отряде 201» (отсылка к HTTP-коду создания нового ресурса). К ним присоединились коллеги из компании Цукерберга и Palantir.
Такое сотрудничество совсем не кажется странным. Парадокс в том, что, будучи некоммерческой организацией, OpenAI хочет себе как можно больше денег, множит сомнительные проекты и думает только об инвестициях. Военный контракт идеально вписывается в эту логику: Пентагон щедр на бюджеты для «инноваций» (особенно когда на горизонте маячит китайская угроза), а OpenAI получает стабильное финансирование, хотя никто пока не понимает толком, за что именно.
