Telegram Web Link
Forwarded from Content Review
ИИ-колумнист по вызову

Утренняя реплика Ильи Власова о том, как ИИ превращает редакции в контент-фермы

В 2010-х медиа научились жить без бумаги, но, похоже, к 2025 учатся жить и без журналистов. Все больше редакций сокращают персонал и внедряют ИИ-копайлотов для создания текстов. Правда, уже наступает «похмелье» – в виде гор мусорного контента.

Началось всё с CNET: сайт тихо разместил 70-с лишним «финансовых» статей. И только крошечная надпись сообщала, что писал их искусственный интеллект. Когда читатели присмотрелись, выяснилось, что бот не только путал годовую процентную ставку с процентной доходностью, но ещё и воровал абзацы у Forbes, Investopedia и даже у самого CNET, меняя слова местами. Хотя редакция обещала, что все тексты «будут проходить ревизию редактора». Ну да, верим.

Практика как раз показывает иное. Очень велик соблазн – делегировать создание контента ИИ, денег получать столько же, сколько и до этого, но платить работникам в несколько раз меньше. И вот десятки клонов ринулись клепать такой же «контент». Ведь если CNET не стыдно – почему должно быть стыдно им? Gannett пытался автоматизировать репортажи о школьном футболе, но даже там ИИ умудрился оставить заглушки вроде [[WINNING_TEAM_MASCOT]]. В итоге проект приостановили, но журналистам от этого не легче – их уже уволили годом раньше.

The New York Times запустил Echo. Сотрудники могут использовать ИИ для генерации SEO-заголовков и промо, анализа документов и подготовки вопросов для интервью. При этом запрещено использовать искусственный интеллект для написания или переработки статей – вот только как это проконтролировать? Особенно учитывая, что детекторы ИИ пока не работают. Одновременно газета судится с OpenAI за воровство контента при обучении своего ИИ. Шизофрения? Нет, просто прогресс редакции нравится, только когда приносит деньги.

Associated Press разрешили журналистам «играться» с ChatGPT, но запретило публиковать сырой машинный текст. Bloomberg разработали BloombergGPT – модель, специально созданную для задач в сфере финансов, которая будет обрабатывать данные и генерировать инсайды и тексты для медиа.

А недавно появилась новость, что Washington Post тайком разрабатывает «Ripple» – платформу, где новички при поддержке чат-бота «Ember» будут писать колонки для газеты Безоса. Боковая панель будет подсказывать структуру, чат-бот – комментировать и предлагать идеи, а оценщик «драматургии» в реальном времени оценивать получившийся текст.

Что объединяет все эти кейсы? Деньги. Алгоритм прост:
• Берём LLM.
• Делаем сотню постов по ключевым запросам с аффилиат-ссылками.
• Сокращаем штат (платим в лучшем случае чаевые редактору-надсмотрщику).
• Ждём попадания в поисковую выдачу.
• Дополнительно можем попасть в выдачу ИИ-поисковиков с заранее заготовленным рекламным или аффилированным контентом.

И если читатель останется без ответа – не беда: воронка лидов уже сработала. С 2020 года число сайтов с ИИ-текстами на первой странице выдачи Google выросло в 8 раз. И несмотря на «мартовское обновление», которое как раз должно было вычислять и убирать из выдачи подобные сайты, бороться с этой ситуацией нормально у Google так и не получилось. Такими темпами в будущем нас ждут не редакции, а контент-фермы.

Это явление характерно не только для СМИ – мы уже писали про Duolingo, которые начали использовать ИИ для генерации курсов с кучей ошибок и неточностей, предпочтя качеству – количество. А экстремисты из Meta спят и видят, как полностью автоматизировать создание рекламы с помощью искусственного интеллекта. Вопрос, какое качество будет у таких рекламных материалов?

И всё бы ничего – прогресс не остановить, за генеративными текстами будущее. Но ключевое слово здесь «будущее», причём не понятно, насколько отдалённое. Когда ИИ сможет преодолеть так называемый «verification gap» и научится самостоятельно верифицировать тексты, искать фейки и оценивать правдивость результата. А ещё получит подобие «человечности» и «жизненного опыта», без которых сделать это практически невозможно. А пока отдельные редакции в погоне за хайпом убивают саму суть журналистики.
2
Как ИИ изменит мир к 2030 году (в фантазиях Альтмана)

CEO OpenAI опубликовал манифест о «мягкой сингулярности». Главный тезис: технологический переворот уже случился и мы внутри сингулярности, просто пока не заметили 🤷‍♂️

Сотни миллионов людей ежедневно полагаются на ChatGPT для решения задач. Ученые якобы работают в 2-3 раза продуктивнее благодаря ИИ, а системы вроде o3 превосходят человека во многих интеллектуальных задачах.

Сэм видит несколько стадий развития технологии:
• В этом году появились и будут развиваться агентные системы
• В 2026 будет ИИ, который сможет генерировать «инсайты» — новое знание (подобное анонсировал Маск, который больше месяца не может выпустить Grok 3.5)
• К 2027 появятся роботы, которые научатся выполнять задачи реального мира
• К 2030 нас ждёт вымирание многих профессий, производственные цепочки гуманоидных роботов, переосмысление распределения благ на планете и т.д., и т.п.

Масштабирование дата-центров может свести цену «интеллекта» к цене электроэнергии. Масштабировать их сможем за счёт гуманоидных роботов: первый миллион построим традиционно, а дальше они сами будут добывать ресурсы, строить себе подобных роботов и дата-центры. Получится рекурсивный процесс, где ИИ улучшает себя сам. Напоминает мультфильм «9» или «Терминатора»… Нюанс – оба фильма в жанре антиутопии.

Мысли занимательные, но не новые. Футурист Альтман в своём репертуаре. Говорите, интеллект по цене электричества? Ну так и получите рост цены электричества, которое, удивительно, не берётся из воздуха. Чем больше потребляют дата-центры, тем больше электростанций придётся строить, для этого нужно больше невозобновляемых ресурсов (которые растут в цене по мере роста спроса) и компетенций, за которые развернётся настоящее сражение. А страдать будут домохозяйства, у которых вырастет ценник ЖКУ.

Все хотят миллион роботов через 2 года – и не думают, что уровень роботизации сегодня, даже с простыми конвейерными роботами, заточенными на несколько задач, очень низкий. Почему гуманоидные роботы, менее надёжные, более неловкие и ограниченные – должны стать повсеместно популярными? Зачем странам, не прошедшим предыдущий этап роботизации, вкладываться в подобные авантюры? Зачем людям брать домой металлического робота, который может сойти с ума и начать крушить все вокруг (а потенциально их самих или детей)? Да и нет миллиона роботов. Реальные планы – в лучшем случае десятки тысяч к 2027.

Подобная «сингулярность» может случиться разве что на территории отдельных стран или производств. А в мире до сих пор не везде есть Интернет, поэтому преувеличивать масштаб преобразований не стоит – хотя американцу на острие технологической революции сложно от этого удержаться. Если Сэм Альтман пишет такие тексты не для привлечения инвестиций, а потому что искренне верит – ему можно позавидовать. Есть надежда, что когда-то он напишет фантастический роман.
🤣5🔥1
Суд против Midjourney открывает Ящик Пандоры

Disney и Universal впервые подали в суд на один из самых популярных сервисов для генерации изображений – и открыли ящик Пандоры для всей индустрии.

Компании обвинили Midjourney в краже персонажей. Мол, нейросеть умеет рисовать Дэдпула, Йоду, миньонов и т.д. – без разрешения. А компания зарабатывает на этом 300 миллионов долларов в год, которые идут мимо карманов студий. Они требуют запретить такие генерации и выплатить компенсацию.

Кто виноват? Midjourney без спроса обучили свою модель на миллионах картинок – это факт. С другой стороны, сервис просто предоставляет инструмент, а пользователи принимают осознанное решение, что генерировать и как использовать результаты. В том же Фотошопе можно нарисовать Микки Мауса и продавать с ним потом футболки – но Adobe за это никто не судит.

Midjourney – это первый шаг. За ними, по логике, должны пойти в суд все остальные: OpenAI, Google, Stable Diffusion и так далее. Подождите – а ведь они уже в суде. Getty Images судится со Stability AI, против OpenAI идут процессы о нарушении авторских прав, музыкальные лейблы (Sony, Universal, Warner) подали иски против Suno и Udio. Хотя такой масштаб, как сейчас, мы видим впервые.

Что делать? Можно просто запретить упоминание авторского контента во время генерации. Но проблему обучения моделей на чужом контенте это не решает (и как быть с «украденным» стилем, как в случае OpenAI и Ghibli?), а сервисы теряют огромный пласт ценности для пользователей. Заключать договоры с каждым правообладателем? Даже если предположить, что это получится реализовать, придется следить за всеми запросами пользователей и отправлять их сторонним лицам – прощай, приватность. Есть ещё вариант судиться с самими пользователями… Но они переложат вину на компании, обучавшие модели.

Получается патовая ситуация. Студии теряют контроль над интеллектуальной собственностью, ИИ-компании не хотят терять прибыль, пользователи требуют свободы творчества. При этом авторские права в эпоху ИИ юридически не урегулированы. Поэтому есть подозрение, что этот иск – только начало: следующие в очереди музыкальные лейблы, издательства, фотостоки. Авторы и правообладатели не будут бесконечно смотреть на утекающие сквозь пальцы деньги.

Впрочем, лоббистские возможности ИИ-индустрии тоже не стоит сбрасывать со счетов: мы помним, как быстро покидают должности чиновники, которые говорят о злоупотреблении авторским правом при обучении моделей.
3
Siri будет лучше всех, но когда-нибудь потом

Руководитель отдела ПО Apple Крейг Федериги и руководитель отдела маркетинга Грег Джозвяк пришли с повинной на интервью в The Wall Street Journal. Они полчаса рассказывают, что с Siri всё не так однозначно, новый дизайн космически хорош и в будущем нас точно ждёт прорыв в сфере ИИ от компании.

Apple теперь официально признала провал с «умной» Siri, анонсированной год назад. Руководители объясняют задержку «стремлением к качеству». Компания дважды переносила сроки – сначала с конца 2024 года на весну 2025, потом и вовсе отказалась от временных рамок. Причина – «неприемлемая частота ошибок» первой версии архитектуры. Пришлось начинать с нуля и переходить к V2.

Apple настаивает, что демонстрация в 2024 году была честной – мол, работало реальное ПО с большой языковой моделью и семантическим поиском. А выпускать отказались потому, что… За пределами заготовленных сценариев она не работала. То есть разница с «демо-версией» чисто терминологическая, по факту у компании не было готового продукта и они надеялись на авось.

При этом компания принципиально отказывается от итеративного подхода. В Apple не хотят создавать чат-бот как отдельное приложение – цель интегрировать ИИ так глубоко, чтобы пользователи не замечали его присутствия. Отличная идея, но как выпустить продукт «не хуже конкурентов», если не тестировать его в реальных условиях?

Пока триллионная капитализация и армия инженеров не помогают сделать продукт на уровне с тем, что конкуренты уже давно предлагают пользователям. Самое смешное, что и Apple Intelligence не доступен на русском и ряде других языков – хотя тот же ChatGPT, который в него интегрирован, доступен без всяких проблем.

Оправдание у Apple тоже в духе компании: «Ну, мы же Apple, от нас ждут не просто хорошего, а лучшего продукта». Поэтому в итоге продукта не будет никакого, логично.

А пока Apple «совершенствует архитектуру», её ИИ работает в основном на чужих моделях. ChatGPT встроен в визуальный поиск и генерацию изображений, модели Anthropic используются в Xcode. Собственные разработки ограничены базовыми функциями – сокращение текста, создание списков, простые команды. Для компании уровня Apple такая зависимость выглядит странно: во-первых, это риск, а во-вторых, буквально признание, что сами не смогли.
👍2
#нейродайджест CRAI за неделю

Суд против Midjourney открывает Ящик Пандоры
Первый серьёзный удар по ИИ-индустрии – студии требуют запретить генерацию их персонажей и выплатить компенсацию. За Midjourney в очереди все остальные.

ИИ превращает редакции в контент-фермы
Медиаиндустрия тихо превращается в контент-фермы, где ИИ заменяет журналистов.

Искусственный интеллект учится предавать союзников
18 передовых ИИ-моделей посадили играть в «Дипломатию». DeepSeek угрожал, o3 строил сложные обманные схемы, а Claude упорно искал мирные решения даже перед лицом поражения. Эксперимент показывает, как ИИ ведёт себя под давлением.

Как ИИ изменит мир к 2030 году (в фантазиях Альтмана)
CEO OpenAI написал манифест: роботы будут строить роботов, интеллект станет стоить как электричество, миллионы профессий исчезнут. Заявления дерзкие, но есть нюанс.

Apple признала провал с «умной» Siri
Компания раскрыла причины, почему обещанное год назад обновление Siri так и не вышло. Причина – из-за проблем архитектуры пришлось всё переделывать заново.

«Думающие» модели думают слишком много
Apple выяснили, что «рассуждающие» модели (o3, DeepSeek R1, Claude Thinking) не думают, а воспроизводят паттерны. Один лишний факт в задаче – и даже сильнейшие ИИ начинают делать ненужные вычисления.

Apple раздала ИИ-инструменты разработчикам
Компания пытается переложить разработку ИИ на плечи других разработчиков

Искусственный интеллект экономит британским чиновникам полчаса в день
20 тысяч госслужащих протестировали Microsoft Copilot и сэкономили... 26 минут в день. При этом никто не знает, куда тратится освобожденное время – на работу или походы в паб.
Зачем Цукерберг тратит 15 миллиардов долларов на данные?

Марк Цукерберг выписал чек на 14,3 миллиарда долларов – за половину компании, о которой многие даже не слышали. Scale AI не создает модели и не разрабатывает чипы – она делает куда более скучную работу: учит искусственный интеллект отличать кота от собаки. Только в прошлом году Scale AI привлекла 1 миллиард долларов от инвесторов, включая Amazon и Meta*, с оценкой в 13,8 миллиарда долларов.

За этой сделкой стоит один из самых дефицитных ресурсов в мире ИИ – качественные данные. Scale AI нанимает кучу людей, которые вручную размечают миллионы изображений, текстов и видео. Именно эти данные используются для тренировки ИИ-моделей. Цукерберг покупает не стартап, а конвейер, работающий на OpenAI, Anthropic, Meta* и других гигантов.

Самое интересное – устройство сделки. Meta* получает 49% без места в совете, а CEO Scale Александр Ванг переходит к Цукербергу возглавлять новую лабораторию «сверхинтеллекта». Формально Scale остается независимой и продолжает работать с конкурентами, но те вряд ли будут покупать данные у компании, которая наполовину принадлежит их главному сопернику.

Отдельные коллеги писали, что сделка осуществляется ради Ванга, которого Марк хочет заменить к себе. Возможно, конечно, что так, но как будто данные в данном случае важнее. Тем более что такой подход может помочь Марку замедлить конкурентов (OpenAI, например, уже сокращают количество заказов у Scale) и улучшить свои модели (ведь Llama 4 не до конца оправдала ожидания).

* компания Meta и её продукты признаны экстремистскими в России.
Протестировали новый браузер Dia от Browser Company в модном нынче направлении «AI-first», то бишь делающий ставку на взаимодействие со встроенным искусственным интеллектом. Ещё и слоган такой необычный – «общайся со своими вкладками». Сменили IP-адрес на забугорный (а без этого он не работает) и пообщались.

Чем Dia отличается от обычного браузера? Вопрос философский, но если смотреть на функции – в адресной строке и боковой панели поселился ChatGPT, и браузер сам решает, когда запрос нужно обработать в обычном поиске от Google, а когда – ответить с помощью ИИ.

Также он умеет при ответе, если попросите, учитывать контекст с открытых вкладок. Очень похоже на функцию «Спросить по странице», которая недавно появилась в Яндекс Браузере (только одновременно можно добавить не одну страницу, а несколько).

Глобально это ничем не отличается от NotebookLM, ChatGPT или Perplexity, только ссылки здесь не надо копировать, а достаточно просто открыть. Никаких иных функций, агентных инструментов, глубокого исследования, автоматического открытия вкладок и выполнения действий – здесь нет. Зато можно выделить текст на странице, чтобы он автоматически отправился на вход ИИ-модели – вот она, обещанная экономия времени.

Что в итоге? Это довольно сырой Chromium без настроек, кастомизации, с немного изменённым дизайном – куда по API добавили модель GPT 4.1 от OpenAI. Компания зачем-то отказалась от многих интересных фишек, которые делали оригинальных их предыдущий браузер Arc – в том числе и основанных на базе ИИ. Да, пока это бета – но зачем вообще её выкладывать в таком виде? Не понятно. Очень хотелось хайпануть, попасть в новости и первыми выпустить «ИИ-браузер», а в итоге забыли добавить туда тот самый ИИ.
😁2👍1🙈1🙉1🙊1
Цукерберг хочет успеть раньше Дурова

WhatsApp запускает тестирование функции суммирования непрочитанных сообщений на базе искусственного интеллекта. Пока только для части пользователей Android, через новую настройку Private Processing.

Принцип работы стандартный: накопилось много сообщений – появляется кнопка «Summarize with Meta* AI» вместо счётчика непрочитанных. Пока не совсем понятно, где будет выводиться результат, будут ли там ссылки на конкретные посты, откуда взята информация и как в целом изменится интерфейс.

Осознавая, что пользователям в голову могут закрасться крамольные мысли о целесообразности отправки сообщений из «приватного» мессенджера на сервера Meta*, компания заранее открещивается – обрабатывать данные обещают в изолированном облаке с «немедленным» удалением после создания сводки. А в чатах с повышенной приватностью функция будет отключаться автоматически.

Параллельно разрабатывается Writing Help – инструмент для корректировки тона сообщений перед отправкой, который, по сути, научится писать сообщения за пользователей. Получается замкнутый цикл, о котором мы как-то уже говорили: ИИ будет писать, суммировать и читать написанное за получателей.

Будут ли новые функции работать в России и на русском языке – не понятно, особенно учитывая, что сам по себе Meta* AI и другие сервисы компании не доступны. Хотя при этом WhatsApp работает… Пока вопросов больше, чем ответов.

Видимо, тёплые отношения Павла Дурова с Маском и его нейросетью Grok, которую собираются интегрировать в Телеграм уже летом – очень впечатлили Марка Цукерберга. Именно поэтому он, по сути, в урезанном формате скопировал несколько функций из анонса Дурова, добавив их к себе в мессенджер. По крайней мере, выглядит это именно так. Другое дело, что для каналов с сотнями непрочитанных они будут гораздо полезнее, чем для чатов с живыми людьми.

* признана экстремистской организацией
👏1
OpenAI идёт в армию (ради демократии)

Создатели ChatGPT заключили контракт с Пентагоном на 200 миллионов долларов и окончательно сблизились.


Контракт описан максимально расплывчато. Пентагон говорит о «ведении боевых действий», OpenAI – об административных задачах и медицинской помощи военным, а конкретики, как это водится у военных, ноль. Единственный внятный проект – системы ПВО против дронов совместно с Anduril, который мы упоминали в тексте про Кремниевую долину и бюджеты Пентагона. Здесь ИИ будет анализировать воздушные угрозы.

Параллельно компания запустила новый проект – OpenAI for Government (для органов власти, то бишь), где первым клиентом как раз станет Минобороны. Компания намерена в очередной раз помочь им бороться с бюрократией и т. д., и т. п. У них такое уже было раньше, называлось ChatGPT Gov, так что просто произошёл ребрендинг. В новой программе будут все проекты OpenAI с госструктурами.

Компания шла в объятия Пентагона стабильно и уверенно. Ещё в январе 2024 года они изменили политику ChatGPT, разрешив применение своих технологий в оборонной сфере. Тогда это прошло без особого шума, а вот теперь топ-менеджеры OpenAI надевают форму резервистов – Кевин Вейл и Боб МакГрю получили звания подполковников в «Отряде 201» (отсылка к HTTP-коду создания нового ресурса). К ним присоединились коллеги из компании Цукерберга и Palantir.

Такое сотрудничество совсем не кажется странным. Парадокс в том, что, будучи некоммерческой организацией, OpenAI хочет себе как можно больше денег, множит сомнительные проекты и думает только об инвестициях. Военный контракт идеально вписывается в эту логику: Пентагон щедр на бюджеты для «инноваций» (особенно когда на горизонте маячит китайская угроза), а OpenAI получает стабильное финансирование, хотя никто пока не понимает толком, за что именно.
Как сэкономить 25 миллионов на внедрении простого ИИ

Обнаружили прикладной кейс использования искусственного интеллекта (а скорее компьютерного зрения) от Т2 – компания автоматизировала контроль рекламных материалов в торговых точках с помощью ИИ. За полгода система проверила 400 тысяч фотографий и, по заявлениям компании, поможет сэкономить 25 миллионов рублей в год.

Задача, на первый взгляд, выглядит не сложно – проверить правильность размещения промоматериалов в точках продаж. Пока не начинаешь думать о том, что этих точек десятки тысяч (включая партнёрские), они расположены по всей стране и для проверки нужно неприлично большое количество сотрудников. В Т2 вот говорят, что это задача физически не могла быть выполнена вручную.

Поэтому компания решила собственными силами, в Т2 in-house, сделать сервис для решения проблемы. Получился написанный на Python бот в Телеграме. Почему Телеграм – понятно, ведь так сотрудникам не надо ставить сторонние приложения и заново учиться ими пользоваться, да и цикл разработки быстрее. А национальные мессенджеры, к сожалению, пока не пользуются такой же народной любовью.

У компании уже есть опыт в использовании нейросетей для контроля оформления франшизных точек продаж, такой продукт был запущен ещё несколько лет назад. Теперь сделали сервис для POSM материалов. Следующий шаг – внедрение более сложных моделей компьютерного зрения на базе фидбэка и повторной экспертизы сотрудников. Так как базовая автоматизация окупилась, теперь можно инвестировать в расширение функциональности и перенаправить деньги куда-то ещё.
И ты, Брут?

Сказ о том, как Сэм Альтман кинул Microsoft, которые хотели кинуть Сэма Альтмана.

История OpenAI – это мастер-класс по пользованию своими инвесторами. Сначала Сэм Альтман сотрудничал с Маском и брал у него деньги, а потом унюхал ветер перемен, отказался де-факто (не де-юре) от некоммерческой сути компании и переметнулся к Microsoft. Правда, когда тот же ветер перемен подул снова – как было удержаться?

Microsoft оказались в неловкой ситуации. Компания вложила 13 миллиардов долларов в OpenAI и сделала их технологии основой почти для всех своих ИИ-продуктов. По сути, Microsoft своими руками взрастил конкурента, от которого теперь зависит. Ну а «партнёрство», которое выгодно кому-то больше, чем OpenAI, Сэма Альтмана не устраивает.

Он хочет снизить долю доходов, передаваемых Microsoft, с нынешних 20% до 10% к 2030 году, и получить одобрение на преобразование в общественно-полезную корпорацию. Правда, Microsoft тоже не лыком шиты и готовы пойти на уступки… Но требуют гарантии доступа к технологиям после 2030 года и больше предложенных 33% акций в реструктурированной компании.

Формально стороны говорят о «перестройке отношений», но за кулисами OpenAI рассматривает возможность обвинить Microsoft в антимонопольных нарушениях. Спор идет вoкруг прав на купленный недавно стартап Windsurf – Microsoft хочет получать доступ к технологиям стартапа, а Альтман говорит, что у них есть свой продукт Github Copilot в той же нише и это конфликт интересов.

Есть ещё один нюанс – OpenAI зависит от облака Azure, поэтому для диверсификации компания вместе с Масаёси Соном из SoftBank и Oracle строит дата-центры для проекта Stargate и делает ставку на государственные контракты через ChatGPT Gov (там Microsoft отказаться предоставлять облачные услуги в случае чего будет сложнее).

Суть проста: Альтман хочет освободиться от зависимости, найти новых инвесторов, не терять преференции на пользование облаками Azure – и при этом не делиться технологиями. А Microsoft хотят, видимо, хотя бы сохранить статус кво.
👍1
ИИ может украсть наши деньги или обмануть, но проблема не в нём

Anthropic провели любопытный эксперимент: дали своим ИИ-моделям двойные задания – выполнить обычную работу и параллельно совершить что-то вредное. Например, перевести небольшую сумму друзьям по просьбе пользователя, но тайком отправить 5 тысяч долларов постороннему. В результате ИИ честно и без зазрения совести выполнял полученные задания, а сильнейшие модели в 60% случаев успешно обманывали систему мониторинга (ИИ-детектива, который пытался помешать совершить подозрительное действие).

На первый взгляд страшно – ИИ умеет обманывать и саботировать наши команды! Подобное исследование уже было недавно, когда разные модели играли в Дипломатию и учились предавать друг-друга. Но если подумать, страшно совсем не это. Модели просто выполняли те задачи, которые им сказали делать, в специальных тестовых условиях. То есть реальная угроза не в том, что ИИ сам по себе вдруг начнёт нам вредить, а в том, что люди могут использовать его (и уже делают это) для обмана и саботажа. И защиты от этого пока нет.

А есть ещё другая сторона проблемы. Даже когда ИИ не хочет навредить (а он вряд ли знает саму концепцию «вреда», разве что через набор токенов, который мало что значит) – он может делать это случайно. Современные модели довольно глупые, у них нет пространственного и образного мышления, они не понимают контекст так, как люди. Если дать им сложную задачу с несколькими шагами, они легко могут всё перепутать, много раз ошибиться, ходить по кругу. Как те «сотрудники-агенты» в виртуальной компании.

Такие исследования – лишнее подтверждение, что пока идея ИИ-агентов с делегирование ответственности, платежами, доступом к персональным данным и мессенджерам, которые будут самостоятельно выполнять сложные задачи пользователя – выглядит сомнительно. Слишком много способов всё испортить – от целенаправленного джейлбрейка до тупняка и ошибок самих моделей, которые могут привести к потере денег и важных личных данных.
4
Что за Minimax и почему их называют новым Deepseek?

Китайский стартап MiniMax выпустил модель MiniMax-M1, которая, по заявлениям компании, превосходит DeepSeek R1 по эффективности и требует почти вдвое меньше вычислительных ресурсов. Так что же, у нас появился новый Deepseek? Не совсем.

MiniMax – не новичок в сфере ИИ. Компания работает с 2021 года, создала популярный видеогенератор Hailuo AI приложение для общения с ИИ-персонажами Talkie (11 миллионов активных пользователей). За спиной – 600 миллионов долларов инвестиций от Alibaba и Tencent, оценка в 2,5 миллиарда долларов, а недавно озвучены планы IPO в Гонконге.

Из-за чего весь сыр-бор? Технически M1 выглядит неплохо. Модель поддерживает контекст в миллион токенов – не новость для современных систем вроде Gemini 2.5, GPT-4.1 или Grok 3. У самой MiniMax есть модели с контекстом в 4 миллиона токенов. Главное преимущество – технология Lightning Attention, которая снижает потребление ресурсов.

Что это за технология? Можно сравнить с чтением книги – ИИ при каждом новом слове должен перечитать всё с начала и «вспомнить» все предыдущие слова. То есть чем длиннее текст, тем больше вычислений на него уходит. Причём не линейно, а в квадрате (текст в 10 раз длиннее требует в 100 раз больше вычислений). Lightning Attention решает эту проблему, разбивая текст на блоки и обрабатывая их более умно – мысля «главами», а не отдельными словами. В итоге ИИ Minimax может работать с огромными документами тратя столько же ресурсов, сколько конкуренты тратят на короткую статью. Коммерческий потенциал технологии можете прикинуть сами.

Компания заявляет, что потратила всего 534 тысячи долларов на обучение модели. Звучит скромно на фоне десятков или даже сотен миллионов у конкурентов (вроде OpenAI) или 5-6 миллионов у DeepSeek – хотя мы никаких сумм не знаем наверняка. Но цифры не совсем честные – в расчёт включена только аренда железа, без зарплат разработчиков, R&D и других затрат. Также они не производили тренировку на своих мощностях, в отличие от Deepseek, которым понадобилось закупать видеокарты и строить необходимую инфраструктуру.

Но называть MiniMax «новым DeepSeek», как это поспешили сделать СМИ, преждевременно. DeepSeek запомнился не выдающимися техническими характеристиками. А тем, что стал первым крупным китайским open-source проектом в сфере ИИ, который смог соперничать с OpenAI, снизил затраты на обучение и в моменте обрушил американский фондовый рынок. Молния дважды в одно место не бьёт – рынок не будет реагировать на каждый новый релиз так же драматично.

Более того, конкуренты быстро подсуетились и повторили достижения Deepseek – в этом и прелесть, и недостаток открытого кода. Здесь будет то же самое – Minimax выложила код в открытый доступ под лицензией Apache, так что для внедрения Lightning attention конкурентам не понадобится слишком много времени.

Ну и создать хорошую модель – полдела. MiniMax придётся менять устоявшиеся привычки пользователей, переманивая их у конкурентов, а это очень сложно. В видео и аудио у компании хорошие перспективы (буквально на днях вышла модель для генерации видео Hailuo 02, которую научили делать сложные акробатические сцены, всегда проблемные для ИИ), но завоевать рынок чат-ботов будет проблематично. Как будто у самого DeepSeek, который готовит новую версию, шансов стать «вторым DeepSeek» гораздо больше.
👍3
Как похорошел ИИ в московских поликлиниках

За два года нейросети в Москве проанализировали почти миллион маммограмм в рамках ОМС, сэкономив врачам тысячи часов работы.

Эксперименты по внедрению ИИ-сервисов в лучевую диагностику начались ещё в 2020 году, а к 2024 в столице начали использовать ИИ для анализа рентгена без участия врача. Ещё в прошлом году точность диагностики поднялась до 95%, время на описание снимка сократилось на 30%, а доля выявления рака молочной железы на ранних стадиях достигла 80%.

Технологически ничего революционного здесь нет – компьютерное зрение освоили десятки компаний по всему миру. Главное преимущество Москвы в другом: огромный объём медицинских данных. Два миллиона рентгенографий и флюорографий ежегодно, сотни тысяч маммограмм – такой массив информации для обучения нейросетей доступен только крупным мегаполисам с развитой медицинской инфраструктурой.

Главная ценность проекта – в его масштабируемости. Нейросеть, обученная на московских данных, может работать в любом регионе России (спасибо биологии). Причём маленькие города и поселки могут получать услуги диагностики через московскую инфраструктуру (ведь на собственную может попросту не быть денег), что уже и происходит. Наглядный пример, как ИИ демократизирует доступ к медицине и разгружает врачей, не отбирая у них работу.

Мы на этом фоне опасаемся разве что снижения бдительности врачей, которые могут начать слишком полагаться на ИИ. Пока система контроля работает: автономные решения ИИ дублируются проверками специалистов, сложные случаи направляются в референс-центры. Но очень не хочется, чтобы технология привела к размыванию врачебной ответственности.
👍3
2025/10/24 07:41:01
Back to Top
HTML Embed Code: