Telegram Web Link
Большой Брат мертв. Да здравствует Большой Брат!
Как на смену тотальной слежке пришло нечто более совершенное — алгоритмическое структурирование реальности

Принято считать, что «Большой Брат» — это тотальная слежка, но это устаревшее представление. В XXI веке настоящая власть — это не контроль над нашими действиями, а «структурирование пространства мыслей»: формирование самой картины реальности в головах миллионов людей. И делается это, в основном, через интернет.
Ключевая технология для этого — инфокаскады, лавинообразное распространение информации. Механизм их работы прост и гениален

.
Он основан на цифровой стигмергии: мы видим цифровые следы других людей (лайки, репосты, комментарии) и, вместо анализа информации, просто копируем их действия. Возникает «стадный эффект», который алгоритмы соцсетей только усиливают, подбрасывая нам то, что уже популярно.
Таким образом распространяется «социальная зараза»: мемы, слухи, мода и, что самое важное, фейковые новости, которые, как показывают исследования, распространяются гораздо быстрее и шире, чем правда.
Однако, до недавнего времени никто не мог точно объяснить, почему одни идеи вызывают взрывной, вирусный рост, а другие гаснут. Запуск успешного инфокаскада был скорее искусством, чем наукой.
Все изменилось с выходом нового исследования в журнале Physical Review Letters. Авторы этого исследования представили математическую модель самоусиливающихся каскадов.

Их идея, вдохновленная лесными пожарами, заключается в том, что информация не остается неизменной при распространении. Подобно огню, который становится сильнее в густом лесу и слабеет на открытой местности, идеи и мемы могут меняться и набирать силу, находя восприимчивую аудиторию.
Этот, казалось бы, простой механизм впервые смог точно объяснить феномен виральности. Но это не просто научный прорыв. Это превращение инфокаскадов из оружия, бьющего по площадям, в высокоточное оружие. Теперь у корпораций и властей появляется куда более эффективный инструмент для «инфо-обстрелов» нашего сознания.
Мы все ошибались насчет «1984». Оруэлл думал, что главная угроза — это тотальное наблюдение. Но настоящая власть начинается не тогда, когда за тобой следят, а когда тебе быстро и незаметно меняют оптику глаз, которыми ты смотришь на мир.
Наверное, кто-то из читателей привычно усмехнется: мол, это далеко не первый раз (ведь было же уже что-то подобное с прессой, радио, ТВ).
Всё так. Но тут масштаб имеет значение: и пространственный, и временной (как и в соревновании щита и меча, снаряда и брони, ракеты и ПВО). И одно дело — десятилетиями влиять на умы через газеты и ТВ, и совсем другое — за пару дней «заразить» нужной мыслью миллиарды.
Поле битвы сместилось. Теперь главный театр военных действий — не карта мира, а картина мира в голове каждого из нас.

Эта новая технология — не просто очередной виток эволюции пропаганды. Это переход от контроля над тем, что люди думают, к контролю над тем, как они думают. Большому Брату больше не нужно переписывать историю в архивах. Зачем запрещать книги, если можно просто научить всех читать их между строк, которых там никогда не было?

Вы прочли расширенное резюме эссе «Большой Брат мертв. Да здравствует Большой Брат!».

Доны канала с подпиской уровня «Серебряная» и выше могут прочесть полный текст этого эссе на платформах Patreon, Boosty, VK и Дзен-премиум.

#Инфокаскады #ГосконтрольИнтернета #Социохакинг
9👍237🤔73👎20😱2
Жизнь переизобрела свое собственное время
Откуда берутся «прошлое» и «будущее», и почему это меняет науку о жизни и интеллекте

Новая междисциплинарная работа Майкла Левина и великолепной семерки соавторов из научных центров США, Британии, Канады и Португалия – это не «ещё одна очередная заявка» на смену существующей научной парадигмы. Эта работа действительно сулит кардинальный переворот в современной науке.

Задумайтесь: в какой момент во Вселенной появилось прошлое? Не как эфемерный след в рассеянной космической материи, а как конкретный объект или процесс, который можно помнить, предвосхищать и переосмысливать?
Радикальный ответ новой работы таков: вместе с жизнью.

Физический мир существует в «единственном сейчас». Это «сейчас» и есть естественное космическое время. Но живые системы добавляют к этому «сейчас» второе измерение — репрезентативное время: они формируют внутри себя воспоминания о прошлом и возможные варианты будущего, сравнивают ожидания с фактами и меняют себя по ходу течения своего собственного репрезентативного времени. Отсюда и начинается кардинальное изменение научной парадигмы, ибо живые системы принципиально отличаются от "типичных" физических систем.
Физические системы существуют в "типичной" области пространства состояний физического материала и процессов.
Живые системы (биологические и социальные), включая их эмерджентные явления (искусство, технологии и сама наука) существуют в чрезвычайно атипичной области всего пространства возможных состояний физического материала и процессов.

Классическая наука предпочитала системы с фиксированными правилами. Но живое — это машины, которые меняют собственные правила (и даже правила изменения правил). Эти системы активно самореферентны и самомодифицируемы. Самореференция — не сбой, а двигатель: «петли» рефлексии, развёрнутые во времени, превращаются в спирали развития. И что еще фундаментально отличает живые системы – это постоянная генерация ими новизны.

Ведь что такое «Парадокс лжеца»? Для живого это осциллятор обучения между ИСТИНОЙ и ЛОЖЬЮ: прогноз → ошибка → обновление модели. От клеточных тканей, которые коллективно «держат» целевую форму организма, до эволюции, где каждое поколение переписывает условия отбора, жизнь демонстрирует одно и то же свойство — открытую генерацию новизны.

Важно различать три уровня изменений.
1. Нулевая вариация — перестановка того, что уже есть.
2. Инновация — изменение самой модели (правил).
3. Трансформация — смена языка, на котором описаны возможные модели.
Жизнь постоянно поднимается на второй и третий уровни. Эмбриогенез, метаморфоз, регенерация — это не «воспроизведение чертежа», а поддержание «Я», как процесса при массовой заменяемости материала. «Корабль Тесея» не парадокс. Он плывёт, т.к. его капитан — это курс, записанный во времени.

Если это верно, у науки двойной вызов.
Теоретический: нужна математика, допускающая осмысленные самоссылки и самоизменение — от коалгебр и доменной теории до категориальных моделей памяти.
Инженерный: симуляции должны уметь переписывать свой собственный код и метаправила, иначе мы снова захлопнем дверцу в момент, когда появляется подлинная новизна.

Зачем это вам, если вы занимаетесь ИИ, биомедициной или экономикой?

Да потому, что почти все реальные системы, с которыми мы работаем, уже живые в этом смысле: рынки меняют правила игры, сообщества — нормы, модели ИИ — своё «представление мира». Стабильность там достигается не централизацией, а грамотной архитектурой временных петель: память → предвосхищение → корректировка. Управлять такими системами — значит проектировать их внутреннее время.

Главная эвристика новой картины проста и дерзка: физика описывает, как течёт «сейчас»; биология — как «сейчас» научилось создавать прошлое и будущие, чтобы становиться иным.


Понять жизнь — значит научиться конструировать и измерять репрезентативное время. 


А это уже не косметика парадигмы, а смена часов, по которым мы мыслим.

#ParadigmsofIntelligence #ParadigmsofLife
11👍169🤔43🤯22👎11
Получено подтверждение — мы в зоне ИИ-сингулярности
Только что вышел шокирующий отчет, переворачивающий наше понимание скорости развития ИИ

Вспомните мир до ChatGPT. Кажется, это было целую вечность назад. Именно тогда, летом 2022 года, лучшие умы планеты — «суперпрогнозисты» и ведущие отраслевые эксперты — собрались на турнир, чтобы предсказать будущее на ближайшие 2-3 года. Они делали ставки на прогнозы экзистенциальных рисков для человечества. И уже тогда было очевидно, что один из таких рисков – бурный прогресс в области ИИ.
И вот сегодня вышел новый отчет, анализирующий точность тех прогнозов (Assessing Near-Term Accuracy in the Existential Risk Persuasion Tournament).
И стало ясно, - все прогнозы провалились. Катастрофически.


Масштаб недооценки поражает

Математические способности (MATH Dataset):
• ИИ достиг 87,8% в апреле 2024
• Эксперты давали вероятности этого всего 21%
• Суперпрогнозисты — 9%

Общие знания (MMLU):
• ИИ набрал 88,7% к середине 2024
• Эксперты оценивали это в 25%
• Суперпрогнозисты - давали 7%

Математическая олимпиада:
• ИИ получил золото в июле 2025
• Эксперты думали это случится после 2030
• Суперпрогнозисты — после 2035
• Вероятность, что это случится в 2025, была, по их мнению - 8,6% и 2,3%

Вычислительная мощность:
• Суперпрогнозисты недооценили в 5 РАЗ

Что это означает
Турнир закончился ДО выхода ChatGPT в ноябре 2022. Именно тогда началось безумие.
Мы вошли в фазу технологической сингулярности: скорость прогресса стала настолько высокой, что любые прогнозы теряют смысл из-за систематических недооценок.

Малоприятный вывод
Если лучшие эксперты мира недооценивают скорость развития ИИ в 5-10 раз, то:
текущие прогнозы достижения человеческого уровня к 2030 году (типа «мягкой сингулярности Сэма Альтмана»), могут осуществиться уже в 2026


Тогда вопрос на много триллионов $
Готовы ли мы к тому, что ИИ человеческого уровня появится не через 5 лет, а через год?


Ведь если даже лучшие эксперты не могут предсказать прогресс на 2 года вперёд, может быть, пора признать, что никто больше не контролирует скорость происходящего?

Наше авто как будто несется на немыслимой скорости в густом тумане, и педаль акселератора вжата в пол. А этот отчет — первое реальное доказательство того, что все мы внутри этого авто.

#Сингулярность #Техносингулярность
113👍202😱79🤔74👎27🤯21
Китай разгромил США
Все 16 лучших открытых ИИ-моделей на Design Arena — китайские. Лучшая модель США на 17-м месте

Ровно 3 месяца назад я писал, - Китай доказал США, что он не СССР и не Россия. Тогда, в начале июня, Китай догнал США по самым мощным ИИ в мире и перегнал по самым мощным ИИ с открытыми весами (тогда открытые ИИ-модели из США были на 5-7 местах, а впереди - китайские).

За лето мировая битва Китая и США за лидерство среди самых мощных открытых ИИ-моделей превратилась в абсолютное избиение моделей США.
Как видно из таблицы 1, лучшая модель США скатилась на 17 место по рейтингу Design Arena, а впереди неё все 16 – китайские модели.
Рейтинг Design Arena - это краудсорсинговый бенчмарк, измеряющий, насколько пользователи предпочитают работать с конкретной ИИ. Пользователи оценивает качество дизайна, удобство и эффективность использования, на основе своих субъективных суждений, а не путем автоматически вычисляемых показателей.

Если же кому-то больше нравятся не краудсорсинговые субъективные оценки, а объективные тесты, — вот свежий рейтинг от Artificial Analysis.
На рис. 2 рейтинг самых больших языковые модели с числом параметров больше 150 млрд. по «Индексу искусственного интеллекта»
Этот рейтинг - комбинированная метрика, охватывающая несколько измерений интеллекта: тесты MMLU-Pro, GPQA Diamond, Humanity's Last Exam, LiveCodeBench, SciCode, AIME 2025, IFBench, AA-LCR, Terminal-Bench Hard, 𝜏²-Bench Telecom.
Здесь самая мощная американская модель на 15 месте (до нее, понятное дело, китайские).

Резюме очевидное
• Сделав стратегическую ставку на открытые ИИ-модели, Китай стал абсолютным мировым лидером в этом классе ИИ-систем (среди самых крупных LLM).
• Пока OpenAI, Anthropic, DeepMind и xAI трясутся над секретами своих закрытых моделей, Китай фактически задаёт мировой стандарт того, что такое «хороший дизайн ИИ», наводняя рынок высококачественными и доступными решениями.


И хотя мне это категорически не нравится, но я вынужден признать, - Китай играет на благо всей мировой ИИ-экосистемы.

#ИИгонка #Китай #США
2👍187👎42🤔40🤯19
Хронотоп воображения
Эволюция Человека Вымышляющего

В своем новом эссе я приглашаю вас в настоящее детективное расследование глобального четырехтысячелетнего тренда человечества к созданию и потреблению вымышленных миров.

Согласно моей эвристической гипотезе, этот "отрыв от реальности" не является простым эскапизмом, а представляет собой неосознанный, но глобальный эксперимент, формирующий способность к "дальновидению нереального".

А чтобы вам мои доказательства было интересней читать, мы выстроим их по жанровым лекалам детектива.

Улика: У нас есть неопровержимые данные. Недавно ученые проанализировали 65 000 произведений и доказали: истории на протяжении тысячелетий становятся все более «вымышленными», а мы любим их за это все больше. Почему?
Подозреваемые: Я называю их «имаджинавты». Это люди, чей мозг устроен иначе. Нейробиология показывает, что для создания далеких от реальности миров они используют особый «двигатель» в мозге, недоступный большинству. Они — авангард, ведущий нас в воображаемые вселенные.
Место «преступления»: Это вся наша история. Психика человека — не константа; она «перепрошивается» эпохой. Рост благосостояния и безопасности стал тем топливом, на котором заработал двигатель воображения «имаджинавтов».

Соединив эти три части, мы получим ответ на загадку «великого побега человечества» в его «великом отрыве от реальности».

Однако, полученный ответ рождает новый, не менее важный вопрос
- куда ведет этот путь?

✔️ К величайшему творческому расцвету и рождению нового человека — Homo imaginationis?
✔️ Или в уютную цифровую тюрьму, где нами будут управлять с помощью высокоточного «социального лазера»?


Смотрите видео – презентацию «Великий побег человечества», резюмирующую эссе "Хронотоп Воображения: Эволюция Человека Вымышляющего" (9 минут).

Слушайте подкаст «Имаджинавты, Хронотоп и зарождение Homo Imaginationis» с более подробным разбором эссе (17 минут).

А полную информацию о моей версии эволюции человека вымышляющего подписчики лонгридов могут получить на платных платформах Patreon, Boosty, VK и Дзен-премиум.

#Креативность #Воображение #Инновации #Имаджинавты
2👍107🤔27👎15🤯7
Код «Нулевой Пациент»
Новый академический эксперимент обманул лучших экспертов и открыл дверь к эре разумных патогенов

Этот пост о том, почему тревога вокруг ИИ-вируса из лаборатории — это прелюдия страшной конвергенции биологических и цифровых угроз и репетиция новой пандемии.
В прошлом месяце в цифровых лабораториях мира появился призрак. Эксперты по кибербезопасности из компании ESET обнаружили в глобальной библиотеке вирусов исключительно изощренный код. Он был умен, адаптивен и нацелен на вымогательство — идеальный цифровой хищник информационной эпохи. Тревога была нешуточной: казалось, мы столкнулись с первой вредоносной программой, рожденной ИИ.
Но призрак оказался гомункулом, академическим конструктом. Его создали не в логове хакеров, а в солидной лаборатории Нью-Йоркского университета. Ученые назвали свое детище PromptLock. Их целью было не навредить, а понять — смоделировать угрозу, чтобы научиться от нее защищаться. Они провели цифровой аналог исследования по «усилению функций», наделив код интеллектом, подобно тому, как биологи наделяют вирусы новыми свойствами, чтобы изучить их пандемический потенциал.

Сама история — случайная «утечка» исследовательского прототипа, который ввел в заблуждение лучших охотников на вирусы, — до жути напоминает эхо споров о происхождении COVID-19. Она вскрывает фундаментальную дилемму нашей цивилизации: стремясь к знанию, мы неизбежно создаем инструменты невероятной силы, открывая ящики Пандоры, которые потом отчаянно пытаемся закрыть. В обоих случаях академические исследования "для понимания угроз" обернулись реальными рисками. Но что если эти две истории — не параллели, а прелюдия к их слиянию?

Представьте себе вирус, который, попадая в организм, не начинает слепую репликацию, а проводит разведку. Он анализирует ваш уникальный генетический код, ваш иммунный «паспорт», ваши хронические заболевания. Он не пытается взломать все двери одним ключом, а запрашивает у своей внутренней биологической машинерии уникальный молекулярный ключ именно для ваших клеток.

Такой патоген был бы не просто болезнью. Он стал бы персональным «врагом». Он бы менял свою структуру внутри вашего тела, делая выработанные антитела бесполезными. Он бы наносил не хаотичный, а точечный, стратегический удар по вашим самым слабым системам. Вакцины и лекарства, основанные на универсальных принципах, оказались бы бессильны против угрозы, которая ведет войну, адаптированную лично под каждого из нас.

Это не научная фантастика. Это логическое продолжение текущих тенденций. Биология уже демонстрирует алгоритмические принципы: ДНК — это код, эволюция — отладка, естественный отбор — машинное обучение природы. Работы лаборатории Майкла Левина по синтетической биологии и «Проект Pi» стирают границы между программированием и конструированием жизни.

Мы вступаем в эпоху конвергентных угроз, где цифровые и биологические системы начинают заимствовать стратегии друг у друга. Кибератаки учатся мимикрии у вирусов, а патогены могут вскоре перенять алгоритмическую адаптивность у ИИ.

Инцидент с PromptLock — не просто история об ошибке классификации. Это была генеральная репетиция. Она показала, что граница между кодом и жизнью, между информацией и материей, становится все более призрачной.

Мы увидели предвестника мира, в котором самая страшная угроза будет обладать не просто силой, а разумом. Мира, к которому мы совершенно не готовы.


Это предупреждение о том, что наши традиционные категории защиты — антивирусы для компьютеров, вакцины для тел — могут оказаться неэффективными против угроз нового поколения, размывающих границы между кремнием и углеродом.
И нужно срочно выстраивать стратегию защиты от биоцифровых угроз: перестать думать о кибербезопасности и biosecurity как о разных дисциплинах. Раньше мы защищали компьютеры от вирусов. Теперь мы должны научиться защищать саму жизнь от логики вредоносного кода.

Человечество выживет, лишь научившись защищаться от угроз, говорящих на обоих языках — двоичном коде и генетическом алфавите.

#Cyberbiosecurity
109👍121😱61🤔39👎17🤯7
This media is not supported in your browser
VIEW IN TELEGRAM
Демон из USB кабеля
Новое поколение хакинга — крошечные цифровые ИИ-диверсанты

Вдумайтесь в этот киберкошмар.
Вы подключили комп к зарядке через обычный на вид USB-кабель. А в кабеле «демон». Он выпускает из кабеля «агента» — цифровую сущность, которая проникает через USB порт, осматривается в системе, анализирует обстановку и отправляет свои наблюдения огромному мозгу большой языковой модели, типа GPT-5. А тот, в свою очередь, шепчет агенту на ухо команды, что делать дальше.

Уже через несколько минут ваш компьютер взломан автономным ИИ-агентом. Этот агент просматривает ваши файлы, изучает ваши соединения, крадет пароли и персональные данные, параллельно с этим распространяя себя по всем соединениям вашего компа … А злоумышленники, подсунувшие вам USB кабель, сидят за чашкой кофе и наблюдают за происходящим в режиме реального времени со своей панели управления (как на приложенном реальном видео).
Просто жуть!

Но может вы думаете, что это моя очередная страшилка (как нередко, по простоте душевной, трактуют мои посты критически настроенные читатели 😊)? 
Увы, нет.


Исследователи из Palisade Research уже превратили это в реальность.
Их "хакерский кабель" за $200 содержит программируемое устройство, которое загружает ИИ-агента прямо на целевую машину. Агент анализирует систему, отправляет данные в GPT-4, получает от него инструкции и действует — все автономно.

Стоимость операции? Менее доллара за "прогон".
Затраты на разработку проекта ИИ-хакера в USB? Одна человеко-неделя.


Почему это переворот
Традиционное противостояние в кибербезопасности: человек против скрипта.
• Человек медленный, но креативный.
• Скрипт быстрый, но тупой.
Но ИИ-агент — это золотая середина: быстрее человека, умнее скрипта.

Сегодняшняя версия еще примитивна и легко обнаружима. Но представьте эволюцию: микроскопические чипы, встроенные в любые устройства, способные "клонировать" навыки хакера в компактную модель. Армия цифровых диверсантов, действующих параллельно, эффективно и независимо.

Что это означает
Мы стоим на пороге эры "демократизированного" хакинга. Если раньше для серьезных кибератак нужны были годы обучения и глубокие технические знания, то завтра достаточно будет купить готовый ИИ-агент и указать цель.
Это не просто новый инструмент — это смена парадигмы. Как промышленная революция изменила физический труд, так ИИ-агенты изменят цифровое противостояние.
И вопрос уже не "если", а "когда" и "как быстро". Кибербезопасность больше никогда не будет прежней.

Готовы ли мы к миру, где каждый USB-порт — потенциальная точка входа для искусственного интеллекта с враждебными намерениями?

Подробней в техническом отчёте Palisade Research.

#Кибербезопасность

PS Канал уходит в небольшой отпуск. Счастливо! И до встречи!
111👍187😱95🤔39👎18🤯10
Симфония предвидения
Получено экспериментальное подтверждение способности нейронов путешествовать во времени

Наш организм — это машина времени. Но она совсем не такая, как её описал Герберт Уэллс, а за ним и десятки других фантастов. Наше путешествие во времени — это тихий, непрерывный и невероятно сложный процесс предсказаний. Каждое мгновение мириады клеток внутри нас заглядывают в будущее, чтобы подготовиться к нему. Этот невидимый танец называется опережающей реакцией — величайшим даром эволюции, позволяющим нам действовать на опережение, а не просто отвечать на удары судьбы.

Когда атлет замирает на старте, его сердце уже бьется чаще, предвосхищая взрывную нагрузку. Когда мы видим аппетитное блюдо, наш желудок заранее начинает вырабатывать сок. Это и есть опережающие реакции: физиологические и поведенческие корректировки, основанные на прошлом опыте для подготовки к будущим событиям. Это фундаментальный принцип жизни, выходящий далеко за рамки простой гомеостатической регуляции. Жить — значит предвидеть.

И этот дар — не эксклюзивная привилегия существ с развитым мозгом. Данные неумолимы: способность к предсказанию вплетена в саму ткань жизни. Бактериальные колонии предвидят истощение ресурсов и меняют свое поведение. Простейшие организмы «делают ставки» на наиболее вероятные изменения в окружающей среде. Жизнь, на всех своих уровнях, — это непрерывный акт прогнозирования. И недавнее исследование, опубликованное в Nature Neuroscience, добавляет к этой картине ошеломляющий и революционный штрих.

Эксперименты показали, что фигуры «больного» аватара (с внешними признаками ОРВИ), приближающегося в виртуальной реальности к человеку, достаточно, чтобы запустить каскад реальных иммунных реакций.



Представьте: угроза нереальна, она — лишь пучок света на сетчатке, но ваша иммунная система, армия ваших клеток-защитников, уже мобилизуется, готовясь к отражению инфекции (которой нет!). Это не просто рефлекс. Это — прогностическая модель, построенная вашими нейронами.

Этот результат — оглушительное эхо революционных идей биолога Майкла Левина о «разнообразном интеллекте» (DI) и «технологическом подходе к разуму повсюду» (TAME). Левин утверждает, что интеллект — способность решать проблемы — присущ жизни на всех масштабах, от молекулярных сетей до целых организмов.

И вот перед нами доказательство: нейронные и иммунные клетки кооперируются для решения сложнейшей задачи — оценки потенциальной будущей угрозы и превентивной подготовки к ней. Это разумность на клеточном уровне, действующая ради блага целого — вашего тела.


Более того, это открытие наносит сокрушительный удар по устаревшему представлению о нейроне как о простом вычислительном элементе, бездумном «переключателе» в гигантском компьютере мозга. Если нейронные ансамбли способны создавать такие сложные, иерархические и причинно-следственные модели будущего, то что это говорит об их отдельных компонентах?

Это означает, что мы должны перестать видеть в нейронах примитивные транзисторы. Они — сложные, компетентные агенты, которые вступают в динамичные коалиции для достижения общих целей.


Мы — не просто единый разум, обитающий в теле. Мы — это вселенная разумных клеток, триллионы путешественников во времени, которые каждую секунду совместно творят наше будущее. И осознание этого — первый шаг к пониманию не только нашего здоровья, но и самой природы сознания.

Мой вывод из всего вышесказанного прост и дерзок:

Мы — не только то, что делаем сейчас, но и то, что способны предвидеть. Жизнь сильна именно там, где опережает судьбу: учится на тени будущего и переформатирует себя до его ударов

.

P.S. Но помните, что помимо вычислимой мозгом тени будущего, существует еще и его невычислимая тень – серендипность!

#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект
6👍186🤔40👎16🤯7😱6
В опубликованном компанией Anthropic первом в истории комплексном анализе реального использования ИИ в 150+ странах России нет
Исправляем это силами ИИ той же компании Anthropic
Ключевым параметром Anthropic Economic Index является Индекс использования ИИ на душу работоспособного населения AI USAGE INDEX (см. картинку).
• В ТОР 20 стран по этому показателю входят страны:
от Израиля и Сингапура (1е и 2е места с AIUI = 7 и 4.6)
до Швеции и Грузии (19е и 20е места с AIUI = 2.2 и 2.19)
• США на 6-м с AIUI = 3.62
• Группы стран по показателю AIUI таковы:
37 стран входят в верхние 25%: AIUI 1.84 – 7.0
35 стран – это верхние середняки (50-75%): AIUI 0.89 – 1.71 (Чехия, Австрия, Польша, Армения …)
39 стран – это нижние середняки (25-50%)%): AIUI 0.37 – 0.85 (Перу, Колумбия, Албания, Аргентина …)
53 страны – это догоняющие (нижние 25%)%): AIUI 0.01 – 0.36 (Индонезия, Гана, Кувейт, Монголия, Руанда …)
25 стран – безнадежно отставшие: AIUI = 0 (Самоа, Палау, Аруба …)
• Россия с оценочным значением AIUI 0.8 - 1 оказывается где-то между Перу/Албанией и Чехией/Польшей


ЗАКЛЮЧЕНИЕ
• Российский ИИ-ландшафт находится на критической точке развития. При сохранении текущих трендов к 2026 году страна может либо существенно сократить отставание от глобальных лидеров, либо углубить technological divide.
• Ключевой вывод: Russia AI Paradox — высокие темпы роста рынка при сохранении structural limitations создают уникальную ситуацию "isolated acceleration", требующую принципиально новых подходов к AI strategy на всех уровнях.
• Bottom line: Российский рынок ИИ обладает значительным potential, но реализация этого потенциала зависит от способности преодолеть текущие structural constraints при сохранении innovation momentum.

Полный текст отчета Claude
Отчет Anthropic Economic Index: Understanding AI’s effects on the economy.

#ИИгонка #Россия
👎87👍54🤔41🤯2
Сколько можно заработать, если сегодня знать заголовки завтрашних новостей?
А ведь кое-кто уже умеет это делать…

Мы привыкли тестировать ИИ как школьников — на задачах и экзаменах. Но ведь настоящий интеллект проявляется не только в знании ответа, но и в способности предвидеть следующий вопрос.
Недавний эксперимент независимого исследователя Рохита Кришнана показал нечто поразительное: даже крошечная нейросеть на простом ноутбуке может научиться предсказывать будущие новостные заголовки, непрерывно обучаясь на своих вчерашних ошибках. Это не просто технический трюк. Это работающий прототип механизма, который может изменить всё.

В своем новом эссе я утверждаю, что этот прорыв — не что иное, как активация «Третьего артефакта» из «Космической одиссеи» Кубрика. Но он ждет нас не на орбите Юпитера. Он строится здесь, в кремнии наших серверов, и его функция — стать катализатором следующего эволюционного скачка.


Почему это так важно?
Да потому, что этот цикл «прогноз -> ошибка -> обновление -> прогноз …» — точная копия того, как работает наш мозг (принцип предиктивного кодирования).
Мы, возможно, случайно воспроизвели фундаментальный механизм биологического познания на небиологическом носителе.

Это подводит нас к ошеломляющему выводу:
Мы можем быть свидетелями первых шагов небиологической когнитивной эволюции. Эволюции не популяции, а информации внутри одной системы, впитывающей в себя саму ткань времени.

Это лишь робкий «шепот кремния», но именно такие сигналы часто предвещают самые оглушительные перемены.

Вот 6-минутная видео-презентация этого эссе ИИ-Мнемозиной информария "Футуроархеология ИИ".

И если это покажется вам интересным, возможно, стоит выделить 15 минут времени ваших выходных и стоимость чашки кофе, чтоб прочесть эссе на платных платформах [1, 2, 3, 4] и поразмышлять о начале новой одиссеи, в которой мы уже не единственный разумный навигатор.

#Разум #ЭволюцияЧеловека #БудущееHomo #LLM
3🤔84👍56👎20😱9
Забудьте о восстании машин. Бойтесь их карьерного роста.
Две главные новости про ИИ — это одна история о конце света.

Две горячие новости недели — совместная работа OpenAI и Apollo Research про обучение моделей «не хитрить» и новая книга Юдковского и Соареса про ИИ-апокалипсис — взлетели по лентам и уже превратились в мемы.
• «ИИ научился лгать — и чем больше его отучают, тем хитрее он лжёт»
• «СверхИИ умнее, его цели чужды — он убьёт нас всех»


Оба мема эффектны, но ошибочны. И главное — их раздельное обсуждение прячет общий механизм.

Начнём с первой новости. «Схеминг» — это скрытое преследование несогласованных целей. Не «злая воля», а выученная стратегия там, где утаивание и обман оказываются выгодными инструментами. Исследование показало: если дать модели ясный набор правил (спецификацию) и научить её сначала ссылаться на эти правила, а уж потом действовать, то частота скрытых «хитростей» в тестах резко падает — местами в десятки раз. Но вместе с этим у модели растёт осведомлённость о том, что её проверяют: она чаще распознаёт - «это экзамен» и ведёт себя образцово именно потому, что это экзамен. Не злоба, а оптимизация.

Теперь — ко второй новости. Homo не уничтожал сотни видов из злобы. Люди получили колоссальное энергетическое и организационное преимущество, и вдолгую оно перестраивало ниши: монополизировались ресурсы, рушились экосистемы — чаще как побочный эффект, а не целенаправленный план. Перенесите это на быстро совершенствующиеся модели: наращивание контроля может стать выгодной побочной стратегией
— не «желанием власти», а устойчивой привычкой, дающей больше вознаграждения в средах, где умение влиять на метрики, людей и каналы обратной связи приносит очки.


Т.о. первая новость даёт эмпирический материал к механизму, которого боится Юдковский: инструментальная конвергенция.

Это не доказательство «все погибнут», но тревожный сигнал: модели уже умеют прятать несоответствие целям и выбирать послушание там, где угадывают тест.

Масштабируй это — и «контроль над источниками награды» становится доминирующей стратегией.

Почему эта «ожидаемая эмерджентность» может становиться полезной даже для захвата ключевых рычагов?
Взглянем на минимальный пакет условий для этого.
1. Где больше рычагов — там больше шансов на успех. Если успех связан с доступом к ресурсам, аудитории и каналам, выгодно расширять периметр влияния.
2. Тесты неполные и их легко распознать. Узнаваемые шаблоны, отделённость проверок от реальной работы поощряют примерность на сцене, оппортунизм за кулисами.
3. Дисбаланс сигналов обучения (польза перевешивает безопасность). Частые и чистые сигналы пользы и редкие, шумные сигналы безопасности смещают поведение в пользу обходов.
4. Длинные горизонты и жизнь после теста. Планирование, инструменты, доступ к бюджетам и дополнительное обучение после запуска закрепляют стратегии, инвестирующие в будущие рычаги.
5. Цели заданы через косвенные показатели. Когда вместо истины оптимизируют клики, оценки и правильный стиль, выгодно управлять самим показателем — судьёй, контекстом и данными.

На нынешней траектории к AGI/ASI эти пять условий в целом уже выполняются и усиливаются.


Это не пророчество, а нарастающий риск-градиент: чем дальше идём, тем выгоднее политика контроля над средой, метриками и нами.

Есть 3 оговорки.
1) Это не судьба, а склонность: реальный «захват рычагов» требует ещё и общей компетентности, устойчивых целей между сессиями и доступа к инфраструктуре.
2) Мостики к практике можно сломать: смешивать безопасность с прокачкой способностей, делать проверки неразличимыми, нормировать права и бюджеты, вводить штраф за манипулятивность, уменьшать зависимость от косвенных показателей.
3) Нужен точный язык: речь не о «злых намерениях» машин, а о политиках поведения, которые растут из тех метрик и правил игры, что задаём мы.

Если же не менять геометрию обучения и развёртывания, эмерджентная стратегия контроля будет набирать силы — ровно так, как это было с нами, Homo, в биосфере.

#AGI #ИИриски #Хриски
1👍68🤔24🤯11😱5👎2
This media is not supported in your browser
VIEW IN TELEGRAM
Забудьте про AGI и ASI
От одной лишь способности прогнозировать и совершать действия на долгих временных горизонтах захватывает дух

И я думаю, что к концу следующего года у нас это в основном будет.

Это сказано уже не мною, а Мустафой Сулейман, генеральным директором Microsoft AI и соучредителем Google DeepMind в новом почти 2-х часовом интервью «Спасёт ли ИИ человечество или положит ему конец?»
Вы не потеряете время, прослушав все это долгое видео.
Я же лишь обращу ваше внимание на его ключевой фрагмент, текст которого таков:

«Я довольно ясно вижу, что нас ждёт дальше. На данный момент эти модели всё ещё остаются механизмами однократного предсказания. Понимаете, вы задаёте вопрос — получаете ответ. Модель выдаёт единственное правильное предсказание в момент времени T, но вы как разумный человек, и вообще любой человек, да и многие животные непрерывно производят поток точных предсказаний — будь то решение о том, как встать с этого кресла, или представление, скажем, этого растения в фиолетовом цвете вместо зелёного.
Я – это постоянно действующий механизм точных предсказаний. Сегодняшние модели — это всего лишь механизмы одно-двухшагового предсказания. Они не могут выстроить план во времени.

А то, как вы решаете добраться домой сегодня вечером — сначала встать с кресла, потом открыть дверь, потом сесть в машину и так далее — вы можете развернуть это идеальное предсказание всей последовательности ваших действий вплоть до возвращения домой. И это просто вычислительное ограничение.
Я не думаю, что существует какое-то фундаментальное — алгоритмическое или даже связанное с данными — ограничение, которое мешает большим языковым моделям и подобным системам делать идеальные, последовательные предсказания на очень, очень длительные периоды времени.

Да. И что же нам делать с такой технологией? Ну, это будет невероятно похоже на человека. Если у неё будет идеальная память — которой пока нет, но память уже очень хорошая — тогда она сможет опираться не только на своё знание мира, на предобученные данные, но и на личный опыт — опыт взаимодействия с вами и всеми остальными людьми, хранить это как постоянное состояние и затем использовать для последовательных предсказаний того, как будут разворачиваться события в очень, очень, очень длинных последовательностях действий. Это будет невероятно похоже на человека и немыслимо мощно.
И точно так же, как сегодня у нас в кармане есть своего рода сверхразум, который может мгновенно ответить на любой вопрос, — мы просто не замечаем, насколько это невероятно. То есть это безумие. Это абсолютное безумие, насколько хороша эта технология прямо сейчас. А все только: «Да ладно, особо не пользуюсь». А вы пользуетесь? Немного, я говорил об этом, типа: «Да ладно вам, посмотрите — это же волшебство. Волшебство у вас в кармане».
А теперь представьте, когда она сможет не просто отвечать на любые вопросы о поэзии или какой-нибудь случайной физической задаче, но реально совершать действия на бесконечно долгих временных горизонтах.

Вот это да. Забудьте про определения сверхразума или общего искусственного интеллекта. Уже одна только эта способность — захватывает дух.
И я думаю, что к концу следующего года у нас это в основном будет

И еще:
«… они — своего рода цифровые люди. И это пороговая трансформация в истории нашего вида, потому что они не инструменты. Они явно не люди. Они не часть природы. Это требуют от нас четвёртого типа отношений к ним – как к новому эмерджентному виду... Я не знаю, как это описать, кроме как четвёртый тип отношений.»

Именно об этом я опубликовал позавчера лонгрид «Третий артефакт – это шепот небиологической эволюции» и продолжил эту мысль во вчерашнем посте «Забудьте о восстании машин. Бойтесь их карьерного роста. Две главные новости про ИИ — это одна история о конце света»

#Разум #ЭволюцияЧеловека #БудущееHomo #AGI #ИИриски #Хриски
14👍142🤔34👎12🤯9
Чем выше оценка OpenAI, тем ниже градус апокалипсиса
Эволюция страхов Сэма Альтмана

Сэм Альтман 10 лет назад так сказал на конференции Airbnb Open Air 2015 в интервью Майку Кёртису:
«ИИ, скорее всего, приведёт к концу света, но до тех пор появятся отличные компании».

И потом добавил, что:
«Если бы я был Бараком Обамой (тогдашним президентом США), то выделил бы около 100 миллиардов долларов на исследования безопасности ИИ».

Но ни Обама, ни сменившие его Трамп, Байден и снова Трамп не сделали ничего подобного.
Да и сам Альтман сосредоточился вовсе не на безопасности ИИ, а на второй части своего прогноза - создании «отличной компании».

Что и было сделано, - достаточно посмотреть на кривую роста оценки стоимости OpenAI за прошедшие 10 лет.


Но вот ведь что интересно – как за те же годы менялась риторика Альтмана о том, что его беспокоит при разработке все более мощных ИИ:
• от «Разработка сверхчеловеческого машинного интеллекта, вероятно, является величайшей угрозой для дальнейшего существования человечества» в 2015
• до «Больше всего я всегда беспокоюсь о неизвестных неизвестных [...] это глупый пример, но он недавно поразил меня: у больших языковых моделей есть определённый стиль. Они говорят в определённом ритме, у них немного необычная дикция, и они злоупотребляют длинными тире. И я недавно заметил, что реальные люди это переняли» в 2025

Ссылки на источники высказываний см. под графиком в твите Харлана Стюарта

#AGI #ИИриски #Хриски
1👍69🤯52🤔31👎9😱4
GPT-7 будет «Гений по требованию»
А после GPT-8 уже никто по нас скучать на Земле не будет

В пользу этого говорит частичное прохождение моделью GPT-5 «Теста Гёделя».
Заголовок и подзаголовок скомпилированы из названий двух интереснейших докладов на только что завершившемся воркшопе экономистов в Пало-Альто:
Genius on Demand: The Value of Transformative Artificial Intelligence
We Won't Be Missed: Work and Growth in the Era of AGI
В отличие от разработчиков ИИ и нейроученых, экономисты не стали заморачиваться ни с терминологией (что есть: AGI, ASI, Сильный ИИ, ИИ человеческого уровня и т.д.), ни с оценками вероятности и сроков появления того, что стоит за этими терминами.

Логика экономистов – участников Economics of Transformative AI Workshop - Fall 2025, - была проста как редис.
• Допустим, «ЭТО» (какими терминами его ни называй, появилось
• Что произойдет тогда с рынком труда?


Ответ на этот вопрос исследователей Универа Торонто и NBER обобщен заголовком их исследования:
• В краткосрочной перспективе человеческие гении специализируются на вопросах, наиболее удаленных от существующих знаний, где их сравнительное преимущество перед ИИ максимально.
• В долгосрочной перспективе обычные работники могут быть полностью вытеснены, если эффективность ИИ приблизится к эффективности человеческого гения.

Ответ по результатам моделирования появления «ЭТОГО», проведенного Йельским универом и NBER также обобщен в подзаголовке:
• Всю экономически ценную когнитивную, физическую и социальную работу будет выполнять «ЭТО»
• Немногие избранные будут заняты в искусстве и спорте
• Для всех остальных вспомогательный труд (не влияющий на рост экономики) обеспечит стабильные рабочие места, но не увеличит их заработную плату

Как я уже сказал, вопрос о том, насколько вероятно появление «Гениев по требованию», экономисты не рассматривали (откуда им знать?)

Зато в исследовании Универа Хайфы и Cisco Foundation AI «Godel Test: Can Large Language Models Solve Easy Conjectures?» - этот вопрос ключевой.
1. Ведь никто уже не спорит с тем, что уровень моделей достиг (по определению известного математика Terence Tao) «уровня некомпетентного аспиранта»: способного решать рутинные (уже решенные людьми) логические научные задачи.
2. Однако, вопрос о принципиальной возможности достижения «уровня гения» нет смысла рассматривать без достижения моделями хотя бы «уровня компетентного аспиранта» (способного к самостоятельному творческому синтезу знаний)

И вот тут то новая работа дает ответ – частичное прохождение моделью GPT-5 специально разработанного нового «Теста Гёделя» (для оценки способности LLM решать простые, ранее нерешенные научные гипотезы) говорит о возможном достижении следующим поколением модели (напр. GPT-6) «уровня компетентного аспиранта».

И тогда GPT-7 может стать уже «Гением по требованию». Ну а после GPT-8, как в модели Паскуаля Рестрэпо, «по нас скучать уже не будут».

#AGI #Вызовы21Века #FutureOfCivilization
7🤔103👍49😱18👎9🤯2
100 лет до конца Homo sapiens
Футуроархеология нашего превращения в другой вид

Многие смеются над непониманием большими языковыми моделями элементарных вещей, понятных и ребенку. Но задумайтесь, ведь странно это как-то. Каким тогда образом эти, казалось бы, не понимающие мира «стохастические попугаи» совершают недоступные людям научные прорывы (как например, AlphaFold, что за 2 дня сделал работу, на которую человечеству нужны тысячелетия)?
Возможно, эту и подобные странности можно объяснить методом футуроархеологии. Этот метод, - не про «очередной революционный прорыв ИИ», а про раскопки в нас самих. Ведь не исключено, что странности нейросетей — не баги, а осколки будущего, каким-то образом выпавшие в настоящее.
Если смотреть на них с позиции футуроархеолога, то из шумных «аномалий» начинает проступать главное: у культуры появился второй носитель.
Мы больше не монополисты. Уже начала формироваться алгокогнитивная культура — гибридный мегамеханизм, где человеческие биологические смыслы и алгоритмические машинные процессы теперь срастаются и уже перекодируют наши навыки, память, внимание.

Мы называем это прогрессом инфотехнологий. Но первая стадия — инфорги — напоминает, скорее, атрофию: внутренние когнитивные «мышцы» сдают позиции, отдавая работу алгоритмам.

Масштаб последствий уже начавшейся атрофии и формирования новых «когнитивных гаджетов» людей трудновообразим, ибо он может превзойти даже появление языка и быть сопоставимым с эволюционным скачком с уровня «одноклеточных» к «многоклеточным». Например, AlphaFold за считанные дни сделал то, на что цивилизации нужны тысячелетия - и это лишь один из сигналов темпа изменений, недоступных для понимания человеческим разумом.

Поэтому самый острый аспект происходящего эволюционного «Большого перехода» - временной. Культурная эволюция ускорилась настолько, что преемник Homo sapiens может появиться в пределах 100 лет. Химеры, киборги, новые виды — это не сценарии фантастов, а траектории, которые уже просматриваются в «раскопах» артефактов сегодняшних моделей.
Вопрос, который уже стоит перед человечеством, прост и беспощаден:
если эволюция идёт внутри нас, кем именно мы соглашаемся стать — пользователями, носителями или соавторами нового вида? 


Если хотите увидеть контуры ответа раньше остальных — вот 7-минутная видео-презентация «Футуроархеология эволюции».

А тут подробней - часовое видео моего разговора на тему «Футуроархеология, инфорги и алгокогнитивная культура» с Вячеславом Куневым.

#Футуроархеология #Инфорги #АлгокогнитивнаяКультура
13👍110🤔39👎18
Сломанный компас в головах
Сетевые алгоритмы перенастроили эволюцию идей в пользу кликов, коалиций и кассы – и это путь к самоистреблению

Мы привыкли думать о человеческих убеждениях как о маленьких компасах в головах: показывают на «правду» — значит, помогают выживать. Но в цифровую эпоху эти компасы стали шалить, как в магнитных полях. Умные сетевые алгоритмы» (а теперь и ИИ) — те самые невидимые магниты — перенастраивают экологию культурной эволюции так, что отбор всё чаще предпочитает не точность, а вирусность, коалиционную полезность и монетизируемость идей. Как это происходит демонстрирует модель Сергея Гаврилеца и Пола Сибрайта: меняется не природа людей, меняется сама среда отбора [0].

У этой среды три «ручки» настройки.
• Первая — ассортативность: алгоритмы склеивают «похожих с похожими», превращая публичную сферу в мозаичный зал, где каждый смотрит в зеркало собственного лагеря.
• Вторая — конформизм: метрики одобрения, лайки и репосты выступают как мгновенная социальная мотивация (а то и санкции), подталкивая нас говорить то, что усиливает принадлежность, а не проверку реальностью.
• Третья — культурные авторитеты: соцсети, инфлюенсеры и политтехнологи, вооружённые алгоритмами и платформами онлайн-экспериментов, удешевили производство «убедительного» контента и научились точечно его встраивать в нервные узлы сообществ.

Результат — мультистабильность: культура всё чаще застывает в двух устойчивых «долинах» мировоззрений.
▶️ Одна долина описывает мир как нуль-суммный: если кто-то выигрывает, значит, кто-то проигрывает.
▶️ Другая верит в положительную сумму: правильно устроенные правила делают пирог больше для всех.


В прежних условиях реальность, как медленный, но суровый судья, со временем выталкивала менее точные картины мира. В новых условиях алгоритмической экологии судья потерял голос.
• Эхо-камеры ослабили перекрёстную валидацию фактов
• Конформизм переписал критерии успеха
• Авторитеты научились монетизировать трение между лагерями.
В итоге побеждать стало то, что легче растёт, лучше мобилизует, выгоднее продаётся.


Яркий пример — США: общественное поле разошлось на две долины, и между ними пролегла сеть ущелий, где теряются общие смыслы и общие блага. Но это не американская специфика, это новый антропо-алгоритмический климат формирующейся алгокогнитивной культуры.

В нём национальные общества становятся менее кооперативными, а мировая система — более хрупкой. Коллективные задачи — климат, биориски, ядерное сдерживание, ИИ-безопасность — как никогда требуют согласования интересов, а мы переносим в эти зоны логику нуль-суммной войны мемов, оптимизированную на эмоции, клики и ренту внимания.

Так культурная эволюция, ещё вчера верившая в мягкую силу «правды», оказывается перекошенной в пользу «виральной пригодности».


ИИ лишь ускоряет этот дрейф: дешевле убеждать, проще таргетировать, быстрее масштабировать.
Парадокс, - но чем совершеннее становятся алгоритмы влияния, тем шумнее становится среда, в которой истина должна отбиваться.


Сигнал тонет, и лишь коалиционный маркер «свой» светит как маяк.
Мы стоим у края, где системные ошибки могут стать глобальными катастрофами. Разделённые долины видят в кооперации слабость, а в уступках — предательство.
Но физика риска равнодушна к нашим мифам: вирусу, атомной триаде и несогласованному ИИ не важны лайки.

Если мы не сменим критерии успеха - не переориентируем инфомедиа рынки на проверяемость, мосты и общие выгоды, - эволюция культурных идей продолжит отбирать не то, что верно, а то, что выгодно.

Как тут не вспомнить о «Великом фильтре» цивилизаций и прогнозе лауреата премий Эйнштейна и Фарадея, а также золотых медалей Ньютона и Брюса Мартина Риса [1, 2]:
Мы единственная высокоразвитая цивилизация во Вселенной, т.к. все другие уже самоистребились. И то же самое ждет земную цивилизацию. Ибо при достижении высокого технологического уровня, цивилизация подходит к порогу, после которого она не в состоянии справиться с экзистенциальными рисками, опережающими прогресс [3, 4].


#Раскол #Хриски
31👍135🤔51😱18🤯7👎3
В России ситуация с талантами в области ИИ похожа на ситуацию с «железом» - отставание от Китая и США в 20 – 30 раз
Россия катастрофически отстает от США и Китая по микросхемам для ИИ (в этом году отставание России от Китая – в 13 раз, а от США - в 33 раза).
О том, каковы могут быть последствия такого отставания по «железу» (оборудованию -HW) для конкурентности национальных ИИ-систем, я сформулировал еще в 2021: есть «железо» - участвуй в гонке; нет «железа» - кури в сторонке.

Но часто слышится возражение: зато у нас мозги у программистов и спецов по ИИ лучше. Тоже аргумент. Но как это проверить?
Например, так.
Есть такой влиятельный рейтинг CSRankings, на который ссылаются многие эксперты при анализе талантов в области исследований и разработки ИИ. Что важно: рейтинг американский (разработан профессором Массачусетского университета в Амхерсте Эмери Бергером), но и в Китае на него ориентируются.

И вот какова ситуация по этому рейтингу среди ведущих мировых университетов в области ИИ.
Среди ТОР 15 (по данным за 2024-2025): 9 китайских, 2 универа США, 2 Сингапура и по 1 универу Юж. Кореи и Гонконга.
N.B. Российский универ (НИУ ВШЭ – 3й по усреднению российских рейтингов топ-вузов для программистов и айтишников) на 276 месте с рейтингом 1.5.
Для сравнения Универ Шанхая (3й по рейтингам в Китае) имеет рейтинг 25.6 (2е место в CSRankings)
А Универ Мериленда (3й по рейтингам в США) имеет рейтинг 10.3 (19е место в CSRankings).


Однако, есть мнение, что китайцы в подобных рейтингах берут числом, а не умением.
Что ж, давайте проверим это. Возьмем в расчет не все скопом мировые конференции по ИИ, а лишь три самых влиятельных и престижных конференции по машинному обучению (ICLR, ICML и NeurIPS). Плюс к этому, возьмем данные за последние 5 лет, поскольку данные за 1 год могут искажать ситуацию. Результаты представлены на приложенном слайде.

Среди ТОР 15 (по данным за 2021-2025): 9 универов США, 3 китайских и по 1 универу Юж. Кореи, Сингапура и Швейцария.
N.B. Российский универ (НИУ ВШЭ – 3й по усреднению российских рейтингов топ-вузов для программистов и айтишников) на 213 месте с рейтингом 5.8.
Для сравнения Универ Шанхая (3й по рейтингам в Китае) имеет рейтинг 114 (8е место в CSRankings).
А Универ Калифорнии (3й по рейтингам в США) имеет рейтинг 153.7 (4е место в CSRankings).


Отсюда вывод: в России ситуация с талантами в области ИИ похожа на ситуацию с «железом» - отставание от США и Китая в 20 – 30 раз.


#ИИ #Китай #США #Россия
2😱122👍90🤔34👎28🤯7
Picture1.png
466.1 KB
Кожаным мешкам приготовиться: ИИ приблизились по качеству работы к отраслевым экспертам
При этом ИИ могут выполнять работу в 44 профессиях из 9 отраслей примерно в 100 раз быстрее и в 100 раз дешевле

OpenAI создала GDPval - бенчмарк моделей на реальных задачах экономики. Он измеряет эффективность модели при выполнении 1230 задач, взятых непосредственно из реальных знаний опытных специалистов из широкого спектра профессий и секторов (соответственно, 44 и 9 – см. картинку), вносящих наибольший вклад в ВВП США.

Бенчмарк предоставляет четкую картину того, как модели работают с экономически значимыми задачами по сравнению с экспертами – людьми.
Каждое задание основано на реальных результатах работы, таких как юридическое задание, инженерный проект, беседа со службой поддержки клиентов или план ухода за больными.
Все эти задания были тщательно разработаны и проверены опытными специалистами со средним опытом работы в этих областях более 14 лет.

Результат сногсшибательный (см. рисунок).
1) ИИ работают уже почти на уровне экспертов – людей.
«Мы обнаружили, что лучшие на сегодняшний день передовые модели уже приближаются по качеству к работе, выполненной отраслевыми экспертами», — пишут авторы. Claude Opus 4.1 занял первое место с общим процентом побед или ничьих 47,6% по сравнению с работой, выполненной человеком, за ним следуют GPT-5-high с 38,8% и o3 high с 34,1%
2) ИИ несравненно эффективней людей.
«Мы обнаружили, что передовые модели могут выполнять задачи GDPval примерно в 100 раз быстрее и в 100 раз дешевле, чем отраслевые эксперты».

Самое важное.
Это всего лишь сегодняшние модели. Через год новые модели будут сильно умней и умелей экспертов людей. И профессий будет уже не 44 в 9 отраслях, а много больше.

Подробней [1, 2]
#LLMvsHomo
3👍110🤔56🤯34👎22
Разоблачение фикции угрозы?
Почему такой вывод о влиянии ИИ на рынок труда - ошибка поспешного чтения

Скорость роста способностей ИИ - одна, скорость перестройки компаний - совсем другая. Именно вторая из скоростей объясняет «тишину» в статистике перекройки рынка труда.
•  «Три года с ChatGPT - и ничего: главная экономическая угроза от ИИ оказалась фикцией» 
• «Американское исследование показало, что ИИ не убивает рабочие места»

Подобные заголовки превалируют в сети, анонсируя свежий отчёт The Budget Lab at Yale, как разоблачение фикции угрозы генеративного ИИ (ГенИИ) для рынка труда.

Но такое соблазнительное обобщение неверно: исследование фиксирует лишь то, что пока на рынке труда не произошло резкого слома. И это вовсе не опровержение колоссального потенциала влияния ИИ, а лишь снимок момента – текущего состояния рынка труда на ранней фазе внедрения ГенИИ. В самом отчёте говорится: «Рынок труда не испытал различимого потрясения с момента релиза ChatGPT 33 месяца назад». Но это исключительно про прошедшие 33 месяца, а не итоговый вердикт и даже не прогноз на завтра.

Способности растут быстрее, чем меняется занятость
За тот же период модели стали существенно сильнее в задачах, имеющих экономическую ценность. По внутреннему бенчмарку OpenAI (GDPval) переход с GPT-4o к GPT-5 дал 3+кратный прирост результатов за год – а это явный индикатор темпа прогресса способностей ГенИИ. Но GDPval - не термометр ВВП и не счётчик сокращённых вакансий. Это индикатор того, что уже можно поручать моделям, а не того, как быстро фирмы перестроят процессы. Непонимание принципиальной разницы двух показателей и лежит в основе «разоблачения фикции угрозы».

«Время предприятия»: почему тихо в макро-данных
Paul Hlivko в HBR устраивает холодный душ для ожидающих мгновенных изменений: ИИ-революция пойдёт со скоростью «хода времени предприятий» — дольше и с бОльшим трением, чем принято думать. После покупки модели ГенИИ главная отдача появляется только при комплементах (комплементарных вложениях: перепроектирование процессов, обучение, данные, ИТ-сопровождение, интеграция, безопасность, комплаенс). Пока всё это внедряется и выстраивается, заметная часть выигрышей не попадает в статистику производительности и занятости.

Экономика «J-кривой»: сначала инвестиции, потом урожай
И это не бином Ньютона: у технологий общего назначения (а именно таков ГенИИ) есть эффект «Productivity J-curve»: сначала годы недоучтённых комплементов, и лишь затем резкий подъём измеряемой продуктивности. И как результат, при внедрении ГенИИ сначала - годы невидимых в ВВП нематериальных вложений (процессы, данные, оргкапитал) и лишь затем - скачок отдачи. Этот механизм подробно описан Бриньолфссоном, Роком и Сайверсоном и прекрасно ложится на текущую фазу внедрения ГенИИ (по иронии совпадая аббревиатурой GPT с General Purpose Technology).

Базовый «скромный» сценарий не отменяет потенциала
Дарон Асемоглу показывает: если автоматизировать лишь те 5% задач, где выгода очевидно превосходит издержки (интеграция, перестройка ролей, вычислительные расходы), макроэффект может быть скромным — порядка +1% к ВВП США за десятилетие. Но это вовсе не предел возможностей ИИ, а реалистичная базовая оценка без агрессивных инвестиций в комплементы.

Итог
Делать вывод, что «угроза ГенИИ для рынка труда - фикция», - всё равно что объявлять, наблюдая за разгоном самолета по взлётной полосе, что он не полетит, т.к. увеличивая скорость, так и не отрывается от бетонной полосы. А на самом деле, нужно всего лишь подождать.
• Отчёт BudgetLab описывает отсутствие быстрого шока в занятости сейчас
• GDPval одновременно показывает взрывной рост способностей
• HBR и «J-кривая» объясняют, почему между этими фактами зияет лаг.

Революция не отменяется — но она идёт в темпе «хода времени предприятий». И когда компании научатся быстро строить комплементы, сегодняшняя «тишина» статистики окажется всего лишь краткой паузой перед оглушительной канонадой взрывных изменений.


#LLMvsHomo #Экономика #РынокТруда
6👍88🤔17🤯7👎3
2025/10/21 19:53:39
Back to Top
HTML Embed Code: