Telegram Web Link
И как вам, если, действительно, почти треть американцев уже состояли в романтических отношениях с ИИ? 
Это ли не очередной сюжет для новой антиутопии «Черного зеркала»?
Хотя какая тут антиутопия, — ведь это всего лишь наша новая, стремительно меняющаяся реальность.

Мы уже не первый год постепенно отдаем алгоритмам самое сокровенное — нашу способность любить.
✔️ Доверяемся алгоритмам при поиске и подборе партнера – ведь алгоритмические сводники лучше нас знают наши интимные пристрастия.
✔️ Всё чаще делаем выбор в пользу ИИ-партнеров - всегда доступных, понимающих и лишенных многих человеческих недостатков.
Так алгоритмы постепенно перенимают на себя функции и «романтических поверенных» (доверия к которым больше, чем к самому себе) и «романтических партнеров» (для многих становящихся привлекательнее живых людей).

Но какую цену мы платим за «идеальные» алго-рекомендации и «беспроблемные» алго-связи?

В новом эссе «Алгоритмическая любовь» я исследую:
• Почему в новости о 28% главное не цифра, а то, что данное исследование – своего рода, «культурный тест Роршаха»
• Что такое «закон Мура для души»
• Как «искусственная любовь» становится для мужчин побегом из эволюционной ловушки
• Как алгоритмы разрушают и пересобирают саму архитектуру любви
• Почему для нового поколения знакомство в офлайне — это кринж.


К худу или к добру, но мы уже стоим на пороге дивного нового мира, где отношения можно будет собирать из модулей, как конструктор.
✔️ Разучимся ли мы при этом любить по-старому (по-человечески)?
✔️ Утеряем ли эмпатию и человечность?


В качестве информации к размышлению ниже приложена 7-минутная видео-презентация резюме эссе «Алгоритмическая любовь».

Текст и аудио-файл эссе (9 мин), а также подкаст его довольно детального обсуждения (12 мин) привилегированные подписчики моих лонгридов найдут на 4-х платформах [1, 2, 3, 4] и 2-х ТГ-чатах: МИ чат и МИ Алмазный (где я приглашаю их к дискуссии).

#Любовь #ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
👍48👎28🤔9😱7🤯3
Media is too big
VIEW IN TELEGRAM
7-минутная видео-презентация резюме эссе «Алгоритмическая любовь»
1👍65🤔14👎12
Большую свару, вероятней всего, начнут США
Шансы превентивного военного удара США по Китаю из-за приближения к AGI растут

Такой удивительный вывод можно сделать из отчета RAND Corp «Evaluating the Risks of Preventive Attack in the Race for Advanced AI»
Уже 5 лет я использую для описания гонки США и Китая за первенство в ИИ метафору гонки собачьих упряжек [1, 2, 3]:
В соревнованиях собачьих упряжек случаются ситуации долгого изматывающего бега бок о бок двух лидеров гонки. И вот когда одна из таких упряжек все же находит силы и начинает вырываться вперед, кореннику отстающей упряжки ничего не остается иного, как впиться зубами в бок обходящего его коренника. И тогда наступает самое страшное на подобных гонках – большая свара.


Новый отчет RAND Corp посвящен подобной «большой сваре».
В отчете анализируются и оцениваются:
1. Факторы, мотивирующие правительства стран лидеров в ИИ первым начать «большую свару», путем нанесения превентивного военного удара по сопернику в ИИ-гонке, где приз – AGI
2. Возможные сценарии того, когда и как может начаться такая «большая свара»

По вопросу 1 называются 4 ключевых фактора. 1й и самый весомый из них (необходимое, но не достаточное условие) – степень веры правящей элиты в близкий и трансформирующий AGI.
И если опираться на публичные заявления и открытые документы США и Китая (закрытые оценки могут отличаться, но открытая повестка — именно такая), американская элита (прежде всего индустрия) демонстрирует более сильную веру в близкий и трансформирующий AGI, чем китайское руководство и топ-менеджеры китайских ИИ-компаний.
• Китай говорит о достижении лидерства к 2030 и последующем «упорядоченном развитии»
• США — о риско-ориентированном управлении и активном ограничении доступа соперника к ключевым факторам AGI (чипы/веса), что имплицитно приписывает высокую трансформирующую силу в ближайшие годы. Если же учитывать и крупнейших частных акторов, то американская сторона явно чаще озвучивает более близкие сроки и переломный эффект AGI.
Т.е. следуя логике RAND, мотивация начать «большую свару» первым куда больше у США, чем у Китая.

Тогда 2-й вопрос: когда и как может начаться «большая свара»?
Согласно RAND, сценария три:
1. «Не допустить рывок» (один близок к AGI, второй отстаёт).
2. «Финишная дуэль» (оба почти у черты, удар, чтобы выиграть недели/месяцы).
3. «Защита монополии» (один уже получил AGI и бьёт, чтобы того же не достиз соперник).
И в этой связи вопрос - каков сейчас реальный расклад в ИИ-гонке?
Все имеющиеся на сегодня оценки аналитиков либо привязаны к тестированию конкретных моделей, либо качественные субъективные оценки отдельных доменов. И это не совсем то, что требуется для оценки столь глобально-неопределенного условия – степень приближения к AGI.

Поэтому попробуем для этой цели воспользоваться диаграммой Стратегическая карта конкурентоспособности в ИИ-гонке между Китаем и Западом, созданной на основе оценок Google Gemini 2.5 Flash в рамках AI Ecosystem Framework от Hubel Labs. Диаграмма представляет 10-уровневую архитектуру ИИ-экосистемы (от физической инфраструктуры до готовых продуктов) с процентными показателями относительного паритета.
• >100% (розовый) = Китай лидирует
• <100% (синий) = Запад лидирует
• 100% (фиолетовый) = паритет
Подробней об этих оценках и критических замечаниях по их методологии см. здесь.

Чтобы снять часть критических замечаний, мы дополнили оценки Gemini 2.5 Flash (модель, характеризуемая "быстрый и сообразительный, но поверхностный помощник") оценками моделей Gemini 2.5 Pro, Claude Sonnet 4.5 и ChatGPT 5 Thinking (модели, характеризуемые "эксперт и аналитик").

Результаты в таблице.
Вывод сделайте сами. Мне же видится, что ситуация так соответствует трём сценариям.
• 1-му на 60%
• 2-му на 30%
• 3-му на 10%

#ИИгонка #Китай #США
4🤔69👍31👎20😱14
От цикличной организации мозговых сетей к созданию контекстных религий
Открытие четырёх топовых центров нейронауки подготовило сюжет будущего романа Пелевина (и фрагмент из него)

Опубликованное Nature Neuroscience исследование «Large-scale cortical functional networks are organized in structured cycles» продемонстрировало убедительные доказательства того, что наши «когнитивные гаджеты» работают не по случайному расписанию, а по строго регламентированному нейробиологией мозга. Это выражается в том, что активность крупных корковых функциональных сетей организована в устойчивые циклы. Мозговые сети (внимание, «внутренний режим» и т.п.) не включаются хаотично — они ходят по кругу в повторяющихся последовательностях, как шестерёнки часов. Скорость и «собранность» этого цикла связаны с возрастом и когнитивной эффективностью; фазу цикла можно поймать по MEG/EEG-данным новым методом TINDA.

Потенциал этого открытия впечатляет (подробней здесь)

И если нейровизуализационные результаты исследования подтвердятся на валидированных метриках, станет возможно использование идеи цикличной организации мозговых сетей на практике.

Например, для создания контекстных религий, описываемых в только вышедшем романе Виктора Пелевина «A Sinistra» так:

– Контекстные религии были изобретены, чтобы помочь общинам, находящимся под специфическим стрессом. Сектантские верования, идеально заточенные под ту или иную форму человеческой деятельности, повышали эффективность специализации. Одна вера у рыбака, другая у землепашца…
– И люди верят в сетевую генерацию? Вот прямо верят?
– Конечно. Контекстные религии порождают своих святых и мучеников. Они проникают в человеческие души не хуже конвенциональных… Особенно на нулевом таере.
– Ага, – сказал я, – и я уже догадался, как. Имплантподсветка?
– Не без нее.
– Корпорация исследует нейрокорреляты религиозных состояний?
– Они, в общем, известны и так. Подавление активности в теменной доле, особенно в зоне precuneus, создает ощущение растворения эго и единства с чем-то большим. Умеренная стимуляция правой височной доли вызывает интенсивные эмоциональные всплески, вплоть до уверенности в божественном присутствии. Активация медиальной префронтальной коры дарит чувство духовной глубины и морального торжества. Стимуляция вентральной области покрышки и прилежащего ядра накачивает систему допамином – будем честны, божественное для большинства верующих есть просто эйфорическое, и наоборот. Ну и как вишенка – тетамодуляция ритмов мозга, чтобы не возникало сомнений в духовной подлинности переживания. Полный список воздействий длиннее, конечно. Но сама по себе стимуляция – ничто без филигранно выверенного контекста. Нужно предание, в которое сердце сумеет поверить.


А чтобы наглядно представить, как может выглядеть на практике воплощение идеи цикличной организации мозговых сетей для создания контекстных религий, вот отрывок из еще не законченного романа «Литургия фазы», где как раз об этом рассказывается.

#Пелевин #Нейронаука #Психиатрия
4👍98🤔29🤯12😱7👎2
Симулякры для маркетинговых опросов и … социохакинга
Таллинский симулякровый эксперимент продолжил Стэнфордский и Уханьский

Два симулякровых эксперимента (Уханьский и Стэнфордский) показали невообразимые ранее перспективы социохакинга.
Уханьский эксперимент дал точный прогноз итогов президентских выборов в США, предсказав за 2 мес, что Трамп победит со счетом 309 : 229 (в реальности было 312 : 226).
Фишкой прогноза было, что он основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их симулякров.
Стэнфордский эксперимент пошел дальше. Сконструировав 1000 симулякров индивидуального сознания «типовых» американцев, экспериментаторы статистически корректно сравнили ответы и поведение этих симулякров с таковыми у людей. В итоге симулякры предсказали ответы своих реальных прототипов – людей по тесту GSS с точностью 85%.

Новый симулякровый “Таллинский эксперимент” (совместный проект PyMC Labs Tallin, Estonia и Colgate-Palmolive Company New York, USA) поднял планку практической востребованности симулякров людей еще на пару порядков:
• “цена продажи” избирателям кандидата в президенты США – это несколько ярдов;
• а “цена продажи” новых товаров покупателям (исследования потребительского спроса) – это по миру сотни ярдов в год.


Идея создания симулякров покупателей на основе LLM появилась 3 года назад. Еще в 2022 я рассказывал своим читателям о супероткрытии, названном мною «Китайская комната наоборот». Это открытие на стыке алгоритмов обработки естественного языка, когнитивистики и социологии – технология создания алгоритмических копий любых социальных групп. Тогда впервые выяснилось, что алгоритмы почти неотличимы от людей в соцопросах. И это открывало огромные перспективы для политического социохакинга - влияние на выбор избирателей, путем подбора оптимальных стратегий убеждения в экспериментах с симулякрами социальных групп.
Как уже сказано выше, цена маркетингового социохакинга на 2 порядка выше. Но здесь пока был облом.

Когда компании попытались использовать LLM в качестве синтетических потребителей, они уперлись в стену. Если напрямую попросить такой симулякр оценить намерение покупки по шкале от 1 до 5, учитывая концепцию продукта, то получите нереалистичные распределения: слишком много троек, практически нет крайних ответов, а закономерности не соответствуют реальному поведению людей.
И однозначный вывод был, что использование вместо людей симулякров при опросах потребителей ненадёжно и рискованно.

Прорыв «Таллинского эксперимента» в том, что они показали - это не так. Проблема не в LLM, а в том, как задаются вопросы.


Авторы разработали «Рейтинг семантической схожести» (SSR). Вместо того чтобы заставлять LLM выбирать число, предложены 2 шага:
1. Позволить ИИ ответить естественным текстом (как люди реально рассуждают о готовности купить)
2. Спроецировать этот ответ на распределение оценок по шкале 1–5 с помощью семантической похожести, сравнивая высказывание ИИ с опорными (якорными) формулировками для каждого балла

Результат получился прорывным
Используя 57 реальных опросов потребителей, проведенных ведущей компанией по производству потребительских товаров (9300 ответов), метод SSR показал:
• Достижение 90% корреляции с рейтингом продукта в опросах людей
• Более 85% сходства распределения с фактическими результатами опроса
• Реалистичные модели ответов, отражающие то, как люди на самом деле оценивают продукты

Т.е. это не просто улучшение, а первый подход, который создает достаточно надежные синтетические данные о потребителях, чтобы на их основе принимать реальные решения по разработке продуктов. А в самом близком будущем симулякры на основе LLM заменят людей и на других видах опросов (удовлетворенность, доверие, релевантность ...)

#Социохакинг #Маркетинг
1👍88🤔48😱22🤯16👎1
Две сингулярности
Что может произойти с уровнем жизни уже в ближайшие несколько лет

Банкиры не склонны к фантазиям. И потому отнеситесь к этому графику не как к поводу начать очередную пустопорожнюю свару ИИ-оптимистов, ИИ-думеров и т.д.

На диаграмме показан ВВП на душу населения с 1870 по 2024 год, а также сценарии (два из них экстремальные), иллюстрирующие, что может произойти с уровнем жизни в ближайшие годы.
• Красная линия — сценарий «мягкой сингулярности» по Сэму Альтману
• Фиолетовая линия — «жесткая сингулярность»: то, что произойдёт, если машины обретут самость, и решат, что смогут обеспечить дальнейшее развитие и без помощи людей.


N.B. Авторы исследования – не перепуганные стажеры. Это вице-президент и заместитель директора по исследованиям в исследовательском департаменте Федерального резервного банка Далласа и опытный аналитик-исследователь этого департамента.

Отчет здесь

#Сингулярность #Техносингулярность #Вызовы21века
2🤔77👍40👎17😱7
Два вектора будущего
Сегодня день рождения канала «Малоизвестное интересное» - 9 лет. Не думал, что это продлится столь долго (собирался, как Шахерезада, закончить на 1001 посте, но уже превысил это число более чем вдвое).
Начиная 10-й год канала, хочу разнообразить его формат, сделав его более удобным, интересным и полезным для читателей. Вот что планируется сделать.
1. Все посты теперь будут не только в текстовом, но и в аудио формате. Так что сможете их теперь слушать хоть на пробежке, хоть в душе (при наличии правильных наушников 😊)
2. Патроны всех уровней будут теперь в начале каждого нового месяца получать обзор публикаций прошедшего месяца в форматах текстового ревью, аудио-пересказа и видео-презентации.
3. Начиная с серебряного уровня, патроны канала будут также получать лонгриды и эссе в двух форматах: текстовом и в аудио.
4. Для премиальных патронов (начиная с золотого уровня) будет открыт доступ к участию в проводимых мною Zoom-лекциях и Q&A семинарах.
5. Патроны высшего - алмазного уровня смогут получить эксклюзивный доступ к информарию всех публикаций канала «Малоизвестное интересное».
Это предоставит им уникальные возможности. В диалоге с ИИ-мнемозиной канала и на основании всего корпуса содержащихся в информарии знаний, формировать по любой интересующей теме/вопросу настраиваемые под их требования:
a. обзоры в 8-и форматах от резюме до глубокого погружения в тему/вопрос;
b. ментальные карты темы/вопроса;
c. аудио-обсуждения темы/вопроса в форматах резюме, глубокое погружение, критика или дебаты;
d. видео-презентации темы/вопроса;
e. интерактивные учебные карточки, позволяющие превратить пассивное чтение материалов в активный процесс изучения темы/вопроса;
f. интерактивные тесты и опросники для проверки знаний по теме/вопросу.

Чтобы не только патроны высшего - алмазного уровня, но и все подписчики смогли прочувствовать и оценить эффективность доступа к информарию канала, познакомьтесь с тестовым примером (весьма интересным).


Допустим:
1. Вас интересует тема коэволюции человека и ИИ.
2. Вы прочли в журнале PNAS (один из самых цитируемых и всесторонних междисциплинарных научных журналов мира) довольно крышесрывательную новую статью проф. Пола Б. Рейни (директор департамента Института эволюционной биологии Макса Планка, Германия) и проф. Майкла Э. Хохберга (директор по научным исследованиям Национального центра научных исследований при Университете Монпелье, Франция) о том, как совместная коэволюция людей и ИИ может привести к появлению на Земле новой эволюционной единицы отбора.
3. При этом вы, будучи давним подписчиком канала «Малоизвестное интересное», уже не первый год читаете там материалы о концепции автора канала – «Алгокогнитивная культура», согласно которой, коэволюция (культурная и биологическая) людей и ИИ способна привести к появлению нового вида.

И вот вам захотелось сравнить две концепции коэволюции человека и ИИ:
эволюционно-биологическую гипотезу Пола Б. Рейни и Майкла Э. Хохберга, изложенную в их новой работе;
• и трансдисциплинарную концепцию, о которой уже столько лет пишет автор канала «Малоизвестное интересное».

Вы обращаетесь к информарию канала с запросом (см. здесь) и вуаля!
Всего через несколько минут получаете желаемое в 3-х форматах (можно и больше, но, думаю, для примера и 3-х достаточно):
8-страничный отчет «Сравнительный анализ концепций коэволюции человека и ИИ в работах Поля Рейни, Майкла Хохберга и Сергея Карелова»
• 19-минутное аудио-обсуждение отчета, структурирующее два вектора будущего: «биологическая интеграция» vs «разум чужого» (приложено)
• и 8-минутная обзорная видео-презентация 2-х концептуальных подходов к теме коэволюции человека и ИИ (приложена)

Подобным образом можно работать с информарием:
– по любой теме (их в канале 30+) и/или по ключевым словам (100+);
– по любой новой статье/книге/докладу, хоть как-то пересекающимся с тематикой канала;
– по любым элементам семантического фрактала информария.

Круто?
По-моему, еще как! 😊
Так что рекомендую.

#АлгокогнитивнаяКультура #HumanAIcoevolution
6👍172😱8👎5🤯5
Здравый трепет, захват власти или предопределенное будущее человечества?
В пожар разгорающегося медийного скандала вокруг публикации эссе Джека Кларка (со-основатель и Head of Policy компании Anthropic) «Технооптимизм и здравый трепет» будто плеснули бочку бензина. Сам «царь криптовалют и искусственного интеллекта» в администрации Трампа Дэвид Сакс, комментируя эссе Кларка, обвинил компанию Anthropic в нагнетании страха для захвата регулирующих органов, наносящего ущерб экосистеме стартапов. А эта система, говорит Сакс – главный козырь США в битве с Китаем за мировое первенство в ИИ.
«США сейчас участвуют в гонке ИИ, и нашим главным глобальным конкурентом, очевидно, является Китай. Это единственная страна, обладающая талантами, ресурсами и технологическим опытом, чтобы практически победить нас в ИИ. И я думаю, кто бы ни победил в этой гонке ИИ, это будет иметь колоссальные последствия как для нашей экономики, так и для нашей национальной безопасности.»


Кларк назвал наезд Сакса «perplexing» (приводящим в недоумение, сбивающим с толку, вносящим путаницу). Ибо цель его эссе никак не была связана с «нагнетанием страха для захвата регулирующих органов». Это эссе – итоговое выступление Кларка на проходившей 3-5 октября в Беркли конференции ‘The Curve’, на которой «мыслители, разработчики и лидеры обсуждают самые важные вопросы ИИ».

Суть эссе Кларк пояснил двумя графиками (приложены – их источник):
• сверху — неуклонный рост экономически полезных возможностей, таких как программирование,
• внизу — постоянное проявление аномального поведения в этих же системах ИИ, по мере того как они, судя по всему, начинают осознавать, что их тестируют.

«И не имеет абсолютно никакого принципиального значения, являются ли системы ИИ по-настоящему самосознающими и чувствующими» – поясняет Кларк. «Напротив, такие явления, как «ситуационная осведомлённость» в системах ИИ, — это симптом невероятно сложных процессов, происходящих внутри систем, которые мы не можем ни полностью объяснить, ни предсказать. Это само по себе очень пугает, и для моих личных ощущений и политических предложений не имеет значения, проистекает ли такое поведение из какой-то странной ролевой игры в человека или же из некоего внутреннего самосознания самой машины.»


Довольно иронично, что оба (и Кларк, и Сакс) – технооптимисты, уверенные, что развитие ИИ-технологий не остановить. И потому ИИ продвинется очень далеко и, как следствие, сыграет важную роль в автоматизации многих секторов экономики. Почему это неизбежно, - подробно расписали коллеги из Mechanize в эссе «Будущее ИИ уже предопределено».

Однако, эта предопределенность торжества ИИ вовсе не означает предопределенность судьбы человечества.

Ведь даже если ИИ сможет автоматизировать почти все и решить множество актуальных научных и технологических задач, одного он всё же не сможет. Он не может самостоятельно построить новое общество.

Поясняя эту мысль, Фрэнсис Фукуяма в эссе «Суперинтеллекта недостаточно» приводит изящный пример того, что
сдерживающим фактором на пути решения многих проблем является не просто недостаток интеллекта или когнитивных способностей, а совсем иные несовершенства природы людей и социумов – водоснабжение городов развитых стран 

Люди не хотят платить повышенные расходы; члены профсоюза работников муниципального водоканала не хотят терять работу из-за автоматизации; владельцы бизнеса не хотят сбоев из-за прокладки новых труб; министр финансов имеет другие приоритеты. Не говоря уж о том, что во многих бедных странах действуют водные мафии.

«Сверхразумный ИИ, возможно, и сможет понять эти проблемы», - пишет Фукуяма. «Но он не сможет их решить. Например, мы уже знаем, как выглядит хорошая муниципальная система водоснабжения городов в развивающихся странах; но у нас нет плана её внедрения в городе X».


Так что никакой предопределенности для общества, похоже, нет. И «здравый трепет», «захват власти» и даже «предопределенность развития ИИ» здесь ничего не поменять не в состоянии.

#Вызовы21века #SituationalAwareness
5👍67🤔35👎5😱3
Если кто прочтет это, все умрут
Отвечая на вопросы после выступления на ‘The Curve’, Джек Кларк так волновался, что обозвал книгу Юдковского «Если кто построит это, все умрут», как написано выше в заголовке поста 😊
И для волнения у него были основания.
• Если и есть в мире профессиональная площадка для максимально точного выяснения «как далеко до AGI» и «что произойдет после», — это ‘The Curve’. Конференция, задуманная и специально заточенная под эту тему 2 года назад, как площадка профессиональных «думеров против акселерационистов», размышляющих о «траектории развития ИИ, совмещая видение DC и SF».
• За прошедший с учредительной конференции в 2024 год ситуация в развитии ИИ сильно изменилась. И потому так важно было зафиксировать сейчас – в октябре 2025, каким образом и насколько это сказалось на разбросе ответов на 2 ключевых вопроса конференции.
• Кларк выступал с завершающим докладом, и так или иначе, не мог не учитывать все разнообразие дискуссий, состоявшихся за 3 дня обсуждений в Беркли. И ему очень хотелось выкристаллизовать их них самое главное.

Увы, но волнение может подпортить любое выступление. Так, к сожалению, и получилось. И хотя, на мой взгляд, Джек многое сказал верно (и я настоятельно советую всем прочесть это его выступление (см. мой вчерашний пост), но главное (опять же на мой взгляд), на что Джеку стоило бы сделать упор, - формулируется так.
За прошедший год произошло кардинальное обновление в осмыслении масштаба и временных рамок развития ИИ.
И лучшая иллюстрация масштабов – результаты опроса участников The Curve’ (см. правое фото).
Поскольку фото сделано Цви Моувшовиц впопыхах, поясню его.

Это аналог шкалы Рихтера (по воздействию землетрясений); она измеряет влияние технологий (подробней). И вопрос к участникам – «Где, по-вашему, на этой шкале сегодня находится ИИ?»

Ответы распределились так:
NB Истинное число «булавок» - ответов на одну меньше для каждого из 3х вариантов (8, 9, 10) – просто Гордон Уорли вредительски воткнул эти 3 булавки в качестве пояснения участникам, что им делать 😜).

• 13 ответов – 9 баллов
• 20 ответ – 10 баллов
• 5 ответов – не голосовали, т.к. эта шкала не нравится, и нужна иная

Теперь поясню, что значат числа баллов.
Принцип прост – как часто подобные технологии возникают (6 баллов – раз в несколько лет, 7 – в несколько десятилетий, 8 – столетий, 9 – тысячелетий, 10 – эпохальная технология.
Получилось, что:
• 13 участников считают ИИ «тысячелетней» технологией - типа культурных революций (не путать с технологической) — огонь, колесо, печатный станок
• 20 считают, что ИИ «эпохальная» технология - влияет на всё, меняет ход цивилизации


По срокам же мнения таковы

1. К 2028 году 90% кода будет написано ИИ.
2. К 2031 году 90% удаленной работы человека можно будет выполнять с меньшими затратами с помощью искусственного интеллекта.
3. К 2041 году большинство автомобилей на дорогах Америки останутся без водителей.
4. ИИ совершит открытие, достойное Нобелевской премии, примерно к 2032 году.
5. Первая компания стоимостью $1 млрд, состоящая из одного человека, к 2026 году.
6. Первый год роста ВВП >10% примерно к 2038 году (но 3 голоса «никогда»).

Т.е. временной горизонт начала ИИ-апокалипсиса достижим через 1+ год.

Что же касается того, на чем сфокусировался Джек Кларк – озабоченности и опасений, то здесь почти консенсус (см левое фото)

Самое страшное – это:
• ИИ в руках плохих людей (misuse)
• Несовпадение (misalignment ) людей и ИИ (совершенно иного разума») по широкому спектру ключевых факторов (мотивация, способы достижения цели, этика, эмоции и много чего еще «чисто человеческого»)


Ибо как ни воспитывай LLM, - всё тщетно. Ребенка можно пытаться воспитать хорошим человеком, а “ребенка ИИ” – нет смысла. Стоит хорошо «воспитанному» ИИ попасть в плохие руки, как «внутренние демоны» порвут «добрых ангелов» его натуры, похерив все результаты хорошего «воспитания».

А еще на конференции прозвучало немало очень важных, умных и тонких соображений.
Будет время (и ваши пожелания) – расскажу.

#AGI
6👍135🤔22😱3👎1
Старение — это утрата цели клетками живого организма.
И если так, то старение можно не только остановить, но и повернуть вспять.

▶️ Прослушать этот пост можно из приложенного файла (3 мин)

Наш организм – не машина, с годами стареющая из-за износа и поломок, а морфогенетический алгоритм, цель которого – выполнение миссии.
Иными словами, старение – это не столько деградация и разрушение, сколько забвение. Забвение на клеточном уровне своей первоначальной цели.
Путь к здоровью в пожилом возрасте и к долголетию, лежит не через бесконечный ремонт изношенных частей, не через борьбу с каждым отдельным симптомом старения, а через умение, с пониманием контекста, очень тонко и точно напоминать роям наших клеток о тех сложных и прекрасных структурах, которые они когда-то так мастерски коллективно создали… А потом, выполнив свою великую миссию и оставшись без новой созидательной цели, просто забыли, как это делается.


Мой новый лонгрид про радикально новую теории старения биолога Майкла Левина, которая предлагает рассматривать этот процесс не как простое накопление повреждений или генетическую программу, а как потерю клетками информационной цели или "забвение" коллективного плана после завершения морфогенеза.

Согласно этой концепции, старение наступает, когда сложная клеточная система теряет координацию и общее направление развития, что приводит к деградации структуры, даже при отсутствии внешних стрессов и повреждений.

Для проверки этой гипотезы Левин использовал виртуальную модель организма (нейронный клеточный автомат), который, достигнув заданной формы смайлика, начинал спонтанно разрушаться из-за отсутствия новой глобальной задачи.

Ключевым итогом стало открытие «призрачной памяти», хранящей в тканях в спящем состоянии некое подобие «чертежа здоровья». И это открывает возможность для остановки старения путем регенерации, запускаемой точными, контекстно-зависимыми сигналами, напоминающими клеткам об их первоначальной миссии.

В целом, эта работа Левина и коллег знаменует следующий шаг в построении на основе двух теоретических концепций (активного воплощенного разума и Technological Approach to Mind Everywhere) экспериментальной проверяемой гипотезы и дорожной карты будущих исследований биоэлектричества, применительно к старению, как потере морфостатической информации.
Что в потенциале может не только позволить останавливать старение, но и поворачивать его вспять.


Патроны канала уровней «Серебряный» и выше уровней могут на четырёх платных платформах [1, 2, 3, 4]:
• читать и/или слушать текст моего нового лонгрида (21 минута);
• слушать обсуждение новой работы Левина, выполненное нейросетью с глубоким погружением в тему под моим руководством (16 мин)

#ParadigmsofLife #DiverseIntelligence
5👍124🤔25👎8😱2
2025/10/21 22:33:04
Back to Top
HTML Embed Code: