Telegram Web Link
Happy bicycle day!

Ровно 80 лет назад, 19 апреля 1943 года, произошёл первый в истории человечества кислотный трип. В своей лаборатории в Базеле химик Альберт Хоффман принял 250 микрограмм диэтиламида лизергиновой кислоты (Lysergsäurediethylamid, LSD), которую сам ранее синтезировал и свойства которой изучал.

Почувствовав себя плохо, он поехал на велосипеде домой. Действие ЛСД уже началось, и поездка получилась весёлой и очень долгой. Дома же Хоффман стал испытывать всё более сильные галлюцинации, тревогу, страх отравления и смерти. Удостоверившись в отсутствии негативных физических симптомов, Хоффман в итоге дождался окончания трипа и ещё долго впоследствии изучал ЛСД (объективно и субъективно).

Хоффман умер в 2008 году, дожив до 102 лет. Про ЛСД он написал интересную книжку: “ЛСД – мой трудный ребёнок”. Рекомендую.
👍29🫡105💊41👎1💔1
Никто:
Абсолютно никто:
Черномырдин нашей психологии: Статья Кента Берриджа на смерть Роберта Зайонца (2010)

Про работы последнего я писал совсем недавно, а про первого - раньше [1,2].

Очень симпатичная зарисовка жизни выдающегося и увлеченного ученого.

Вкратце, Зайонц занимался исследованием аффекта (эмоций) и его роли в познавательной деятельности человека - когда это ещё не было мейнстримом.

Берридж рассказывает, как Зайонц был психологом, нейробиологом, эволюционистом и вообще изучал все, что касается человеческого разума. Потому статья и называется: The Complete Psychologist.

Берриджу удалось поработать с Зайонцем над проверкой довольно сумасшедшей теорией последнего: что эмоции связаны с нагреванием мозга. На пересечении дикой теоретической фантазии Зайонца и экспериментального таланта Берриджа появилось исследование, в котором они охлаждали гипоталамус мышей (!) и смотрели на изменение из эмоциональных реакций. Обнаружили частичное подтверждение гипотезы Зайонца.

В общем, интересная личность и классный учёный. Слово автору:

Боб однажды заметил, что он часто решал взяться за ту или иную тему из чувства раздражения от того, что он слышал или читал по этой теме. У него была мотивация исправить то, что он считал ошибочными взглядами.

P.S. Как думаете, будет ли кому-то интересен перевод таких околонаучный статей на русский язык? Если да – ставьте единорога к этому посту.
🦄106👍3🗿21
Do Language Models Need Sensory Grounding for Meaning and Understanding?

Дебаты на тему: нужна ли языковым моделям (LLM) чувственная основа для формирования смысла и понимания? (дебаты были в конце марта)

Сначала шесть коротких докладов, потом обсуждение. Участвуют машинлёрнеры, когнитивисты и философы. Модерирует Нед Блок.

Коротко, что зацепило:

Я. ЛеКун: скептичен, считает, что граундинг в сенсорной информации нужен; большие языковые модели – тупик, из которого мы скоро, к счастью, уйдем.

Э. Павлик: граундинг не нужен, так как мы добавляли - лучше она не действует.

Философы мне не очень были интересны, так что я проматывал.

Г. Лупян (занимается лингвистикой): дети овладевают понятиями без граундинга. Слепые - тоже. Так зачем он языковым моделям?

Последний аргумент интересный, но почему-то не обсуждается, что хотя какие-то понятия мы действительно осваиваем совсем без сенсорного опыта (абстрактные понятия, через чтение или от других людей), но базовые понятия мы освоили вместе с сенсорным опытом. И даже новые абстрактные понятия мы можем заземлить на этот сенсорный (и телесный) опыт. Точно так же слепой человек может представить себе прозрачность через аналогию из другой модальности (например думая о поверхностях, которые пропускают и не пропускают звук).

ЛеКун сказал в самом начале, что LLM устроены так, что граундинг им не поможет. Но это не помешало Э. Павлик рассказывать о своих экспериментах, где они добавляли граундинг и это не улучшило перформанс – хотя именно это и имел в виду ЛеКун, как я понял. Довольно странный момент.

Лупян предлагает интересные аргументы и в своих ответах часто намекает на то, что мы во многом ведём себя так же, как и LLM. Я с этим частично согласен.

Что ещё меня поразило - и, в целом, всегда поражает в таких дискуссиях: полное отсутствие попыток дать рабочие определения. Такое ощущение, что всем окей использовать бытовые / интуитивные понятия “понимания”, “планирования”, “смысла” и т.д. Мне это в таких дискуссиях не нравится, потому что это провоцирует спор о словах (как и случилось при обсуждении “планирования” в конце дебатов). Я понимаю, что определения давать сложно, но нужно хотя бы грубо очертить рабочие термины (мою попытку писать о понимании и смысле в LLM см. тут).

Но дебаты мне всё равно понравились. Состав участников напоминает зарю когнитивной науки – которую создавали вместе психологи, лингвисты, ИИ-шники и нейрофизиологи.

https://youtu.be/x10964w00zk
👍2511👎3
Губерман

Долго молчал по поводу Эндрю Губермана, не спешил с выводами, несколько месяцев осторожно присматривался к его фигуре... Что ж – нормально он подкачался!

А если серьезно, то в какой-то момент он начал на меня сыпаться со всех сторон во всех соцсетях. Какой-то дядька везде, что-то про гормоны вещает, что надо на солнце с утра смотреть; вокруг него много фанатов, какие-то протоколы Губерман. Из-за этого я подумал, что он какой-то очередной дофаминовый шарлатан.

Проверил его академические данные. Сайт его стэнфордской лаборатории пустой. Но при этом, профиль на Google Scholar выглядит вполне адекватно нормальному учёному.

Кажется, он просто исследователь который захотел больше сфокусироваться на просвещении, чем на сугубо академической работе. При этом он пытается соблюсти популярность изложения (старается объяснять просто), и научную строгость: все, что он говорит в своих подкастах, всегда подтверждает ссылками на свежие статьи. По сути, только на основе статей он и вещает.

Подкасты его очень прикладные: он все время предлагает всякие "протоколы": холодные души, солнечный свет по утрам, как перестать икать и тд.

И хотя он старается очень точно передавать научные результаты с точки зрения того, что именно изучалось, какие размеры эффектов были получены и как это переносится в ежедневную жизнь, мне кажется, он делает слишком уверенные практические выводы из академических статей. Кстати, видел, как его критиковали за использование статей с низкокачественными исследованиями (кажется, речь шла о похудании через холодный душ).

Что касается его личности, то я просмотрел пару интервью с ним (например, где они с Лексом Фридманом смотрели Ёжика в тумане) - он выглядит приятным собеседником и готов спекулировать на темы, для которых у него нет научных данных. Мне нравится, когда человек может быть и строгим, и свободным в своих рассуждениях. И при этом чётко разделяет эти два модуса.

Одна из таких вещей, которая меня зацепила: в каком-то интервью он рассказывал, что какой бы подход, например, в спорте, человек не применял, очень важно, чтобы он в него верил. Плохая методика при безоговорочном доверии и следовании ей будет более полезна, чем хорошая, в которой человек полностью не уверен. Это довольно интересная для меня тема, постараюсь про неё как-нибудь в будущем написать.

В общем, мой вердикт: можно слушать, если нравится. Вполне хорошая популяризация нейронауки. При этом я бы не доверял на 100% его рекомендациям по спорту и здоровью. Всё-таки между научным экспериментом и применением полученного знания дорожка очень непрямая.
👍3610🔥4
Заметки мимоходом – про сильный искусственный интеллект.

На днях в одной беседе (поделюсь ссылочкой в будущем) меня спросили, в каком направлении я [как когнитивист] вижу больше перспектив для возникновения сильного искусственного интеллекта. Я без сомнения сказал, что это обучение с подкреплением (reinforcement learning, RL*), а не глубокие нейросети (обучение с учителем) типа больших языковых моделей (LLM**). И это несмотря на то, что в данный момент нейросети далеко впереди всего, что делается с обучением с подкреплением.

И я сформулировал мысль, которую до этого в явном виде не формулировал для себя: при оценке перспектив ИИ я опираюсь на базовые принципы его построения, а не на его поведение. А в медиа сейчас все сфокусированы на результатах, которые демонстрируют модели: умеют нейросети классно генерировать тексты, отвечать на вопросы, рисовать картинки – супер, развиваем их дальше, делаем ставку на них. У меня логика совсем другая: сильный ИИ (помимо прочего) должен иметь цели, планы, понимание своих действий и внешних объектов в контексте этих целей. И это намного ближе к RL, чем к LLM.

Поэтому мне кажутся довольно нерелевантными работы, смотрящие на то, как LLM справляются с когнитивными задачками [например, 1, 2]. Что-то будет получаться, что-то нет – это мало говорит о том, что модель, основанная на данных принципах, сможет делать в будущем.

Пример про шахматный интеллект: все ждали, что Deep Blue (которая обыграла Каспарова) – будет настоящим ИИ, который изменит нашу жизнь. В итоге, единственной заслугой Deep Blue был пиар для IBM. Никаких других применений у этой модели не было. Модель, кстати, не играла в шахматы, как человек: она была основана на брутфорсе – тупом переборе вариантов развития игры. Человек играет не так. Поэтому – следуя моей логике – и ждать от этого “ИИ” было нечего.

Такое наблюдение. Допускаю, что могу ошибаться и моё естественно-научное чутье окажется тут менее точным, чем инженерное. Время покажет.

* Пара материалов по RL из моего канала: один, два.
** Я знаю, что в LLM тоже используется RL, но его роль там ничтожна: небольшой файнтюнинг ответов, чтобы они больше нравились человеку.
👍23🔥6🤔41💯1
Радость победы

Три дня назад Дин Лижэнь стал первым китайцем – обладателем титула чемпиона мира по шахматам. Оцените его эмоциональную реакцию на победу. Хороший пример того, что у эмоций нет чётко фиксированных поведенческих проявлений – как считалось раньше. Лиза Фельдман-Баррет оценит. Реакция Непомнящего тоже интересна, но более ожидаема.

https://www.youtube.com/watch?v=wPfZNqWzng8
31👍3🔥1
В комментариях к предыдущему посту многие не согласились с тем, что Дин Лижэнь испытывал радость. И увидели там просто усталость от напряжения.

Согласен, что я зря приписал радость – это как раз против подхода Фельдман-Баррет, суть которого я хотел проиллюстрировать.

Согласен также, что это может быть усталость. Хотя у Непомнящего усталость в глаза не бросается. Ну и футболисты после победной серии пенальти после 120 минут игры вполне себе бегают как угорелые. Исходя из контекста, я предположил, что Дин испытывал какое-то очень положительное переживание. На послематчевой пресс-конференции он говорит, что момент, когда Непомнящий сдался, был очень эмоциональным.

Мой поинт был в том, что это хороший пример того, что по поведению и даже по лицевой экспрессии невозможно сказать, какую эмоцию испытывает человек. В этом критика классического подхода с базовыми эмоциями, который стоит на данных о том, как людям в разных культурах предъявляют изображение “эмоциональных” лиц, и при необходимости выбрать из списка эмоцию, которая это лицо описывает, испытуемые выбирают их довольно согласовано. Пример шахматиста показывает, как в реальной жизни ожидаемое выражение эмоций может не происходить.

Кстати, посмотрите, как выглядел Ли Седоль, один из сильнейших игроков в Го, когда проиграл в 2016 году программе Alpha Go.

Ну и раз пошла такая пьянка – вот как компьютеру проиграл приснопамятный Гарри Каспаров – в 1997 г.

Пока смотрел эти видео пришла в голову забавная идея. Классические исследования мышления в психологии делались на шахматистах – на разборе того, как они принимают решения. Можно было бы на них же изучать проявление сильных эмоций – по тому, как они реагируют на те или иные события в игре. Очень даже экологичненько.

P.S. Скидывайте в комментарии ваши любимые видео с эмоциями после победы или поражения
👍177🔥3
Чизек об LLM.pdf
89.3 KB
Могут ли большие языковые модели мыслить?

Вчера мне попала в руки переписка Пола Чисека (очень интересного исследователя, о котором я раньше писал) и Джеффри Хинтона (патриарха диплёрнинга) о мышлении в больших языковых моделях. Переписка из коннекционистской имейл-рассылки Университета Карнеги-Меллона.

Как же приятно было читать текст Чисека! Потому что такой уважаемый мной теоретик оценивает LLM примерно так же, как и я (см. недавний пост в канале). Совпадение, конечно, не случайное: я Чисека читал и слушал.

Его посыл в том, что мозг не просто система обработки информации, а это система, которая реализует свои цели во взаимодействии с окружающим миром. И именно в контексте этих целей информация обретает смысл. Он даже упоминает обучение с подкреплением – о чём я несколько дней назад писал. Модели, обученные продолжать последовательности, не будут обладать смыслом ни в какой форме – потому что после обучения у них нет никаких целей во взаимодействии с миром.

Отличный текст, очень рекомендую!

https://mailman.srv.cs.cmu.edu/pipermail/connectionists/2023-March/039580.html

———
Так как идея переводов околонаучных текстов нашла отклик у почти 100 подписчиков, я сделал перевод письма Чисека – для тех, кому читать по-русски намного легче, чем по-английски. Это машинный перевод с моими исправлениями. Если вы прочитали перевод, а не оригинальный текст - ставьте единорога к этому посту. Я всё ещё не уверен, что такая деятельность осмысленна :)
🦄409👍6🔥1🌭1
Очень-очень плохая идея
- развивать сознание у роботов.

Неожиданный текст от Анила Сета.

Я писал, что в его теории сознание - атрибут живого существа. Из плоти и крови - как он сам всё время говорит. Ещё одна идея, которую он продвигает: перпендикулярность интеллекта и сознания. У животных, мол, они связаны, но у очень умной машины сознание совершенно не обязано появиться. И в свете этого он вдруг неожиданно присоединяется к AI-думерам, которые предупреждают об экзистенциальных опасностях быстрого развития искусственного интеллекта.

Сам пишет: я думаю, что сильный искусственный интеллект ещё далеко, и моя теория сознание у машин не допускает, но А ВДРУГ?? И если такая вероятность есть, то это плохо и опасно. Во-первых, опасно для выживания человечества. Во-вторых, породив сознательную сущность, мы неизбежно породим новые виды страданий - о которых сами и не догадываемся.

Certainly, nobody should be actively trying to create machine consciousness

– пишет Сет (замечу у скобках, что лично для меня это всегда было самой захватывающей идеей).

Мне показался этот текст нелогичным, и я это списываю на отказ обсуждать от сложную проблему сознания - о чём я писал в обзоре на книгу Сета. Отказываясь обсуждать центральный вопрос о природе сознания, мы вынуждены опираться на аргументы в духе "ну а вдруг?".

Но есть и интересные мысли. Даже если ИИ будет просто успешно имитировать наличие сознания, чувств и личности - люди будут в это верить и по-другому взаимодействовать с ИИ: больше ему доверять и неадекватно оценивать его возможности:

If we feel a machine truly believes what it says, we might be more inclined to take its views more seriously. If we expect an AI system to behave as a conscious human would—according to its apparent goals, desires, and beliefs—we may catastrophically fail to predict what it might do.

Ну и в конце мне понравилась метафора ИИ как оракула:

Perhaps future AI systems could be more like oracles, as the AI expert Yoshua Bengio has suggested: systems that help us understand the world and answer our questions as truthfully as possible, without having goals—or selves—of their own.

https://nautil.us/why-conscious-ai-is-a-bad-bad-idea-302937/
👍9🔥6🕊41🤔1
Любопытное видео: ТВЧ (Татьяна Владимировна Черниговская) в научпоп фильме 1982 года (40 лет назад!).

https://www.instagram.com/reel/CrNtzVUA-U4/?igshid=MDJmNzVkMjY=
7🔥5👎2😱1
Plant sentience

Статья, призывающая начать всерьёз рассматривать вопрос сознания или ощущения у растений.

Сначала рассматриваются когнитивные возможности растений: принятие решений, память, обучение, оценка рисков и т.д. На мой взгляд кое-что притянуто за уши, но в целом обзор интересный.

Затем рассматривается вопрос о том, можем ли мы говорить о “нейробиологии” в организмов, у которых нет нейронов. Авторы говорят: а почему нет? Передача сигналов есть, химия этих сигналов сходна с нашими нейромедиаторами, функционал такой же. От этого авторы плавно переходят к сознанию:

plants lack none of the functional structures that are supposedly needed [to be sentient]

- цитируют они других авторов.

По сути, сознание (или – способность ощущать) приписывается по совокупности признаков: что-то типа нервной системы есть, когнитивные процессы есть – должно быть и сознание. Не слишком убедительно, но интересно.
16👏4👍2🤔1
Дебаты о теориях сознания

Дебаты представителей разных научных теорий сознания на прошлогодней конференции ASSC 2022. Я на той конференции не был, поэтому посмотрел спустя почти год двухчасовое видео на ютубе.

Выступали:
- Стивен Флеминг - как представитель теорий иерархических репрезентаций (Higher order thought, HOT)
- Виктор Ламме - как представитель теорий рекуррентной активации (recurrent processing)
- Стэн Деан - как представитель теории глобального рабочего пространства (Global workspace theory, GWT)
- Мелани Боли – как представитель теории интеграции информации (Information integration theory, IIT)

Модерировали:
- Лиад Мудрик (см. её лекцию о теориях сознания)
- Лучия Меллони

Дебаты были дружеские, но довольно серьёзные, местами колкие.
Кажется, что Ламме и Боли понимают друг друга лучше, чем представителей HOT и GWT – потому что фокусируются на феноменальном опыте как главном аспекте сознания, который требует объяснения. То есть пытаются ответить на вопрос: что происходит в мозге в момент, когда мы ясно видим что-то перед собой, то есть отражаем это в сознании. В то же время, Флеминг и Деан больше сфокусированы на функциональной роли сознания: что сознание позволяет нам делать такого, чего не позволяет делать неосознаваемая обработка информации. Ламме говорит, что это не про сознание, а про внимание и высшие когнитивные процессы.

Дебаты ожидаемо ни к чему не пришли. Все остались примерно при своём, хотя какие-то интересные вопросы и идеи прозвучали.

https://youtu.be/INSxzlE0RsI
🔥15👍8❤‍🔥32
Гарри Каспаров (2017) про то, что разработчикам ИИ не очень-то нужны нейроучёные и психологи. Узнали? Согласны?
😁11👍5😢4👎2🔥1
Великие тоже ошибаются

Джофри Хинтон сейчас много говорит и пишет про опасности развития ИИ. Даже уволился из Гугла, чтобы, мол, свободно говорить на эту тему.

При этом у Хинтона огромный авторитет, и ему многие доверяют. Он работал на заре нейросетей в целом и глубокого обучения в частности + он ученый-когнитивист, то есть разбирается в закономерностях и механизмах человеческого поведения и интеллекта. У меня лично к нему огромное уважение.

При всем этом я скептически относился к его недавним высказываниям об опасностях AI: слишком они неконкретные и слишком в духе наивного AI-думерства. Плюс, я много читал Талеба, чтобы верить предсказаниям экспертов о глобальных событиях, которые никогда не происходили.

Сегодня на глаза попал один интересный пример того, как Хинтон жестоко ошибался в своём прогнозе - хотя тема была ближе к его непосредственной деятельности и про намного более конкретные вещи, чем экзистенциальные риски ИИ.

В 2016 году Хинтон предсказал, что профессия радиолога в скором времени исчезнет: диагностику рентгеновских снимков будут делать алгоритмы машинного зрения. Слово гению (без сарказма):

We should stop training radiologists now. It’s just completely obvious that within five years, deep learning is going to do better than radiologists.

Сегодня в твиттере увидел график, показывающий, что с того момента количество вакансий для радиологов в Америке УВЕЛИЧИЛОСЬ. Кстати, про это предсказание уже писал в 2019 г. Гэри Маркус.

Этот пример не значит, что Хинтон обязательно ошибётся. Это значит, что Хинтон может ошибаться, одного его имени недостаточно для веры в его прогнозы.
👍385
Dissociation between conscious and unconscious processes as a criterion for sentience

Помните статью про сознание у растений? Мы с коллегами побрейнстормили и написали комментарий к этой статье: https://www.wellbeingintlstudiesrepository.org/animsent/vol8/iss33/25/

От растений нельзя получить вербальный отчёт, а само по себе "когнитивное поведение" – типа ассоциативного научения – сознания не гарантирует. На это указали многие комментаторы этой статьи.

Основываясь на исследованиях сознания у человека мы предложили следующую – на первый взгляд контринтуитивную – идею: чтобы показать наличие сознания в некоторой системе (вид животного, растения или компьютер), необходимо продемонстрировать наличие как осознаваемых, так и неосознаваемых процессов в этой системе.

Существование неосознаваемых процессов обработки информации постулируется всеми основными научными теориями сознания. Плюс, методически, сравнение эффектов осознаваемой и неосознаааеиой обработки - золотой стандарт в экспериментальных исследованиях сознания в когнитивной психологии и нейронауке.

Такой подход сработал недавно на животных. Бен-Хаим и коллеги (2021) использовали парадигму подсказки, в которой макаки-резусы определяли местоположение предъявляемых стимулов. Перед стимулами давалась короткая визуальная подсказка: либо надпорогово (то есть над порогом осознания, более долгое предъявление - 250 мс), либо подпоротого (17/33 мс, то есть 1/30 секунды). Авторы обнаружили, что надпороговые подсказки (предположительно осознаваемые) ускоряли правильное обнаружение целей, а подпороговые (предположительно неосознаваемые) – замедляли.

Подход, основанный на демонстрации такой диссоциации, не требует заглядывать в субьективный мир цветочка, но позволяет показать два типа принципиально разных процессов в системе. Поэтому мы считаем, что это может быть интересным направлением в исследовании сознания у растений.

Немного спекулируя дальше, можно сказать, что полностью сознательная система неотличима от полностью неосознанной. Сознание всегда связано с избирательностью, то есть отсевом (или даже подавлением) части информации в системе. Но это скорее моя интуиция, хороших аргументов для обоснования этого тезиса у меня пока нет. Будем искать.
🔥20🤔8👍52
Have we lost our minds?

Какой прекрасный блогпост от Мэтью Ботвинника.

Ботвинник был главным теоретиком когнитивного контроля в двухтысячных, а потом работаю в Deep Mind над искусственным интеллектом.

Мне всегда казалось, что он довольно конкретный мыслитель, но тут он написал историческое / личное / философское эссе.

Сначала кажется, что он собрался высказаться по поводу экзистенциальных рисков ИИ, но по ходу чтения оказывается, что он решил высказаться о человеческом сознании.

Пишет, как сознание ему было интересно с самого начала научной карьеры, но по ходу дела стало казаться, что ничего необъяснимого в нем нет, все вроде бы объясняется нейрофизиологическими механизмами, которые мы успешно открываем.

Именно реакция на революцию в ИИ последних двух лет заставила его снова подумать об этом и… отвергнуть эту мысль. Современный ИИ может делать почти всё, что делает человек. И в нём явно нет никакого сознания. Значит ли это, что в нас сознания тоже нет?..

Ботвинник углубляется в некоторые философские работы, которые на него повлияли. Он цитирует критику элиминитивизма (идеи, что сознания и правда не существует), а затем переходит к критике эпифеноменализма. Эпифеноменализм гласит, что сознание существует, но не имеет никакой функциональной роли. Это просто такой ни на что не влияющий побочный эффект работы мозга. Опровергнуть эпифеноменализм сложно, но можно высказывать аргументы против него - что Ботвинник и пытается делать.

В итоге он приходит к выводу, что сознание – это единственное, что заставляет нас беспокоиться об окружающем мире, испытывать боль и удовольствие, таким образом влияя на наше поведение. В конце концов, сознание, феноменальный опыт – единственное, что делает мир осмысленным.

Слово автору:

Why does it matter if, say, your dog gets hit by a car? Or if your soccer team wins? Or if COVID cases rise in China? These things matter precisely because of the pain or pleasure they cause, whether that is physical or psychic, personal or sympathetic, immediate, eventual, anticipated, or avoided. That pain or pleasure, in turn, is fundamentally an experience, tied to and dependent upon consciousness. To state the bottom-line conclusion, things only matter because of their impact on your conscious experience. Consciousness, whatever else may be true of it, is the only thing we know of that makes other things matter.
👍2910👀2
The mind is flat

Интересная, но не бесспорная лекция британского профессора Ника Чейтера (пять лет в обед). Он выступает против идеи сильного когнитивного бессознательного. Что это значит?

В психологии довольно давно доминирует идея о том, что когнитивные процессы можно разделить на осознаваемые и неосознаваемые. При этом, содержание неосознаваемой части психики намного шире, чем осознаваемой. Например, можно взять нашу память: всё, что мы помним, хранится без сознания и осознаётся только в момент произвольного или непроизвольного извлечения воспоминаний.

Также общим мнением является то, что большая часть когнитивных процессов протекает вовсе без участия сознания: подпороговое восприятие, имплицитное научение, имплицитная память, когнитивные искажения и т.д и т.п.

При этом подспудно предполагается, что содержания бессознательного, то есть хранящиеся там репрезентации событий и объектов внешнего мира, идентичны осознаваемым. Чтобы они осознались, нужно что-то к этим репрезентацияи добавить (например, чтобы они попали в глобальное рабочее пространство).

Чейтер же утверждает, что содержание сознания - это и есть исчерпывающее содержание нашей психики. Всё, что остаётся за пределами сознания не является неосознаваемой копией того, что находится в сознании. Это некоторые нейрофизиологические отпечатки прежнего опыта. Они, конечно, влияют на формирование содержания сознания, но сознание всегда конструирует свое содержание заново. Да – под влиянием предыдущего опыта и на его основе. Нет никаких неосознаваемых воспоминаний и когниций. Когда мы что-то осознанно вспоминаем, мы конструируем воспоминания заново из имеющегося нейрофизиологического материала.

Таким образом, Чейтер подчеркивает, с одной стороны, ограниченность нашего сознания (ложные воспоминания, слепота по невниманию и т. д.). А с другой стороны – творческую силу нашего сознания (см. разные иллюзии и как контекст определяет интерпретацию событий), которое постоянно конструирует образ окружающего мира, да ещё и выстраивает из этих конструкций единую слаженную историю.

https://www.youtube.com/watch?v=vspX6NaLxdc
👍12🔥7🤔3
Engineering sentience

Выступление Хаквана Лау на тему сознания с точки зрения инженерии. На самом деле, про инженерию почти ничего конкретного нет, но мне понравилась структура доклада: даётся рабочее определение сознания и защищается в ходе выступления.

[есть ещё твиттер-тред с пояснениями от самого Лау]

Лау начинает с того, что в эмпирической науке мы можем исходить исключительно из функциональной роли сознания.

Общий путь биологии - в его изложении - такой: мы идентифицируем функцию, а затем обнаруживаем и описываем её механизмы. Если мы не считаем, что у сознания нет какой-то когнитивной функции, то мы можем заниматься философией, физикой, чем угодно, но не биологией (психологией) сознания.

Лау говорит про sentience, а не consciousness. Но sentience (способность субъективно ощущать) - это часть сознания. Иногда её называют феноменальным сознанием.

Определение Лау даёт такое: meaningful processing of sensory signals that are *self-asserting* and *subjectively qualitative*.

“Self-asserting” (я бы перевёл как "императивный", "неотвратимый") значит, что некий сигнал признается по умолчанию несущим некую истинную информацию о мире или об организме. Мы можем оценить мысль как неправильную и отказаться от нее, но мы не можем так же отказаться от головной боли или от того, что яблоко перед нами красное.

"Qualitative" значит, что этот сигнал существует в некотором аналоговом формате и может быть охарактеризован только через сравнение с другими такими сигналами. Например, ощущение красноты того самого яблока может быть описано только через сравнение с другими ощущениями, например, через схожесть с ощущением розового цвета и несхожесть с ощущением зелёного цвета.

Сигнал "subjective" в том смысле, что он говорит о нашем восприятии, а не только о мире. Человек с дальтонизмом не различает зелёный и красный, но он знает, что в реальности объекты этих цветов различаются и другие люди это видят.

Такое безусловное принятие информации может быть информативно: оно может сообщать нам как об окружающем мире, так и о нас самих – например, в случае конфликта между тем, что мы знаем и тем, что мы чувствуем (галлюцинации, иллюзии).

Разложив феноменальное сознание на эти компоненты, мы можем думать, как реализовать его в машинах. Например, можно ли сделать часть поступающих сигналов "self-asserting"? Да, можно. Любопытный момент, на котором настаивает Лау: мы можем сами решить, какие сигналы делать такими. Например, восприятие цвета можно сделать таким аналоговым и императивным, а воприятие боли - нет. Таким образом мы избежим увеличения страдания в мире, о чем переживают некоторые учёные.

Мне кажется, что функциональная роль этих специфических осознаваемых сигналов в докладе раскрыта была не так хорошо. Но мне понравилась попытка дать технически реализуемое определение сознания.
👍164🔥4
Про мышей и котов

Люблю поучительные анекдоты из истории науки.

Читал программную статью Яка Панксеппа про эмоции у животных (о ней, наверное, напишу отдельно), где он описывает такую историю. Несколько лет подряд он с коллегами получал разные интересные результаты относительно того, как крысы реагируют на фармакологию, связанную со снижением тревожности.

Оказалось, что эти результаты были под сильным влиянием того, что по-соседству (на расстоянии нескольких комнат) находилась лаборатория, где ставили эксперименты на кошках. Крысы чувствовали кошачий запах, и их поведение было почти всегда было под влиянием стресса, страха и тревоги. Как только кошачья лаборатория закрылась, полученные на крысах эффекты перестали воспроизводиться.

Исследователи поняли причину пропавших эффектов только несколько лет спустя, заметив, что они снова наблюдаются, как только в лаборатории появляется кошачий запах.

Напомнило недавнее исследование, где было показано, что пол экспериментатора влияет на поведение лабораторных крыс (думал, что постил это раньше в канале, но не смог найти).

Такие вот вещи влияют на реплицируемость исследований. Не только плохая статистика исследователей и криворукость репликаторов.
🔥46👍83
2025/10/21 09:52:33
Back to Top
HTML Embed Code: