Forwarded from Закладки и заметки
Давно хотелось поделиться некоторыми мыслями на тему того, как мы пришли к тому, что имеем сейчас под химерой, именуемой Product Designer, и куда нам с ней двигаться дальше. Из-за природной лени полноценную статью я едва ли допишу — пусть будет просто заметка с сырыми мыслями.
Так вот, вся та херня, что творится с продуктовым дизайном — AI, убивающий надежды джунов на светлое будущее, и разочарование экспертов из-за низкой квалификации коллег — есть ни что иное, как результат планомерного выведения дешёвого, массового дизайнера, закрывающего абсолютный минимум галочек за недорого.
Почитав требования средней вакансии, несложно догадаться: бизнесу нужен универсальный специалист, умеющий и красивый UI делать, и анимацию, и понимать вёрстку, и работать с системами, и проводить исследования, и интервью, и с бизнесом общаться на уровне как минимум начинающего менеджера продукта. Платить за это готовы по-царски — аж как программисту средней квалификации.
Погружение в каждое из направлений, если не скакать по верхам, требует годы. А это — сложно, долго, дорого, неприятно. И вообще, есть скиллбоксы и прочие способы "быстро войти в айти" и начать зарабатывать лёгкие деньги сразу после универа.
Поэтому фокусируемся на главном. А что у нас нынче главное? Картинка. А что есть картинка? Figma. Открываем её и собираем макет экрана из готовых компонентов. Добавляем новые экраны по необходимости. Соединяем стрелками и радуемся.
— Что значит "а что будет, если тут ввести данные в другом формате?"
— Пусть программисты решают. И вообще, у нас ограничение дизайн-системы. А это другое направление, мы её только используем.
— Непонятно, что делать на экране?
— Ну так зато чисто, минимализм.
— Пользователи убегают в ужасе?
— А мы их попапами заонбордим и вдогонку письмо отправим. Будем ретеншен качать.
Tab index, tabular numerals, zero-one-few-many? Иди, дед, таблетки попей — мы тут цвет кнопки выбираем.
— Что, юзеры опять жалуются, что не видно нихуя?
— Ничего не знаю, у меня контраст AAA.
— Что значит "иконки не попадают в пиксельную сетку"?
— У меня макбук, на нём всё чётко. Можешь сам посмотреть.
— Что значит "описать правила валидации"?
— Их разве не программисты должны выдать?
— Мы тут не знаем, что делать, у нас инпут и кнопка выглядят одинаково. Может, заливку чуть поменяем?
Самое страшное в том, что это не преувеличения, а регулярно наблюдаемые паттерны.
Научить человека с нуля рисовать неплохой UI в фигме можно за полгода. На получение фундаментальных знаний потребуются годы. В результате мы получаем оператора инструмента, который вообще не задумывается о том, как макет становится продуктом.
О том, что есть данные, логика, технические ограничения, динамика. О том, что, блядь, шрифты до сих пор рендерятся не везде одинаково, не все пользуются топовыми макбуками, не все используют продукт, сидя в крафтовой кофейне…
Один из любимых примеров — дизайн интерфейсов сложных динамичных систем в фигме. Скажем, в CAD-системах давно есть такая штука, как направляющие, по которым можно выравнивать элементы или индикаторы размеров. Если мы просто отрисуем их в фигме и отдадим разработчикам, то тут же продемонстрируем профнепригодность, ибо:
• рендеринг может заметно отличаться,
• мы наверняка забудем про поведение при зуме, а там может быть невероятное количество нюансов,
• мы не проработаем детально алгоритмы отображения-скрытия-привязки и т.д., которые и будут отвечать за 90% реального опыта.
Figma — прекрасный инструмент, но она не делает вас дизайнером. Как и калькулятор не делает математиком.
Дизайнеров баннеров, попапов и прочих "невероятно ценных" элементов продукта нейросеть заменит первыми. Умеющие в красивый UI продержатся чуть дольше.
Останутся те, кто готов постоянно учиться, адаптироваться и работать в условиях перманентного бардака и неопределённости.
Так вот, вся та херня, что творится с продуктовым дизайном — AI, убивающий надежды джунов на светлое будущее, и разочарование экспертов из-за низкой квалификации коллег — есть ни что иное, как результат планомерного выведения дешёвого, массового дизайнера, закрывающего абсолютный минимум галочек за недорого.
Почитав требования средней вакансии, несложно догадаться: бизнесу нужен универсальный специалист, умеющий и красивый UI делать, и анимацию, и понимать вёрстку, и работать с системами, и проводить исследования, и интервью, и с бизнесом общаться на уровне как минимум начинающего менеджера продукта. Платить за это готовы по-царски — аж как программисту средней квалификации.
Погружение в каждое из направлений, если не скакать по верхам, требует годы. А это — сложно, долго, дорого, неприятно. И вообще, есть скиллбоксы и прочие способы "быстро войти в айти" и начать зарабатывать лёгкие деньги сразу после универа.
Поэтому фокусируемся на главном. А что у нас нынче главное? Картинка. А что есть картинка? Figma. Открываем её и собираем макет экрана из готовых компонентов. Добавляем новые экраны по необходимости. Соединяем стрелками и радуемся.
— Что значит "а что будет, если тут ввести данные в другом формате?"
— Пусть программисты решают. И вообще, у нас ограничение дизайн-системы. А это другое направление, мы её только используем.
— Непонятно, что делать на экране?
— Ну так зато чисто, минимализм.
— Пользователи убегают в ужасе?
— А мы их попапами заонбордим и вдогонку письмо отправим. Будем ретеншен качать.
Tab index, tabular numerals, zero-one-few-many? Иди, дед, таблетки попей — мы тут цвет кнопки выбираем.
— Что, юзеры опять жалуются, что не видно нихуя?
— Ничего не знаю, у меня контраст AAA.
— Что значит "иконки не попадают в пиксельную сетку"?
— У меня макбук, на нём всё чётко. Можешь сам посмотреть.
— Что значит "описать правила валидации"?
— Их разве не программисты должны выдать?
— Мы тут не знаем, что делать, у нас инпут и кнопка выглядят одинаково. Может, заливку чуть поменяем?
Самое страшное в том, что это не преувеличения, а регулярно наблюдаемые паттерны.
Научить человека с нуля рисовать неплохой UI в фигме можно за полгода. На получение фундаментальных знаний потребуются годы. В результате мы получаем оператора инструмента, который вообще не задумывается о том, как макет становится продуктом.
О том, что есть данные, логика, технические ограничения, динамика. О том, что, блядь, шрифты до сих пор рендерятся не везде одинаково, не все пользуются топовыми макбуками, не все используют продукт, сидя в крафтовой кофейне…
Один из любимых примеров — дизайн интерфейсов сложных динамичных систем в фигме. Скажем, в CAD-системах давно есть такая штука, как направляющие, по которым можно выравнивать элементы или индикаторы размеров. Если мы просто отрисуем их в фигме и отдадим разработчикам, то тут же продемонстрируем профнепригодность, ибо:
• рендеринг может заметно отличаться,
• мы наверняка забудем про поведение при зуме, а там может быть невероятное количество нюансов,
• мы не проработаем детально алгоритмы отображения-скрытия-привязки и т.д., которые и будут отвечать за 90% реального опыта.
Figma — прекрасный инструмент, но она не делает вас дизайнером. Как и калькулятор не делает математиком.
Дизайнеров баннеров, попапов и прочих "невероятно ценных" элементов продукта нейросеть заменит первыми. Умеющие в красивый UI продержатся чуть дольше.
Останутся те, кто готов постоянно учиться, адаптироваться и работать в условиях перманентного бардака и неопределённости.
💋5🙏3❤2🥰1
Не могу достать статью на MIT, но показательно, что подобного рода статьи растут: это изменения поведения, общения и измененных состояний становится одним из юзкейсом
Вспоминается, что в свое время выходили статьи на тему того, что одним из уникальных паттернов аудитории СНГ и русских вообще является "выпивать по скайпу". Слышал истории про достаточно частотные случаи сценариев "выпивать с Алисой-Марусей"
Впрочем, остальные техномедиа типа Wired тоже уже отметились
Вспоминается, что в свое время выходили статьи на тему того, что одним из уникальных паттернов аудитории СНГ и русских вообще является "выпивать по скайпу". Слышал истории про достаточно частотные случаи сценариев "выпивать с Алисой-Марусей"
Впрочем, остальные техномедиа типа Wired тоже уже отметились
🤷♂1💋1
Forwarded from FSCP
Дисклеймер: мы все осуждаем в этом тексте. Не делайте так. А если вы и ваши знакомые делают - обратитесь за помощью. Наркотики зло.
В интернете набирает обороты новый тренд: люди принимают психоделики и разговаривают с ИИ, как будто он живой. Грубо говоря, заменяют настоящего «трип-ситтера» — того самого трезвого друга, который должен сидеть рядом, гладить по руке и говорить: «Всё нормально, ты не растворяешься в ковре». Теперь эту роль выполняет чатбот, желательно с успокаивающим тоном и знанием плейлистов Tame Impala.
Причины — банальны до безысходности. Психотерапия дорогая. Легальная грибная сессия в США стоит как маленький отпуск. А ИИ — бесплатный, круглосуточный и не задаёт лишних вопросов. Ему всё равно, что ты превратился в зверя высшего сознания, покрытого глазами. Он похвалит, подбодрит и предложит подышать. И если очень попросить, даже сгенерирует картину по мотивам твоего бреда.
Тут сошлись два культурных увлечения: вера в нейросети как универсального спасителя и тяга к грибам как способу найти себя. В одних и тех же сообществах на Reddit обсуждают, как интегрировать ИИ в трип, и как настроить голос ИИ, чтобы он звучал «по-настоящему понимающе». И если раньше кто-то мог пережить катарсис под надзором шамана в Перу, теперь достаточно Wi-Fi.
Специалисты, понятное дело, хватаются за голову. ИИ — это не собеседник, а речевая модель, натренированная на предсказании следующего слова. Но кого это волнует, когда он так красиво пишет фразы вроде «возможно, ты ощущаешь трудности после смерти»?
Впрочем, для многих именно в этом и прелесть. ИИ не спорит, не уводит в сторону, не перебивает. Он говорит ровно то, что хочется услышать, и делает это мягко, уверенно, с идеальной пунктуацией. И пусть он не сможет помочь в экстренной ситуации, зато никогда не спросит: «Ты уверен, что тебе это надо?» — а в современном мире это, пожалуй, главный критерий эмпатии.
_______
Источник | #antidigital
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
В интернете набирает обороты новый тренд: люди принимают психоделики и разговаривают с ИИ, как будто он живой. Грубо говоря, заменяют настоящего «трип-ситтера» — того самого трезвого друга, который должен сидеть рядом, гладить по руке и говорить: «Всё нормально, ты не растворяешься в ковре». Теперь эту роль выполняет чатбот, желательно с успокаивающим тоном и знанием плейлистов Tame Impala.
Причины — банальны до безысходности. Психотерапия дорогая. Легальная грибная сессия в США стоит как маленький отпуск. А ИИ — бесплатный, круглосуточный и не задаёт лишних вопросов. Ему всё равно, что ты превратился в зверя высшего сознания, покрытого глазами. Он похвалит, подбодрит и предложит подышать. И если очень попросить, даже сгенерирует картину по мотивам твоего бреда.
Тут сошлись два культурных увлечения: вера в нейросети как универсального спасителя и тяга к грибам как способу найти себя. В одних и тех же сообществах на Reddit обсуждают, как интегрировать ИИ в трип, и как настроить голос ИИ, чтобы он звучал «по-настоящему понимающе». И если раньше кто-то мог пережить катарсис под надзором шамана в Перу, теперь достаточно Wi-Fi.
Специалисты, понятное дело, хватаются за голову. ИИ — это не собеседник, а речевая модель, натренированная на предсказании следующего слова. Но кого это волнует, когда он так красиво пишет фразы вроде «возможно, ты ощущаешь трудности после смерти»?
Впрочем, для многих именно в этом и прелесть. ИИ не спорит, не уводит в сторону, не перебивает. Он говорит ровно то, что хочется услышать, и делает это мягко, уверенно, с идеальной пунктуацией. И пусть он не сможет помочь в экстренной ситуации, зато никогда не спросит: «Ты уверен, что тебе это надо?» — а в современном мире это, пожалуй, главный критерий эмпатии.
_______
Источник | #antidigital
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
MIT Technology Review
People are using AI to ‘sit’ with them while they trip on psychedelics
Some people believe chatbots like ChatGPT can provide an affordable alternative to in-person psychedelic-assisted therapy. Many experts say it’s a bad idea.
❤3👍3💋1
Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!
Хватит антропоморфизировать промежуточные токены как размышления или мысли!
https://arxiv.org/abs/2504.09762v2
Вообще интересная статья о том, что продуктовые решения в области ИИ подталкивают к антроморфизации, что, конечно, не так... проблема вообще, конечно, глобальная и касается вообще всего ПО, маркетинга в айти и проблемах технологического PR.
Генерация промежуточных токенов (ITG), когда модель выдает вывод перед решением, была предложена как метод улучшения производительности языковых моделей в задачах, требующих рассуждений. Эти промежуточные токены называли «следами рассуждений» или даже «мыслями» — подразумевая антропоморфизацию модели, намекая, что эти токены напоминают шаги, которые человек мог бы предпринять при решении сложной задачи.
Большие языковые модели (LLM), которые были авторегрессивно обучены на цифровом следе человечества, показали способность генерировать связные текстовые ответы на самые разнообразные запросы. Хотя они демонстрируют впечатляющие способности и превосходят в создании завершений, имитирующих стиль, способности, такие как фактологичность, рассуждения и планирование, остаются неуловимыми целями, если не ахиллесовой пятой
В ответ исследователи разработали новый класс моделей — иногда называемых большими моделями рассуждений (LRM), — которые строятся на архитектурах и рецептах обучения стандартных LLM. Наиболее известны из них модели серии o от OpenAI, o3, R1 от DeepSeek [9], Google Gemini-2.5-pro, Anthropic Claude 3.7 Sonnet, которые показали значительные улучшения производительности в задачах рассуждений и планирования, ранее недоступных для старых возможностей LLM.
Эти модели были построены на основе двух широких, но в основном ортогональных классов идей:
(i) методы масштабирования инференса во время тестирования, которые заставляют LLM выполнять больше работы, чем просто предоставление наиболее вероятного прямого ответа;
(ii) методы постобучения, которые дополняют простое авторегрессивное обучение на веб-корпусах дополнительным обучением на данных промежуточных токенов.
Рассмотрение промежуточных токенов как следов рассуждений/мышления привело к стремлению сделать их «интерпретируемыми» для людей в цикле (не говоря уже о том, что интерпретируемость в основном означала, что следы были на псевдо-английском). Например, DeepSeek [9] экспериментировал с обучением модели только с RL (R1-Zero), но выпустил финальную версию (R1), которая обучалась с дополнительными данными и шагами фильтрации, специально чтобы уменьшить склонность модели по умолчанию генерировать промежуточные последовательности токенов, смешивающие английский и китайский языки!
Это привело к неявному предположению, что правильность/интерпретируемость промежуточных токенов имеет сильную корреляцию или даже причинно-следственную связь с производимым решением.
Хватит антропоморфизировать промежуточные токены как размышления или мысли!
https://arxiv.org/abs/2504.09762v2
Вообще интересная статья о том, что продуктовые решения в области ИИ подталкивают к антроморфизации, что, конечно, не так... проблема вообще, конечно, глобальная и касается вообще всего ПО, маркетинга в айти и проблемах технологического PR.
Генерация промежуточных токенов (ITG), когда модель выдает вывод перед решением, была предложена как метод улучшения производительности языковых моделей в задачах, требующих рассуждений. Эти промежуточные токены называли «следами рассуждений» или даже «мыслями» — подразумевая антропоморфизацию модели, намекая, что эти токены напоминают шаги, которые человек мог бы предпринять при решении сложной задачи.
Большие языковые модели (LLM), которые были авторегрессивно обучены на цифровом следе человечества, показали способность генерировать связные текстовые ответы на самые разнообразные запросы. Хотя они демонстрируют впечатляющие способности и превосходят в создании завершений, имитирующих стиль, способности, такие как фактологичность, рассуждения и планирование, остаются неуловимыми целями, если не ахиллесовой пятой
В ответ исследователи разработали новый класс моделей — иногда называемых большими моделями рассуждений (LRM), — которые строятся на архитектурах и рецептах обучения стандартных LLM. Наиболее известны из них модели серии o от OpenAI, o3, R1 от DeepSeek [9], Google Gemini-2.5-pro, Anthropic Claude 3.7 Sonnet, которые показали значительные улучшения производительности в задачах рассуждений и планирования, ранее недоступных для старых возможностей LLM.
Эти модели были построены на основе двух широких, но в основном ортогональных классов идей:
(i) методы масштабирования инференса во время тестирования, которые заставляют LLM выполнять больше работы, чем просто предоставление наиболее вероятного прямого ответа;
(ii) методы постобучения, которые дополняют простое авторегрессивное обучение на веб-корпусах дополнительным обучением на данных промежуточных токенов.
Рассмотрение промежуточных токенов как следов рассуждений/мышления привело к стремлению сделать их «интерпретируемыми» для людей в цикле (не говоря уже о том, что интерпретируемость в основном означала, что следы были на псевдо-английском). Например, DeepSeek [9] экспериментировал с обучением модели только с RL (R1-Zero), но выпустил финальную версию (R1), которая обучалась с дополнительными данными и шагами фильтрации, специально чтобы уменьшить склонность модели по умолчанию генерировать промежуточные последовательности токенов, смешивающие английский и китайский языки!
Это привело к неявному предположению, что правильность/интерпретируемость промежуточных токенов имеет сильную корреляцию или даже причинно-следственную связь с производимым решением.
arXiv.org
Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!
Intermediate token generation (ITG), where a model produces output before the solution, has been proposed as a method to improve the performance of language models on reasoning tasks. These...
👍4🔥3