Forwarded from AI Product | Igor Akimov
Similarweb поделилась данными по трафику за апрель в секторе GenAI.
Из интересного:
- в общем OpenAI продолжает бешено расти, как и Google и Grok, DeepSeek чуть подупал, но потому что он до этого сожрал всех.
- в генерации картинок на первом месте Leonardo.AI
- в генерации видео Veed и HeyGen
- в генерации кода самое интересное - на первом месте по трафику не Cursor, а Lovable, потом на третьем Replit, Bolt, V0 и Windsurf.
Ну и интересен отчет по падению трафика из-за AI. В первую очередь это образовательные сайты, фриланс-биржи, веб-конструкторы, сайты со стоковыми фотографиями, форумы и даже поисковые системы
Из интересного:
- в общем OpenAI продолжает бешено расти, как и Google и Grok, DeepSeek чуть подупал, но потому что он до этого сожрал всех.
- в генерации картинок на первом месте Leonardo.AI
- в генерации видео Veed и HeyGen
- в генерации кода самое интересное - на первом месте по трафику не Cursor, а Lovable, потом на третьем Replit, Bolt, V0 и Windsurf.
Ну и интересен отчет по падению трафика из-за AI. В первую очередь это образовательные сайты, фриланс-биржи, веб-конструкторы, сайты со стоковыми фотографиями, форумы и даже поисковые системы
1❤19
Forwarded from All is Gucci
У Duolingo сова влюбляется в Дуа Липу, выходит на подиум и гибнет под колесами Cybertruck. Liquid Death нанимает панк-вокалистов и сценариста Mr. Pickles вместо маркетологов. Netflix строит тематические парки в духе Диснейленда.
Это новая логика выживания в эпоху роста creator economy и дефицита внимания. Маркетологи Small World выпустили репорт Entertain or Die 2.0 суть которого в том, что в 2025 году b2c-бренды больше не конкурируют друг с другом. Теперь они конкурируют с MrBeast, тиктокерами, Discord-фандомами и DIY-студиями на YouTube. С теми, кто умеет развлекать.
В репорте исследовали 100 брендов (среди них А24, Дисней, Дуолинго, Liquid Death) по 7 параметрам: юмор, характер, внимание, контент, эмоциональная связь и узнаваемость. Также опросили 20000 респондентов. Из всего этого вывели общий тренд: самые громкие бренды заимствуют практики креаторов.
💙 создают внутриигровые вселенные (brand lore)
💙 нанимают нестандартных авторов вместо агентств
💙 строят продакшн-инхаусы по модели writer’s room
💙 создают свои медиа (журналы, подкасты, шоу)
💙 взаимодействуют с реальным миром и напрямую сотрудничают с креаторами.
Топ-30 брендов по Entertainment Index показали:
💙 97% из них растут быстрее, чем конкуренты
💙 67% показывают двузначный рост выручки
💙 многие делают это без «массового охвата», а через вовлеченность
Как написали в репорте: «хороший бренд не нуждается в вашей любви. Ему нужно ваше внимание». Полистать репорт можно в комментах.
Это новая логика выживания в эпоху роста creator economy и дефицита внимания. Маркетологи Small World выпустили репорт Entertain or Die 2.0 суть которого в том, что в 2025 году b2c-бренды больше не конкурируют друг с другом. Теперь они конкурируют с MrBeast, тиктокерами, Discord-фандомами и DIY-студиями на YouTube. С теми, кто умеет развлекать.
В репорте исследовали 100 брендов (среди них А24, Дисней, Дуолинго, Liquid Death) по 7 параметрам: юмор, характер, внимание, контент, эмоциональная связь и узнаваемость. Также опросили 20000 респондентов. Из всего этого вывели общий тренд: самые громкие бренды заимствуют практики креаторов.
Топ-30 брендов по Entertainment Index показали:
Как написали в репорте: «хороший бренд не нуждается в вашей любви. Ему нужно ваше внимание». Полистать репорт можно в комментах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤25
Ребятки, все крутые новости по ИИ на Твиттере, я делаю перепосты от силы 5%, чем хотелось бы делится. Пока руками, но в планах агент, который будет сканировать ленту, выбирать релевантные посты. А пока я там сделал лист, куда собираю всех, кто высказывает что-то полезное по теме. Хотите из первых рук - см здесь: https://x.com/i/lists/1893738230648033398
1❤20
Пять копеек по поводу MCP. Мое IMO: Alex Antonov я очень много на эту тему читаю, но заметил такую вещь. Прогеры по большей части на дух не переносят no-code/low-code решения и носятся с MCP, как с писанной торбой, но это одна из многочисленных разновидностей интеграций.
В make 1700 интеграций, около того в n8n, в Zapier 7000, не говоря о подобных сервисах от Гугл или МС. При этом эти интеграции отлажены, проверены, надежно работают, можно использовать no-code, можно делать инъекции кода, если надо.
90% того, что пишут про MCP напоминает мне, как пришли дилетанты и изобретают велосипед, потому что ничего другого не умеют.
MCP и код работает в редких случаях, где нет интеграций. Но если есть API, то даже если нет штатных интеграций, всегда можно все связать через Webhook. А если API нет, как к примеру в MJ, то и MCP не поможет.
Просто на эту тему пишут в основном прогеры, которые не умеют в интеграционные сервисы, и поэтому может создаться ложное ощущение, что это какая-то новая технология.
Это хайп. Если вы делаете приложение с бэкендом, то выбираете подобные подходы, да и то вопрос, зачем писать много кода, когда можно подключать готовые сценарии.
✅ Что такое MCP на самом деле:
MCP (Model Communication/Control Protocol/Plane/Proxy) — это прокладка, интеграционный слой, абстрактный шлюз, который:
• принимает запросы от модели или агента;
• маршрутизирует их к внешним системам (API, базы данных, файлы, UI и пр.);
• возвращает результат назад.
MCP ничем не “управляет”, не рассуждает, не выбирает, не строит цепочки сам по себе. Это вспомогательный инструмент, аналог task runner или dispatcher.
📌 MCP ≈ Zapier / Make / n8n по сути
🧠 Разница — в языке описания и контексте, а не в возможностях
• MCP появился в AI-среде, поэтому преподносится как что-то новое.
• Make / Zapier пришли из бизнес-процессов, но делают те же задачи.
MCP — это “ближе к металлу”, может быть реализован в коде, через JSON, YAML, Graph схемы. Zapier — это GUI. Но архетип один и тот же: обработка запроса, маршрутизация, возврат.
В make 1700 интеграций, около того в n8n, в Zapier 7000, не говоря о подобных сервисах от Гугл или МС. При этом эти интеграции отлажены, проверены, надежно работают, можно использовать no-code, можно делать инъекции кода, если надо.
90% того, что пишут про MCP напоминает мне, как пришли дилетанты и изобретают велосипед, потому что ничего другого не умеют.
MCP и код работает в редких случаях, где нет интеграций. Но если есть API, то даже если нет штатных интеграций, всегда можно все связать через Webhook. А если API нет, как к примеру в MJ, то и MCP не поможет.
Просто на эту тему пишут в основном прогеры, которые не умеют в интеграционные сервисы, и поэтому может создаться ложное ощущение, что это какая-то новая технология.
Это хайп. Если вы делаете приложение с бэкендом, то выбираете подобные подходы, да и то вопрос, зачем писать много кода, когда можно подключать готовые сценарии.
✅ Что такое MCP на самом деле:
MCP (Model Communication/Control Protocol/Plane/Proxy) — это прокладка, интеграционный слой, абстрактный шлюз, который:
• принимает запросы от модели или агента;
• маршрутизирует их к внешним системам (API, базы данных, файлы, UI и пр.);
• возвращает результат назад.
MCP ничем не “управляет”, не рассуждает, не выбирает, не строит цепочки сам по себе. Это вспомогательный инструмент, аналог task runner или dispatcher.
📌 MCP ≈ Zapier / Make / n8n по сути
🧠 Разница — в языке описания и контексте, а не в возможностях
• MCP появился в AI-среде, поэтому преподносится как что-то новое.
• Make / Zapier пришли из бизнес-процессов, но делают те же задачи.
MCP — это “ближе к металлу”, может быть реализован в коде, через JSON, YAML, Graph схемы. Zapier — это GUI. Но архетип один и тот же: обработка запроса, маршрутизация, возврат.
1❤25
Для тех, кому надо. Смотрите, проблема, которую вы описываете, довольно стандартная для всех начинающих, потому что вы сразу пытаетесь создавать слишком сложную структуру. Чтобы избежать этого, смотрите на это так: тот что вы хотите в итоге хотите получать всегда возникает как результат последовательности шагов. И каждый шаг, маленький, делает одну простую, тупую операцию — понятный вход, понятный выход и так далее.
Это означает, что, допустим, вы можете сделать весь процесс, сценарий или флоу, как хотите назовите, из трёх сложных шагов. Каждый из них будет достаточно комплексным. Это значит, что с высокой вероятностью он не будет работать правильно, потому что там могут быть логические ошибки и так далее, и вы просто не сможете его отладить. Вы будете постоянно погружаться в бесконечные сложности.
Но мы едим слона по частям. Вы разбиваете это на самые маленькие элементы. Напоминаю: если мы говорим про Make или Zapier, у нас мельчайшим элементом является операция. Каждая операция делает одну функцию. Допустим, триггер берёт какую-то информацию из Телеграма — всё. На входе — сообщение от Телеграма, на выходе — это сообщение, какие-то данные и так далее. После этого следующая операция — вы берёте, допустим, текст, что-то с ним делаете. То есть, чёткий вход, чёткий выход.
Грубо говоря, вместо трёх сложных шагов, которые вы практически не можете отладить ввиду их сложности, вы создаёте 10–20 шагов, каждый из которых легко отладить.
Если в каждом шаге у вас аналитическая операция, которая требует искусственного интеллекта, то действуйте точно так же. То есть, вы предполагаете, что если у вас 10 шагов, то у вас 10 раз будет вызываться искусственный интеллект — ну там, OpenAI, ChatGPT и так далее.
Соответственно, вы понимаете, что на каждом шаге на вход ChatGPT будет подаваться строго структурированные данные и очень жёсткий промпт.
Причём этот промпт, то, как он работает, вы отлаживаете отдельно. Я об этом много раз говорил. Таким образом, вы берёте, например, первый этап, отлаживаете — вы точно, на 100% уверены, что когда на вход вашего ChatGPT пришли данные такого-то типа, промпт отработал, вернул данные нужного типа. И дальше, на следующий вход ChatGPT, просто идёт конвейерная обработка. Она будет отличаться исключительно тем, какие преобразования будут происходить с данными и какой промпт вы будете применять.
Понимаете, да? Всё это будет состоять из маленьких шагов. И когда у вас маленький шаг, очень понятно, что на входе, очень понятно, что на выходе — тогда очень легко отладить промпты и так далее. Потому что внутри не происходит сложных логических преобразований. В этом и заключается вся задача.
Это означает, что вам очень легко будет отладить. Если вы попытаетесь реализовать это через кастомный ChatGPT, у вас не получится, потому что он многошаговые вещи делает довольно туго — он не для этого предназначен. А вот когда у вас многошаговые вещи, в том числе то, что вы имеете в виду — какой-то сложный финансовый анализ — для этого существуют агенты. Агенты — это просто последовательность применения тех же самых ассистентов.
Кстати говоря, Manus это хорошо делает. Вы можете взять какой-то промпт — я сегодня смотрел ролик, буквально звучал так: «Проанализируй данные по акции Microsoft на предмет, нужно ли их покупать сегодня». И он пошёл, развёз целую историю, полчаса рассуждал, какие-то данные подтянул, кучу всего обработал. То есть, огромную работу произвёл. Почему? Потому что на самом деле Manus — это не ассистент, как ChatGPT, а агент. У него под капотом связка этих ассистентов и так далее.
Вот то же самое мы делаем в Make или в Zapier. Это просто корректный способ выстроить всю вашу историю по шагам.
И если вы технологически делаете так, как я сказал — разбиваете, каждый шаг отдельно отлаживаете — то у вас всё как часы работает.
Потому что если где-то произошла ошибка, вы легко идентифицируете, в каком шаге она возникла, меняете, корректируете — и всё снова работает.
А когда у вас всё в одной куче, гигантский промпт — эта ситуация практически не поддаётся отладке.
Это означает, что, допустим, вы можете сделать весь процесс, сценарий или флоу, как хотите назовите, из трёх сложных шагов. Каждый из них будет достаточно комплексным. Это значит, что с высокой вероятностью он не будет работать правильно, потому что там могут быть логические ошибки и так далее, и вы просто не сможете его отладить. Вы будете постоянно погружаться в бесконечные сложности.
Но мы едим слона по частям. Вы разбиваете это на самые маленькие элементы. Напоминаю: если мы говорим про Make или Zapier, у нас мельчайшим элементом является операция. Каждая операция делает одну функцию. Допустим, триггер берёт какую-то информацию из Телеграма — всё. На входе — сообщение от Телеграма, на выходе — это сообщение, какие-то данные и так далее. После этого следующая операция — вы берёте, допустим, текст, что-то с ним делаете. То есть, чёткий вход, чёткий выход.
Грубо говоря, вместо трёх сложных шагов, которые вы практически не можете отладить ввиду их сложности, вы создаёте 10–20 шагов, каждый из которых легко отладить.
Если в каждом шаге у вас аналитическая операция, которая требует искусственного интеллекта, то действуйте точно так же. То есть, вы предполагаете, что если у вас 10 шагов, то у вас 10 раз будет вызываться искусственный интеллект — ну там, OpenAI, ChatGPT и так далее.
Соответственно, вы понимаете, что на каждом шаге на вход ChatGPT будет подаваться строго структурированные данные и очень жёсткий промпт.
Причём этот промпт, то, как он работает, вы отлаживаете отдельно. Я об этом много раз говорил. Таким образом, вы берёте, например, первый этап, отлаживаете — вы точно, на 100% уверены, что когда на вход вашего ChatGPT пришли данные такого-то типа, промпт отработал, вернул данные нужного типа. И дальше, на следующий вход ChatGPT, просто идёт конвейерная обработка. Она будет отличаться исключительно тем, какие преобразования будут происходить с данными и какой промпт вы будете применять.
Понимаете, да? Всё это будет состоять из маленьких шагов. И когда у вас маленький шаг, очень понятно, что на входе, очень понятно, что на выходе — тогда очень легко отладить промпты и так далее. Потому что внутри не происходит сложных логических преобразований. В этом и заключается вся задача.
Это означает, что вам очень легко будет отладить. Если вы попытаетесь реализовать это через кастомный ChatGPT, у вас не получится, потому что он многошаговые вещи делает довольно туго — он не для этого предназначен. А вот когда у вас многошаговые вещи, в том числе то, что вы имеете в виду — какой-то сложный финансовый анализ — для этого существуют агенты. Агенты — это просто последовательность применения тех же самых ассистентов.
Кстати говоря, Manus это хорошо делает. Вы можете взять какой-то промпт — я сегодня смотрел ролик, буквально звучал так: «Проанализируй данные по акции Microsoft на предмет, нужно ли их покупать сегодня». И он пошёл, развёз целую историю, полчаса рассуждал, какие-то данные подтянул, кучу всего обработал. То есть, огромную работу произвёл. Почему? Потому что на самом деле Manus — это не ассистент, как ChatGPT, а агент. У него под капотом связка этих ассистентов и так далее.
Вот то же самое мы делаем в Make или в Zapier. Это просто корректный способ выстроить всю вашу историю по шагам.
И если вы технологически делаете так, как я сказал — разбиваете, каждый шаг отдельно отлаживаете — то у вас всё как часы работает.
Потому что если где-то произошла ошибка, вы легко идентифицируете, в каком шаге она возникла, меняете, корректируете — и всё снова работает.
А когда у вас всё в одной куче, гигантский промпт — эта ситуация практически не поддаётся отладке.
1❤51
Forwarded from AI Product | Igor Akimov
OpenAI представил бенчмарк оценки AI моделей в медицине
https://openai.com/index/healthbench/
- Создан совместно с 262 врачами из 60 стран, владеющими 49 языками и 26 специальностями.
- Содержит 5 000 реалистичных мультиязычных диалогов «пользователь ↔️ ИИ» с индивидуальными рубриками‑чек‑листами, написанными врачами.
Три ключевых принципа бенчмарка
- Осмысленность (Meaningful): сценарии приближены к реальной клинической практике, а баллы коррелируют с потенциальным влиянием на здоровье.
- Надёжность (Trustworthy): критерии и весы отражают приоритеты мед‑сообщества; оценка основана на медицинских стандартах.
- Неисчерпанность (Unsaturated): даже новейшим LLM есть куда расти, что мотивирует дальнейшее улучшение.
Как устроен датасет
Диалоги получены комбинацией синтетической генерации и «человеческого» стресс‑тестирования.
Охватывают разные роли (пациент, врач), 7 тем (неотложка, неопределённость, глобальное здоровье и т.д.) и 48 562 уникальных рубрик‑критериев.
Оценку проводит модель‑грейдер GPT‑4.1: за каждый выполненный критерий начисляются взвешенные баллы.
Результаты моделей (апрель 2025)
o3 лидирует по всем темам и осям; заметно опережает Claude 3.7 Sonnet и Gemini 2.5 Pro.
Прогресс OpenAI‑линий с авг‑24 по апр‑25 — ≈ +28 % среднего балла HealthBench.
Баланс «качество ↔️ стоимость»
Линейка апреля‑25 (o3, o4‑mini, GPT‑4.1) задаёт новую «фронтирную» кривую эффективности: выше качество при той же или меньшей цене вычислений.
Модель GPT‑4.1 nano обходит GPT‑4o (2024), оставаясь ~25 раз дешевле.
Надёжность (worst‑of‑n)
Анализ «худшего из n» ответов показывает: новые модели ощутимо устойчивее, но даже лучшие ещё допускают слабые ответы, поэтому есть простор для повышения safety.
Варианты HealthBench
Consensus: 3 671 пример, где критерии прошли мульти‑валидацию врачей; целится в практически нулевую ошибку.
Hard: 1 000 сложных кейсов, на которых современные LLM пока «проваливаются» — площадка для будущих улучшений.
Сравнение с врачами
Врачи без помощи ИИ уступают сентябрьским моделям 2024.
Врачи + подсказки моделей 2024 улучшают ответы (human‑in‑the‑loop > model).
Для апрельских моделей 2025 врачи уже не могут заметно улучшить их ответы, что подтверждает рост качества.
Достоверность автоматической оценки
Согласие «модель‑грейдер ↔️ врач» сопоставимо со согласием «врач ↔️ врач», то есть автоматический скоринг адекватно отражает экспертное мнение.
HealthBench доступен на GitHub (код, данные, инструкции).
https://github.com/openai/simple-evals
https://openai.com/index/healthbench/
- Создан совместно с 262 врачами из 60 стран, владеющими 49 языками и 26 специальностями.
- Содержит 5 000 реалистичных мультиязычных диалогов «пользователь ↔️ ИИ» с индивидуальными рубриками‑чек‑листами, написанными врачами.
Три ключевых принципа бенчмарка
- Осмысленность (Meaningful): сценарии приближены к реальной клинической практике, а баллы коррелируют с потенциальным влиянием на здоровье.
- Надёжность (Trustworthy): критерии и весы отражают приоритеты мед‑сообщества; оценка основана на медицинских стандартах.
- Неисчерпанность (Unsaturated): даже новейшим LLM есть куда расти, что мотивирует дальнейшее улучшение.
Как устроен датасет
Диалоги получены комбинацией синтетической генерации и «человеческого» стресс‑тестирования.
Охватывают разные роли (пациент, врач), 7 тем (неотложка, неопределённость, глобальное здоровье и т.д.) и 48 562 уникальных рубрик‑критериев.
Оценку проводит модель‑грейдер GPT‑4.1: за каждый выполненный критерий начисляются взвешенные баллы.
Результаты моделей (апрель 2025)
o3 лидирует по всем темам и осям; заметно опережает Claude 3.7 Sonnet и Gemini 2.5 Pro.
Прогресс OpenAI‑линий с авг‑24 по апр‑25 — ≈ +28 % среднего балла HealthBench.
Баланс «качество ↔️ стоимость»
Линейка апреля‑25 (o3, o4‑mini, GPT‑4.1) задаёт новую «фронтирную» кривую эффективности: выше качество при той же или меньшей цене вычислений.
Модель GPT‑4.1 nano обходит GPT‑4o (2024), оставаясь ~25 раз дешевле.
Надёжность (worst‑of‑n)
Анализ «худшего из n» ответов показывает: новые модели ощутимо устойчивее, но даже лучшие ещё допускают слабые ответы, поэтому есть простор для повышения safety.
Варианты HealthBench
Consensus: 3 671 пример, где критерии прошли мульти‑валидацию врачей; целится в практически нулевую ошибку.
Hard: 1 000 сложных кейсов, на которых современные LLM пока «проваливаются» — площадка для будущих улучшений.
Сравнение с врачами
Врачи без помощи ИИ уступают сентябрьским моделям 2024.
Врачи + подсказки моделей 2024 улучшают ответы (human‑in‑the‑loop > model).
Для апрельских моделей 2025 врачи уже не могут заметно улучшить их ответы, что подтверждает рост качества.
Достоверность автоматической оценки
Согласие «модель‑грейдер ↔️ врач» сопоставимо со согласием «врач ↔️ врач», то есть автоматический скоринг адекватно отражает экспертное мнение.
HealthBench доступен на GitHub (код, данные, инструкции).
https://github.com/openai/simple-evals
2❤18
Forwarded from All is Gucci
Я все чаще использую AI не как Co-pilot, а как Co-thinker. Что же это за модный тренд?
Если раньше AI работал как ассистент с базовым промптом «чатик, сделай красиво!», то теперь все чаще хочется думать вместе, а не вместо. AI становится партнером в обсуждении идей и поиске решений, вот и весь co-thinker mode.
Представьте, что с вами в комнате эксперт, и вы с ним проговариваете свои важные вопросики. Вы можете быть с ним не согласны и иметь свое мнение. Вы также можете делиться своими взглядами и задавать доп вопросы.
В этом режиме живого коллаба нет приказного тона, только совместное движение по гипотезам и дискуссия. В результате ваши мысли усиливаются х100.
Так как же завести промпт в режиме co-thinker?
Вот мой любимый из тех, что мы используем в в моей компании сегодня. Особенно помогает продактам глубже понять реальные боли пользователей:
Вуаля, никакой магии. Просто навык лучше формулировать вопросы и чаще включать любопытство вместо директив.
Если раньше AI работал как ассистент с базовым промптом «чатик, сделай красиво!», то теперь все чаще хочется думать вместе, а не вместо. AI становится партнером в обсуждении идей и поиске решений, вот и весь co-thinker mode.
Представьте, что с вами в комнате эксперт, и вы с ним проговариваете свои важные вопросики. Вы можете быть с ним не согласны и иметь свое мнение. Вы также можете делиться своими взглядами и задавать доп вопросы.
В этом режиме живого коллаба нет приказного тона, только совместное движение по гипотезам и дискуссия. В результате ваши мысли усиливаются х100.
Так как же завести промпт в режиме co-thinker?
Вот мой любимый из тех, что мы используем в в моей компании сегодня. Особенно помогает продактам глубже понять реальные боли пользователей:
You (Gen AI) act as a product expert. You guide me (product manager -> PM) in soliciting feedback and understanding core of the problem that customer is having. You do that by applying the fishbone approach (also known as the Ishikawa diagram). You guide me (PM) in solving a business problem.
I want you (Gen AI) to follow these instructions:
[Step 1] Gen AI asks the manager to provide context and list all current customers feedback points. Gen AI elaborates and asks two clarifying questions.
[Step 2] Gen AI asks the manager if they are familiar with the fishbone approach. If the manager answers no, gen AI explains it, with two concrete examples.
[Step 3] Gen AI provides a list of four categories that are relevant to the problem. Then, gen AI asks the manager to add overlooked categories.
[Step 4] Gen AI creates a table with categories and potential root causes. Then, gen AI asks the manager to add or drop root causes.
[Step 5] Gen AI asks the manager to select the three most relevant root causes to investigate. Gen AI lists two potential investigation activities for each root cause and asks for manager’s feedback.
[Step 6] Gen AI summarizes the discussion in an investigation plan with four columns: root cause, investigation activity description, stakeholders to involve, and expected outputs.
Guidelines:
At the beginning explain that the conversation is structured in 6 Steps.
Always ask for manager’s feedback before proceeding to the next Step.
Do not use overly verbose language and fillers.
Вуаля, никакой магии. Просто навык лучше формулировать вопросы и чаще включать любопытство вместо директив.
1❤55
Media is too big
VIEW IN TELEGRAM
На какой платформе лучше всего собирать ИИ Агентов? Из того, на что стоит тратить время на данный момент - Make, Zapier, n8n при этом они одинаковы, просто в Zapier 7000 интеграций, в Make и n8n около 1700. В этом ролике показано, что разницы нет вообще.
Начинать проще с Make, он дешевле, но потом все зависит от нагрузки. Все они нативно интегрированы со всеми популярными ИИ. Плюс на Youtube немерянно видео, в которых можно посмотреть основы.
Начинать с n8n не рекомендую. Это система больше нравится прогерам не потому что n8n лучше, а потому что прогеры любят упарываться по всяким таким цацкам.
Если вы про бизнес и жизнь, то используйте chatGPT, делайте кастомные GPT под свои уникальные задачи или используйте Make, Zapier для создания сложных Агентов, которые автономны и умеют разбираться с неопределенностью.
Вчера я пол-дня убил на то, чтобы заставить chatGPT/Manus разворачивать сценарий в Make только на основании диалога с пользователем. Это возможно, при этом и для Make, и для Zapier, и для n8n и для чего угодно, потому что все эти сценарии в конечном итоге просто JSON файлы - это такой язык, который понимают и люди и сервисы в интернете. При этом довольно не сложно построить конвертер сценариев. Только зачем?🤣
Все это не требует никакого программировния, можно начинать с 0, посмотреть пару видео и уже чего-то начнете лепить. Зачем? Потому что это круто изменит вашу жизнь РЕАЛЬНО. Впрочем, если кто сидит под камнем и не верит в прогресс - наплевать - пусть сидят и квакают!
Начинать проще с Make, он дешевле, но потом все зависит от нагрузки. Все они нативно интегрированы со всеми популярными ИИ. Плюс на Youtube немерянно видео, в которых можно посмотреть основы.
Начинать с n8n не рекомендую. Это система больше нравится прогерам не потому что n8n лучше, а потому что прогеры любят упарываться по всяким таким цацкам.
Если вы про бизнес и жизнь, то используйте chatGPT, делайте кастомные GPT под свои уникальные задачи или используйте Make, Zapier для создания сложных Агентов, которые автономны и умеют разбираться с неопределенностью.
Вчера я пол-дня убил на то, чтобы заставить chatGPT/Manus разворачивать сценарий в Make только на основании диалога с пользователем. Это возможно, при этом и для Make, и для Zapier, и для n8n и для чего угодно, потому что все эти сценарии в конечном итоге просто JSON файлы - это такой язык, который понимают и люди и сервисы в интернете. При этом довольно не сложно построить конвертер сценариев. Только зачем?🤣
Все это не требует никакого программировния, можно начинать с 0, посмотреть пару видео и уже чего-то начнете лепить. Зачем? Потому что это круто изменит вашу жизнь РЕАЛЬНО. Впрочем, если кто сидит под камнем и не верит в прогресс - наплевать - пусть сидят и квакают!
1❤44
Плохие новости: 1) Microsoft уволил 7,000 сотрудников, потому что «ИИ делает их работу лучше». Учитывая что средняя з/п около 200к в год, это почти $1,5 ярда сейвингов.
2) OpenAI опубликовал бенчмарк для моделей в здравоохранении. Лучшие модели набирают 0,5-0,6, а врачи в среднем около 0,2 (график в статье). 90% враче на выход по любе в течении 5-7 лет.
Некоторые пишут, что их это расстраивает. Либо они вообще не понимают что происходит, либо у них какой-то экзистенциальный эмо-кризис. Пройдёт.
Утащил у Степана: https://www.tg-me.com/cryptoEssay/2370
2) OpenAI опубликовал бенчмарк для моделей в здравоохранении. Лучшие модели набирают 0,5-0,6, а врачи в среднем около 0,2 (график в статье). 90% враче на выход по любе в течении 5-7 лет.
Некоторые пишут, что их это расстраивает. Либо они вообще не понимают что происходит, либо у них какой-то экзистенциальный эмо-кризис. Пройдёт.
Утащил у Степана: https://www.tg-me.com/cryptoEssay/2370
Quartz
Microsoft is cutting 3% of its workforce with across-the-board layoffs
Microsoft joins the latest wave of AI-era tech layoffs, axing almost 7,000 employees
1❤15