Forwarded from Nik Name
Для художников, программистов и всех, кто проводит много времени в компьютерном кресле 🔥🔥🔥
Ребзя, я тут запустил свой стартапчик , с заботой о вас 🫶
Меховые накладки на регулируемые подлокотники игровых кресел 😊 ( как выглядит, видите выше )
⭐️Очень мягкие , комфортные
⭐️ Универсального размера
⭐️ Приятно облокотиться и потрепать их
⭐️ Хороший антистресс
⭐️ Украшение интерьера
⭐️ 3 цвета в палитре , с перспективой на расширение спектра цветов
⭐️ Аналогов нету даже в Китае , чисто мое производство , для своих ребят 🔥❤️
Все, кто хотел бы добавить комфорта и приятного визуала к своему рабочему / игровому месту, могут заказать через WB по ссылке ( уже есть реальные отзывы ) : https://www.wildberries.ru/catalog/431804314/detail.aspx?targetUrl=SP
И ребят, если будете заказывать, оставляйте пожалуйста отзыв , это очень поможет мне для продвижения. К меховым накладкам, в упаковке небольшие подарочки 😉 заранее всем спасибо за доверие ❤️💫
И отдельное спасибо Джону за репост, он слишком крутой чел 🔥
Ребзя, я тут запустил свой стартапчик , с заботой о вас 🫶
Меховые накладки на регулируемые подлокотники игровых кресел 😊 ( как выглядит, видите выше )
⭐️Очень мягкие , комфортные
⭐️ Универсального размера
⭐️ Приятно облокотиться и потрепать их
⭐️ Хороший антистресс
⭐️ Украшение интерьера
⭐️ 3 цвета в палитре , с перспективой на расширение спектра цветов
⭐️ Аналогов нету даже в Китае , чисто мое производство , для своих ребят 🔥❤️
Все, кто хотел бы добавить комфорта и приятного визуала к своему рабочему / игровому месту, могут заказать через WB по ссылке ( уже есть реальные отзывы ) : https://www.wildberries.ru/catalog/431804314/detail.aspx?targetUrl=SP
И ребят, если будете заказывать, оставляйте пожалуйста отзыв , это очень поможет мне для продвижения. К меховым накладкам, в упаковке небольшие подарочки 😉 заранее всем спасибо за доверие ❤️💫
И отдельное спасибо Джону за репост, он слишком крутой чел 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Так, ну шо, давайте разбираться по порядочку. Нарыли много инфы, но начнем с базы, чтобы ввести в курс дела.
Причина, по которой LLM (Chat GPT, Grok, Херок) Галлюцинирует - это ограничения в виде токенов.🪙
Токены - это маленький кусочек текста, который GPT воспринимает как единицу смысла. Это не слово и не буква!
Hello = Hel + lo
Я люблю GPT = Я + лю + блю + G + PT
На английском - экономнее, на русском - тратит больше. Это похоже на морфемный разбор с приставками, суффиксами и т.д.
Когда вы пишете много запросов в чат, он может начать тупить и выдавать полную чушь. Это значит, что он упёрся в лимит контекстного окна.
Контекстное окно - это максимальное количество токенов, которое GPT может обработать за один запрос (у GPT оно = 128k токенов).
Каждый раз, когда вы пишете что-то в чат, это и есть новый запрос с лимитом в 128k токенов.
Сессия чата - это вся цепочка ваших запросов и ответов от начала до конца.
Получается, память GPT не накапливается бесконечно, а ограничена одним запросом. И если запрос превышает это окно (128k), то бот просто начинает забывать начало и генерировать дичь. Проверить сколько токенов в вашем тексте можно вот тут:
platform.openai.com/tokenizer
Не важно, насколько большой текст вы закинете на вход GPT, в ответе вы ВСЕГДА получите не больше 4k токенов (при стандартном обращении). Если используете глубокие исследования - окно ответа расширяется до 8k или 16k, в зависимости от инструмента и формата.
Токенами считается всё - текст, файлы, ссылки, даже картинки. Поэтому, если вы закинули огромный объем информации в один запрос, то не удивляйтесь, что ваш GPT начнёт тормозить и выдавать ерунду.
Поэтому если вы закинули "Войну и Мир", будьте готовы к тому, что вы выкинете PC в окно, от тупости жпт.
Все это можно обойти, расскажу дальше.
#СразбегавGPT
Причина, по которой LLM (Chat GPT, Grok, Херок) Галлюцинирует - это ограничения в виде токенов.
Токены - это маленький кусочек текста, который GPT воспринимает как единицу смысла. Это не слово и не буква!
Hello = Hel + lo
Я люблю GPT = Я + лю + блю + G + PT
На английском - экономнее, на русском - тратит больше. Это похоже на морфемный разбор с приставками, суффиксами и т.д.
Когда вы пишете много запросов в чат, он может начать тупить и выдавать полную чушь. Это значит, что он упёрся в лимит контекстного окна.
Контекстное окно - это максимальное количество токенов, которое GPT может обработать за один запрос (у GPT оно = 128k токенов).
Каждый раз, когда вы пишете что-то в чат, это и есть новый запрос с лимитом в 128k токенов.
Сессия чата - это вся цепочка ваших запросов и ответов от начала до конца.
Получается, память GPT не накапливается бесконечно, а ограничена одним запросом. И если запрос превышает это окно (128k), то бот просто начинает забывать начало и генерировать дичь. Проверить сколько токенов в вашем тексте можно вот тут:
platform.openai.com/tokenizer
Не важно, насколько большой текст вы закинете на вход GPT, в ответе вы ВСЕГДА получите не больше 4k токенов (при стандартном обращении). Если используете глубокие исследования - окно ответа расширяется до 8k или 16k, в зависимости от инструмента и формата.
Токенами считается всё - текст, файлы, ссылки, даже картинки. Поэтому, если вы закинули огромный объем информации в один запрос, то не удивляйтесь, что ваш GPT начнёт тормозить и выдавать ерунду.
Поэтому если вы закинули "Войну и Мир", будьте готовы к тому, что вы выкинете PC в окно, от тупости жпт.
Все это можно обойти, расскажу дальше.
#СразбегавGPT
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Unreal Engine Fortnite | UEFN
Epic запустила коллаб с Netflix: в UEFN и творческом режиме доступны шаблоны, ассеты и NPC из «Игры в кальмара». Можно собирать свои испытания, строить декорации и публиковать острова с 14 августа.
В арсенале:
— шаблоны мини-игр и соц. дедукции,
— предметы для метаний и взаимодействия,
— маскировка, голосование, пинки,
— охранники, игроки, VIP-маски и окружение,
— новые Verse-шаблоны, озвучка и кастом NPC.
Вышло вчера. Полный список — тут
https://create.fortnite.com/news/let-the-games-begin-start-creating-squid-game-islands-in-fortnite
P.S. Новости по UEFN выходят раз в три недели, или реже, или чаще. Так что расслабьтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
на связи? - ♥️ Хочу пост закинуть
Media is too big
VIEW IN TELEGRAM
Продолжаем. "Глубокое исследование" в GPT. (Deep Research).
💟 Не пугайтесь сладкие, много букв, но упрощаю уже как могу)
Если обычный чат GPT - это просто «вкинул запрос → получил ответ» (в рамках тех же 4k токенов, помним, да?), то глубокое исследование - это уже режим детектива.
Глубокое исследование, позволяет собрать всю информацию, что у вас есть или найти самостоятельно, чтобы упаковать все знания в один файл.
Далее этот файл можно использовать обратно в GPT, чтобы он понимал контекст нужных знаний.
К примеру, чтобы писать ахуительные посты, можно создать файл с нужной ЦА и при каждом создании поста, GPT будет знать на кого ориентируемся, если мы скормим ему этот файл.
А что если тебе нужно раскопать и проанализировать дохрена имеющихся данных, файлов, таблиц, книг, PDF, экселек и другой инфы?
Тут простой GPT не вывезет. Точнее даже вывезет, но вам придется собирать все ручками.
Если обычный GPT просто угадывает следующее слово, то в режиме Deep Research:
🔎 Сначала разбивает твой запрос на подзадачи.
🌐 Потом лезет в интернет, проверяет статьи, документацию, форумы, которые подходят под твой запрос.
📂 Анализирует все файлы, которые ты ему подсунул (PDF, Excel, .md-файлы и картинки).
👾 Вспоминает всё, о чём ты писал в этой же сессии.
✍️ В конце сводит это в понятный структурный вывод, который обязательно НУЖНО ПЕРЕЧИТАТЬ. ПЕРВОЕ ПРАВИЛО GPT - НЕ ВЕРЬ GPT. Все перепроверяйте, плиз.
Чё по ограничениям?
- Первые 1-3 запроса ГИ* дают максимально чёткие ответы.
- На 5–7 запросе уже начинаются повторы, текст становится водянистым.
- После 10 шага GPT тупо начинает генерировать маленький кусок высера, чтобы заполнить токены.
Поэтому тут, лучше подходить с умом.
🪙 А чё по токенам?
В Deep Research лимит ответа увеличивается: уже не 4k, а до 8k или даже 16k токенов (в зависимости от кол. оставшихся запросов).
НО! Это только длина ответа. Твои входные данные всё ещё ограничены контекстом в 128k токенов.
Так что заливать туда полностью "Войну и Мир" - по-прежнему плохая идея.
В этом режиме меньше галлюцинаций - GPT старается не придумывать от себя, а чаще цитирует источники.
🔗 ГИ Склеивает файлы + интернет + чат в единый вывод, который уже готовый под вставку в тот же Obsidian. Тебе остаётся тупо скопировать.
GPT будет тебе задавать уточняющие вопросы после запроса, когда ты нажмёшь глубокое исследование.
И тут главное не забить БОЛТ, как многие делают, а заранее попросить у него как можно больше вопросов, чтобы он лучше понял ваш запрос.
*ГИ - Глубокое исследование
#СразбегавGPT
Если обычный чат GPT - это просто «вкинул запрос → получил ответ» (в рамках тех же 4k токенов, помним, да?), то глубокое исследование - это уже режим детектива.
Глубокое исследование, позволяет собрать всю информацию, что у вас есть или найти самостоятельно, чтобы упаковать все знания в один файл.
Далее этот файл можно использовать обратно в GPT, чтобы он понимал контекст нужных знаний.
К примеру, чтобы писать ахуительные посты, можно создать файл с нужной ЦА и при каждом создании поста, GPT будет знать на кого ориентируемся, если мы скормим ему этот файл.
А что если тебе нужно раскопать и проанализировать дохрена имеющихся данных, файлов, таблиц, книг, PDF, экселек и другой инфы?
Тут простой GPT не вывезет. Точнее даже вывезет, но вам придется собирать все ручками.
Если обычный GPT просто угадывает следующее слово, то в режиме Deep Research:
Чё по ограничениям?
- Первые 1-3 запроса ГИ* дают максимально чёткие ответы.
- На 5–7 запросе уже начинаются повторы, текст становится водянистым.
- После 10 шага GPT тупо начинает генерировать маленький кусок высера, чтобы заполнить токены.
Поэтому тут, лучше подходить с умом.
В Deep Research лимит ответа увеличивается: уже не 4k, а до 8k или даже 16k токенов (в зависимости от кол. оставшихся запросов).
НО! Это только длина ответа. Твои входные данные всё ещё ограничены контекстом в 128k токенов.
Так что заливать туда полностью "Войну и Мир" - по-прежнему плохая идея.
В этом режиме меньше галлюцинаций - GPT старается не придумывать от себя, а чаще цитирует источники.
GPT будет тебе задавать уточняющие вопросы после запроса, когда ты нажмёшь глубокое исследование.
И тут главное не забить БОЛТ, как многие делают, а заранее попросить у него как можно больше вопросов, чтобы он лучше понял ваш запрос.
*ГИ - Глубокое исследование
#СразбегавGPT
Please open Telegram to view this post
VIEW IN TELEGRAM
Бля, как объяснить эту дичь, чтобы это было не в целый папирус...