انواع امبدینگ ها و کاربرد آنها
• 𝗦𝗽𝗮𝗿𝘀𝗲 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗗𝗲𝗻𝘀𝗲 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗕𝗶𝗻𝗮𝗿𝘆 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗤𝘂𝗮𝗻𝘁𝗶𝘇𝗲𝗱 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗩𝗮𝗿𝗶𝗮𝗯𝗹𝗲 𝗗𝗶𝗺𝗲𝗻𝘀𝗶𝗼𝗻 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗠𝘂𝗹𝘁𝗶-𝗩𝗲𝗰𝘁𝗼𝗿 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
𝗪𝗵𝗶𝗰𝗵 𝘁𝘆𝗽𝗲 𝘀𝗵𝗼𝘂𝗹𝗱 𝘆𝗼𝘂 𝘂𝘀𝗲?
It depends on your use case:
• Need semantic matching? → Dense embeddings
• Storage-constrained? → Binary or quantized
• Complex documents? → Multi-vector
• Keyword search? → Sparse vectors
The key is understanding your trade-offs: accuracy vs. speed vs. storage.
#پردازش_زبان_طبیعی #مقاله #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
• 𝗦𝗽𝗮𝗿𝘀𝗲 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗗𝗲𝗻𝘀𝗲 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗕𝗶𝗻𝗮𝗿𝘆 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗤𝘂𝗮𝗻𝘁𝗶𝘇𝗲𝗱 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗩𝗮𝗿𝗶𝗮𝗯𝗹𝗲 𝗗𝗶𝗺𝗲𝗻𝘀𝗶𝗼𝗻 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
• 𝗠𝘂𝗹𝘁𝗶-𝗩𝗲𝗰𝘁𝗼𝗿 𝗘𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀
𝗪𝗵𝗶𝗰𝗵 𝘁𝘆𝗽𝗲 𝘀𝗵𝗼𝘂𝗹𝗱 𝘆𝗼𝘂 𝘂𝘀𝗲?
It depends on your use case:
• Need semantic matching? → Dense embeddings
• Storage-constrained? → Binary or quantized
• Complex documents? → Multi-vector
• Keyword search? → Sparse vectors
The key is understanding your trade-offs: accuracy vs. speed vs. storage.
#پردازش_زبان_طبیعی #مقاله #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
آگهی دعوت به همکاری
(استارتاپ Multi Math Methods)
عنوان شغلی: کارشناس هوش مصنوعی
یادگیری تقویتی (Reinforcement Learning)
آدرس : تهران ، بلوار کشاورز ، ابتدای خ 16 آذر
ارسال رزومه:
به آدرس تلگرام @meh_deh
مدرک تحصیلی : کارشناسی ارشد ، دانشجوی دکتری و یا دکتری
رشتههای تحصیلی :
• علوم کامپیوتر
• مهندسی کامپیوتر
• ریاضیات کاربردی
• فیزیک
• سایر رشتههای مرتبط
شرح شغل:
• تحلیل و بهبود محیط یادگیری عامل
• طراحی و پیادهسازی مدلهای یادگیری تقویتی
• بهینه سازی و ارزیابی عملکرد مدل ها
• انجام تحقیقات و پژوهش در حوزه یادگیری تقویتی
مهارتها و تواناییهای مورد نیاز:
• تسلط بر زبان برنامهنویسی پایتون
• آشنایی کامل با الگوریتمهای یادگیری تقویتی و یادگیری عمیق
• مهارت در استفاده از کتابخانههای یادگیری تقویتی و پردازش و آنالیز داده
شرایط کاری:
• حضوری تمام وقت (امکان دورکاری وجود ندارد)
• پرداخت: ساعتی – توافقی
• بیمه: ندارد
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
(استارتاپ Multi Math Methods)
عنوان شغلی: کارشناس هوش مصنوعی
یادگیری تقویتی (Reinforcement Learning)
آدرس : تهران ، بلوار کشاورز ، ابتدای خ 16 آذر
ارسال رزومه:
به آدرس تلگرام @meh_deh
مدرک تحصیلی : کارشناسی ارشد ، دانشجوی دکتری و یا دکتری
رشتههای تحصیلی :
• علوم کامپیوتر
• مهندسی کامپیوتر
• ریاضیات کاربردی
• فیزیک
• سایر رشتههای مرتبط
شرح شغل:
• تحلیل و بهبود محیط یادگیری عامل
• طراحی و پیادهسازی مدلهای یادگیری تقویتی
• بهینه سازی و ارزیابی عملکرد مدل ها
• انجام تحقیقات و پژوهش در حوزه یادگیری تقویتی
مهارتها و تواناییهای مورد نیاز:
• تسلط بر زبان برنامهنویسی پایتون
• آشنایی کامل با الگوریتمهای یادگیری تقویتی و یادگیری عمیق
• مهارت در استفاده از کتابخانههای یادگیری تقویتی و پردازش و آنالیز داده
شرایط کاری:
• حضوری تمام وقت (امکان دورکاری وجود ندارد)
• پرداخت: ساعتی – توافقی
• بیمه: ندارد
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
سلام دوستان لینک دعوت فیلترشکن برای ی برنامهنویسان، گیمرها، دانشجویان، فعالین حوزه رمز ارز، فریلنسرها از لینک دعوت من استفاده کنین هم شما ی فیلترشکن مطمین استفاده کنین بدونین قطعی نداره قطع شه دیگه مثه اون سری میشه ک کل دیتاسنترهای ایرانو بستن
https://www.tg-me.com/F14PanelBot
پ.ن: تضمین قطع نشدنشون گارنتی من هست از این فیلترشکن برای همه شبکه های مخابراتی کانکشن دارن و پشتیبانی میکنن
https://www.tg-me.com/F14PanelBot
پ.ن: تضمین قطع نشدنشون گارنتی من هست از این فیلترشکن برای همه شبکه های مخابراتی کانکشن دارن و پشتیبانی میکنن
برای فهم بهتر اینکه مدل Gemma 3n چگونه شروع شد این مقالات رو مطالعه کنید.
▪️ Google USM: Scaling Automatic Speech Recognition Beyond 100 Languages
▪️ Spark Transformer: Reactivating Sparsity in FFN and Attention
▪️MatFormer: Nested Transformer for Elastic Inference
▪️ LAuReL: Learned Augmented Residual Layer
▪️ Alternating Updates for Efficient Transformers
▪️ introducing gemma 3n developer guide
#پردازش_زبان_طبیعی #مقاله #منابع #متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Google USM: Scaling Automatic Speech Recognition Beyond 100 Languages
▪️ Spark Transformer: Reactivating Sparsity in FFN and Attention
▪️MatFormer: Nested Transformer for Elastic Inference
▪️ LAuReL: Learned Augmented Residual Layer
▪️ Alternating Updates for Efficient Transformers
▪️ introducing gemma 3n developer guide
#پردازش_زبان_طبیعی #مقاله #منابع #متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from گریز از مرکز
آیا شما به موقع مواجهه با Bug یا Error به موقع برنامهنویسی، دچار استرس (یا به همریختگی) میشید؟
(پیش چند نفر این قضیه رو مشاهده کردم. میخوام ببینم چه قدر فراگیره.)
(پیش چند نفر این قضیه رو مشاهده کردم. میخوام ببینم چه قدر فراگیره.)
Anonymous Poll
25%
بله. خیلی اوقات.
25%
بله. بعضی وقتها پیش میاد.
19%
بله. کم پیش میاد ولی ممکنه.
23%
خیر/به ندرت
7%
تجربه برنامهنویسی ندارم تقریبا.
۱۰ ایجنت #متن_باز Deep Research
1. DeerFlow
A modular multi-agent system combining LMs and tools for automated research and code analysis. It links a coordinator, planner, team of specialized agent, and reporter, and converts reports to speech via Text-to-Speech (TTS)
2. Alita
Uses a single problem-solving module for scalable reasoning through simplicity. It self-evolves by generating and reusing Model Context Protocols (MCPs) from open-source tools to build external capabilities for diverse tasks
3. WebThinker
Lets reasoning models autonomously search the web and navigate pages. Deep Web Explorer allows interaction with links and follow-up searches. Through a Think-Search-and-Draft process models generate and refine reports in real time. RL training with preference pairs improves the workflow
4. SimpleDeepSearcher
A lightweight framework showing that supervised fine-tuning is a real alternative to complex RL, using simulated web interactions and multi-criteria curation to generate high-quality training data
5. AgenticSeek
A private, on-device assistant that picks the best agent expert for browsing, coding, or planning—no cloud needed. Includes voice input via speech-to-text
6. Suna
Offers web browsing, file and doc handling, CLI execution, site deployment, and API/service integration—all in one assistant
7- DeepResearcher
An RL framework for training deep research agents end-to-end in real-world environments with web search, exhibiting emergent behaviour like planning, multi-source validation, self-reflection, and honest defining when the agent doesn't know the answer
8- Search-R1
Features interleaved search access and an open-source RL training pipeline supporting various algorithms (PPO, GRPO, etc.), LLMs (LLaMA3, Qwen2.5, etc.), and search engines (online, local, retrievers)
9- ReCall
Trains LLMs to reason with tools via RL, no supervised tool-use data needed. It enables agentic use of tools like OpenAI o3 and supports synthetic data generation across diverse environments and multi-step tasks
10- OWL
A framework built on CAMEL-AI framework enabling dynamic multi-agent collaboration for task automation across diverse domains
#الگوریتمها #هوش_مصنوعی #مقاله@AI_DeepMind
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
1. DeerFlow
A modular multi-agent system combining LMs and tools for automated research and code analysis. It links a coordinator, planner, team of specialized agent, and reporter, and converts reports to speech via Text-to-Speech (TTS)
2. Alita
Uses a single problem-solving module for scalable reasoning through simplicity. It self-evolves by generating and reusing Model Context Protocols (MCPs) from open-source tools to build external capabilities for diverse tasks
3. WebThinker
Lets reasoning models autonomously search the web and navigate pages. Deep Web Explorer allows interaction with links and follow-up searches. Through a Think-Search-and-Draft process models generate and refine reports in real time. RL training with preference pairs improves the workflow
4. SimpleDeepSearcher
A lightweight framework showing that supervised fine-tuning is a real alternative to complex RL, using simulated web interactions and multi-criteria curation to generate high-quality training data
5. AgenticSeek
A private, on-device assistant that picks the best agent expert for browsing, coding, or planning—no cloud needed. Includes voice input via speech-to-text
6. Suna
Offers web browsing, file and doc handling, CLI execution, site deployment, and API/service integration—all in one assistant
7- DeepResearcher
An RL framework for training deep research agents end-to-end in real-world environments with web search, exhibiting emergent behaviour like planning, multi-source validation, self-reflection, and honest defining when the agent doesn't know the answer
8- Search-R1
Features interleaved search access and an open-source RL training pipeline supporting various algorithms (PPO, GRPO, etc.), LLMs (LLaMA3, Qwen2.5, etc.), and search engines (online, local, retrievers)
9- ReCall
Trains LLMs to reason with tools via RL, no supervised tool-use data needed. It enables agentic use of tools like OpenAI o3 and supports synthetic data generation across diverse environments and multi-step tasks
10- OWL
A framework built on CAMEL-AI framework enabling dynamic multi-agent collaboration for task automation across diverse domains
#الگوریتمها #هوش_مصنوعی #مقاله@AI_DeepMind
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
جادی آموزش پایتون جامع خودش را در سایت مکتبخونه به طور کاملا رایگان منتشر کرد
برای دریافت رایگان این دوره کد زیر:
PEACE
وارد کنید
▪️ آموزش پایتون جامع
پ.ن: این آموزش تا ۱۵ تیر ماه رایگان خواهد بود شرط دریافت رایگان دوره، برداشتن تیک «دسترسی کامل» هست.
#پایتون #منابع #کلاس_آموزشی #فیلم
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
برای دریافت رایگان این دوره کد زیر:
وارد کنید
▪️ آموزش پایتون جامع
پ.ن: این آموزش تا ۱۵ تیر ماه رایگان خواهد بود شرط دریافت رایگان دوره، برداشتن تیک «دسترسی کامل» هست.
#پایتون #منابع #کلاس_آموزشی #فیلم
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
شرکت آنتروپیک تو یه پروژه مدل خودش claude رو مسئول یه vending machine کرد از خرید از توزیع کننده بگیر تا کد تخفیف و جواب به سوالات مشتری و هدف فقط اینه بود که ضرر نکنه درسته در آخر ضرر کرد ولی پروژه خیلی جالبی شد و نتیجه های جالبی داشت
https://www.anthropic.com/research/project-vend-1
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://www.anthropic.com/research/project-vend-1
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Anthropic
Project Vend: Can Claude run a small shop? (And why does that matter?)
We let Claude run a small shop in the Anthropic office. Here's what happened.
Forwarded from @machinelearningnet
💥چند تا نکته بابت اپلای :
💠 این مدت درگیر انتخاب دانشجو برای پوزیشن دکترای دانشکده بودم، نزدیک ۲۰۰ نفر برای یک پوزیشن اپلای کردن که در واقع کلی هم رزومه های خوب بین شون وجود داره،
🌐 اول بگم که اینجا دانشگاه top 100 دنیا هست و مطالبی که میگم برای این لول هست،
◻️ راستش وقتی سیستم اینقدر رقابتی میشه، دیگه متقاضی با نمره زیر ۷ آیلتس ( یا ۱۰۰ تافل ) اتوماتیک حذف میشن،
▫️ بدون داشتن مقاله معتبر توی رزومه، اصولا شانسی کمی دارین،
🔸 درباره مقاله لطفا دقت کنید، اگه میخواین به بیزینس اسکول های خوب انگلیس یا اروپا اپلای کنید، ژورنالهای computer science اینا اینجا ارزش بالایی ندارن،
اصولا از abs لیست یا abdc لیست ژورنال خوب رو انتخاب کنید و سابمیت کنید،
💻 اصلاح رایتینگ پروپوزال با کمک ai اوکیه، اما هیچ وقت ازش نخواهید کل پروپوزال رو براتون بنویسه ، عمرا نوآوری داشته باشه،
🌐 🔸 نکته ی بعدی شناخت از فرد هست، اگه قبلا با استاد صحبت کردین، پروپوزال رو باهاش اکستند کردین عالیه، اینجوری شما میشین فرد منتخب اون استاد، و بعدش شانس بیشتری دارین تا همینجوری اقدام کنید ( یه روز قبل از ددلاین به استاد ایمیل زدن فایده نداره)
⚙️ سعی نکنید هر چیزی رو یجوری بفشارید در دل ریسرچ استاد، مقاله های جدید طرف رو بخونید و اگه واقعا توی فیلد شما نیست بهش ایمیل نزید، کلی استاد توی دپارتمان هست، بعدش سعی کنید head ریسرچ دپارتمان رو پیدا کنید، چون اون خیلی دخیل هست توی انتخاب دانشجوی دکترا،
🎙️ کیفیت مصاحبه مهمه، توی مصاحبه سوال رو بشنوید و جواب اونو بدین، نه اینکه بی ربط جواب بدین
🔎 اصولا اگه ۷-۸ سال از فارغ التحصیلی فرد گذشته باشه، شانس اسکولارشیپ واقعا سخت میشه، مگه اینکه کلی مقاله داشته باشین.
💳 همه اینا برای زمانی هست که میخواین اسکولارشیپ بگیرین، والا پولی، هیچ کدوم از این مشکلات نیست ☺️
🟫 داشتن رفرنس از دانشگاهای خارجی خوبه، چون کیفیت طرف رو یکی در حد استاندارد اینجا تایید کرده.
✈️ متاسفانه احتمال اینکه در این زمان ویزای امریکا بیاد خیلی کمه، و دانشگاههای امریکایی دیگه خیلی ایرانی هارو بخاطر کارهای احمقانه ترامپ نمیتونن بگیرن، واقعا حیف اما بنظرم با این وجود برای بیزینس اسکول، و فاینانس واقعا اروپا و انگلیس گاها سرتر از امریکا هست.
💠 و نکته اخر : واقعا بچه های ایران چقدر خوبن، امیدوارم عقلانیتی باشه که بتونیم ایران خودمون رو بسازیم، وطن همه چیز آدمی هست، وقتی میآید بیرون متوجه میشید که چقدر قلبتون براش میتپه ♥️
ساسان براک
Channel: @machinelearningnet2
Group: @machinelearningnet
اصولا از abs لیست یا abdc لیست ژورنال خوب رو انتخاب کنید و سابمیت کنید،
ساسان براک
Channel: @machinelearningnet2
Group: @machinelearningnet
Please open Telegram to view this post
VIEW IN TELEGRAM
دوتا کورس عالی از دانشگاه برکلی راجع به ایجنت ها ارائه شده. دوره اول فاندیمنتال و مباحث اصلی را توضیح میده و دوره دوم دوره پیشرفته راجع به ایجنت ها هست. تمام اسلایدها و ویدیوها و مقالات هم موجوده. و موضوعات مهم و اساسی را پوشش میده.
▪️ CS294/194-196 Large Language Model Agents
▪️ CS294/194-280
Advanced Large Language Model Agents
#منابع #کلاس_آموزشی #پردازش_زبان_طبیعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ CS294/194-196 Large Language Model Agents
▪️ CS294/194-280
Advanced Large Language Model Agents
#منابع #کلاس_آموزشی #پردازش_زبان_طبیعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
ورکشاپ The Future of Language Models and Transformers در خصوص ترنسفورمر ها و مدل های زبانی است که توسط موسسه Simons در دانشگاه برکلی برگزار شده است و شامل مجموعه سخنرانی زیر میباشد:
1 - LLM Reasoning (link)
2- The Key Ingredients of Optimizing Test-Time Compute and What's Still Missing (link)
3- Openthinker: curating a reasoning post-training dataset and training open data reasoning models (link)
4- LLM skills and meta-cognition: scaffolding for new forms of learning? (link)
5- What will Transformers look like in 2027? (link)
6- Reducing the Dimension of Language: A Spectral Perspective on Transformers (link)
7- Mixed-modal Language Modeling: Chameleon, Transfusion, and Mixture of Transformers (link)
8- The Frontier between Retrieval-augmented and Long-context Language Models (link)
9- Attention to Detail: Fine-Grained Vision-Language Alignment (link)
10- Inference Scaling: A New Frontier for AI Capability (link)
11- DeepSeek-R1 Thoughtology: <Thinking> about LLM Reasoning (link)
12- On cognitive maps, LLMs, world models, and understanding (link)
13- The Move Toward AGI: Why Large Language Models Surprised Almost Everyone, and What’s Coming Next | Theoretically Speaking (link)
14- On Knowledge Separation and Latent Diffusion for Text (link)
15- Controllable and Creative Natural Language Generation (link)
16- Transformers can learn compositional function(link)
17- Predicting and optimizing the behavior of large ML models(link)
18- Towards sequence-to-sequence models without activation functions(link)
19- The Power of Resets! Learning better, one reset at a time (link)
20- SILO Open LM: Training LMs on Siloed Datasets (link)
21- The Future of Language Models: A Perspective on Evaluation (link)
22- Learning Generative Models from Corrupted Data (link)
#Transformer
#Language_Models
#Workshop
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
1 - LLM Reasoning (link)
2- The Key Ingredients of Optimizing Test-Time Compute and What's Still Missing (link)
3- Openthinker: curating a reasoning post-training dataset and training open data reasoning models (link)
4- LLM skills and meta-cognition: scaffolding for new forms of learning? (link)
5- What will Transformers look like in 2027? (link)
6- Reducing the Dimension of Language: A Spectral Perspective on Transformers (link)
7- Mixed-modal Language Modeling: Chameleon, Transfusion, and Mixture of Transformers (link)
8- The Frontier between Retrieval-augmented and Long-context Language Models (link)
9- Attention to Detail: Fine-Grained Vision-Language Alignment (link)
10- Inference Scaling: A New Frontier for AI Capability (link)
11- DeepSeek-R1 Thoughtology: <Thinking> about LLM Reasoning (link)
12- On cognitive maps, LLMs, world models, and understanding (link)
13- The Move Toward AGI: Why Large Language Models Surprised Almost Everyone, and What’s Coming Next | Theoretically Speaking (link)
14- On Knowledge Separation and Latent Diffusion for Text (link)
15- Controllable and Creative Natural Language Generation (link)
16- Transformers can learn compositional function(link)
17- Predicting and optimizing the behavior of large ML models(link)
18- Towards sequence-to-sequence models without activation functions(link)
19- The Power of Resets! Learning better, one reset at a time (link)
20- SILO Open LM: Training LMs on Siloed Datasets (link)
21- The Future of Language Models: A Perspective on Evaluation (link)
22- Learning Generative Models from Corrupted Data (link)
#Transformer
#Language_Models
#Workshop
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from Ali's Notes
یه پکیج خوب برای فیکس کردن جیسان های خروجی مدل های زبانی:
🔗 https://github.com/mangiucugna/json_repair
@css_nlp
@css_nlp
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - mangiucugna/json_repair: A python module to repair invalid JSON from LLMs
A python module to repair invalid JSON from LLMs. Contribute to mangiucugna/json_repair development by creating an account on GitHub.
اگر کاربر #تلگرام Premium هستید، و محتویات و پستهای کانال مورد توجهت قراره گرفته با Boost کردن کانال ما، در فعال کردن قابلیت انتشار استوری به ما کمک کنید تا بتوانیم محتواهای جذاب را در استوری تلگرام با شما به اشتراک بگذاریم 🚶♂🚶♂❤️🌻
👇👇
https://www.tg-me.com/boost/AI_DeepMind
👇👇
https://www.tg-me.com/boost/AI_DeepMind
DeepMind AI Expert
اگر کاربر #تلگرام Premium هستید، و محتویات و پستهای کانال مورد توجهت قراره گرفته با Boost کردن کانال ما، در فعال کردن قابلیت انتشار استوری به ما کمک کنید تا بتوانیم محتواهای جذاب را در استوری تلگرام با شما به اشتراک بگذاریم 🚶♂🚶♂❤️🌻 👇👇 https://www.tg-me.com/boost/AI_DeepMind
این boost هایی ک دارین رو بی استفاده نزارین🚶♂
DeepMind AI Expert
اگر کاربر #تلگرام Premium هستید، و محتویات و پستهای کانال مورد توجهت قراره گرفته با Boost کردن کانال ما، در فعال کردن قابلیت انتشار استوری به ما کمک کنید تا بتوانیم محتواهای جذاب را در استوری تلگرام با شما به اشتراک بگذاریم 🚶♂🚶♂❤️🌻 👇👇 https://www.tg-me.com/boost/AI_DeepMind
از اینکه رفیق های همراه خوبی هستین ممنونم تعداد boostingها به ۱۲تا باقیموند ی هل دیگع ب کانال بدین مرسی ازتون قلب براهمتون❤️🌻
https://www.tg-me.com/boost/AI_DeepMind
https://www.tg-me.com/boost/AI_DeepMind
در این #مقاله مانند انسان (تفکری کند، تحلیلمحور) بدون نیاز به آموزش نظارتی ویژه یا افزونههای جانبی. مدل EBT به صورت همزمان ورودی و پیشبینی توکن را دریافت کرده و پیشبینی اولیه (مثلاً نویز تصادفی برای تصاویر یا توکنهای نامطمئن برای متن) گرفته شده، و سپس مدل با استفاده از گرادیاننزولی آن را برای کاهش انرژی بهینهسازی میکند. حتی وقتی عملکرد pretraining چندان قوی نیست، EBTها نتایج بهتری در برچسبگذاریهای پاییندستی نشان میدهند.
▪️ Energy-Based Transformers are Scalable Learners and Thinkers
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Energy-Based Transformers are Scalable Learners and Thinkers
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person