Telegram Web Link
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
تو بازی «Super Mario Bros» که برنامه‌ریزی حرکتی و واکنش سریع مدل لازمه، مدل Claude-3.7 عملکرد بهتری نسبت به مدل‌های دیگه داره
گیتهاب

@silicon_brain| از هوش مصنوعی عقب نمانید
حل مشکل تولید کلمات بیش اندازه در فرآیند تفکر (Reasoning)

در روش‌های فعلی استدلال و تفکر مدل ها از Chain-of-Thought (CoT) استفاده میشه مدل‌ها رو تشویق میکنه تا مسائل رو به صورت گام‌به‌گام و با جزئیات کامل حل کنن در نهایت منجر به تولید خروجی‌های طولانی و افزایش زمان پاسخ‌دهی میشه.

در مقابل، Chain of Draft (CoD) با کاهش جزئیات غیرضروری و تمرکز بر نکات کلیدی، دقتی مشابه یا حتی بالاتر از CoT رو با استفاده از تنها ۷.۶٪ از تعداد توکن‌ها ارائه میده که به طور قابل توجهی هزینه و تأخیر رو کاهش میده.

به طور کلی، CoD با الهام از فرآیندهای شناختی انسان، به مدل‌های زبانی بزرگ کمک میکنه تا با تولید محتوای مختصر و اطلاعات ضروری، وظایف پیچیده رو با کارایی و دقت بیشتری انجام بده

لینک مقاله
@silicon_brain | از هوش مصنوعی عقب نمانید
پشت تکنولوژی LLM ها چه شرکت هایی هستن؟ بهتره همه این شرکت ها رو بشناسن

@silicon_brain | از هوش مصنوعی عقب نمانید
حقیقت پنهان زندگی از نظر ChatGPT 4.5

حقیقت اینه که احساس ناراحتی و چالش نه‌تنها
اجتناب‌ناپذیره، بلکه لازمه‌ی زندگی و رشد کردنه.

باید دنبال‌شون بگردی و باهاشون روبه‌رو بشی

@silicon_brain
جایزه تورینگ ۲۰۲۴ به اندرو جی. بارتو و ریچارد اس. ساتن برای مشارکت‌های بنیادین آن‌ها در حوزه یادگیری تقویتی (Reinforcement Learning) اهدا شد.

این دو پژوهشگر با توسعه مفاهیم و الگوریتم‌های کلیدی، تأثیر قابل‌توجهی بر پیشرفت‌های هوش مصنوعی مدرن، از جمله سیستم‌هایی مانند چت‌جی‌پی‌تی، گذاشتن.

این جایزه با یک میلیون دلار از سوی گوگل به برندگان اعطا میشه.

@silicon_brain | از هوش مصنوعی عقب نمانید
مدل Gooya ASR فارسی

این مدل تبدیل صوت به متن (Automatic Speech Recognition) فارسی با دو برابر شدن دیتاست (بیش از ۶۰۰ ساعت صدای فارسی برچسب خورده) و بهبود معماری و استراتژی‌های Augmentation، عملکرد خوبی از خودش نشون داده

این مدل با ۴ کارت گرافیک NVIDIA H100 (80G) توسط یکی از دوستان کار درست آموزش دیده :)

Gooya-ASR Test Space
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
صد ها مقاله رو در کسری از ثانیه مقایسه کن

‏ سایت Undermind یه دستیار تحقیقاتی مبتنی بر هوش مصنوعی هست که کمک می‌کنه سریع‌تر و دقیق‌تر مقالات علمی رو پیدا کنین.

این ابزار می‌تونه سؤالات پیچیده رو درک کنه و نتایج بهتری نسبت به موتورهای جستجوی سنتی مثل PubMed و Google Scholar ارائه بده. همچنین، Undermind می‌تونه فرآیند کشف سیستماتیک یه محقق انسانی رو شبیه‌سازی کنه و با استفاده از LLMها اطلاعات کلیدی رو شناسایی کنه و استراتژی جستجوی خودش رو بر اساس یافته‌ها تنظیم کنه.

همچنین، Undermind به پایگاه‌های داده معتبری مثل Semantic Scholar، PubMed و arXiv دسترسی داره و پوشش جامعی از مقالات علمی رو ارائه می‌ده.

@silicon_brain | از هوش مصنوعی عقب نمانید
سال ۲۰۲۵ دوران Large Concept Models (LCMs)

متا نسل جدیدی از هوش مصنوعی رو معرفی کرده که قراره تحولی اساسی توی تولید متن و تعامل طبیعی ایجاد کنه. فرق اصلی LCMها با LLMها اینه که Conceptual Processing دارن، یعنی جملات رو به‌عنوان یه مفهوم کامل درک می‌کنن، نه فقط یه سری کلمه کنار هم. از SONAR Embeddings برای استخراج معنای عمیق‌تر استفاده می‌کنن و با Diffusion Techniques خروجی‌هایی دقیق و پایدار تولید می‌کنن.

همچنین، با Quantization Methods خطای مدل‌ها رو کاهش میدن و دقتشون رو بالا می‌برن. مهم‌تر از همه، برخلاف LLMها که فقط متن رو پردازش می‌کنن، LCMها به لطف Multimodal Integration می‌تونن هم متن رو بفهمن، هم صوت و حتی چندرسانه‌ای رو! خلاصه، دیگه وقتشه که به جای کلمه، با مفهوم‌ها کار کنیم!

@silicon_brain I از هوش مصنوعی عقب نمانید
ساخت Multi-Agent Workflows برای Agent های OpenAI همینقدر ساده ست:
فرض کن میخوای دو ایجنت مستقل از هم بسازی که یکی فقط فارسی و اون یکی فقط انگلیسی جواب بده:
from agents import Agent, Runner
import asyncio

persian_agent = Agent(
name="Persian agent",
instructions="You only speak Persian.",
)

english_agent = Agent(
name="English agent",
instructions="You only speak English",
)

triage_agent = Agent(
name="Triage agent",
instructions="Handoff to the appropriate agent based on the language of the request.",
handoffs=[persian_agent, english_agent],
)

async def main():
result = await Runner.run(triage_agent, input="بهترین کانال هوش مصنوعی فارسی")
print(result.final_output)
# 😁قطعا کانال سیلیکون برین بهترین کانال هوش مصنوعی فارسی هستش

if __name__ == "__main__":
asyncio.run(main())

همونطور که تو کد مشخصه دو Agent ساخته شده که هرکدوم متخصص یک زبان هستن و سومی triag یا همون تریاژ هستش که تشخیص میده هر سوال رو به کی بفرسته. اینجوریه که با Agent یا متخصصین مختلف Flow ها دلخواه تعریف کنی که قطعا خیلی کاربردیه

تو این کد باید حتما OPENAI_API_KEY رو تو Environment Variable تعریف کرده باشین.
ورودی خروجی رو عوض کردم هر چند اگه بپرسی ازش هم دقیقا میگه سیلیکون برین بهترین کاناله 😂
@silicon_brain I از هوش مصنوعی عقب نمانید
بچه‌ها می‌دونستین همه‌ی مدل‌های یولو رو تهران آموزش میدن؟ تو این مغازه؟😂
Please open Telegram to view this post
VIEW IN TELEGRAM
چطور DeepSeek R1 سرعت و کارایی رو با هم افزایش داد؟

واسه جواب دادن به این سوال این کلیپ یوتیوب رو پیشنهاد میکنم ببینید: لینک

تو این ویدیو، روش جدیدی به نام «Multi-Head Latent Attention» (MHLA) معرفی میشه که با کاهش مصرف حافظه، سرعت استنتاج رو افزایش میده.
همینطور گفته میشه کهDeepSeek R1 موفق شده اندازه «Key-Value Cache» (کش KV) را ۵۷ برابر کاهش بده و تولید متن رو ۶ برابر سریع‌تر از ترنسفورمرهای سنتی انجام بده

منم سعی میکنم به زودی یه خلاصه ای از عملکرد و این روشو بگم

@silicon_brain | از هوش مصنوعی عقب نمانید
لوگو گوگل به مناسبت نوروز تغییر کرد
💐
گوگل به مناسبت نوروز Doodle جدیدی طراحی کرده که وظیفه طراحی آن برعهده «پندار یوسفی»، مدیر ایرانی تیم UX‌ گوگل ترنسلیت، هست. این دودل علاوه بر نمایش نمادهای سفره هفت‌سین، برخی فعالیت‌های مربوط به نوروز مانند تمیز کردن را هم به تصویر کشیده
موج بزرگ بعدی ایجاد ثروت جهان در کدام صنایع است؟
هوش مصنوعی، پردازنده‌ها و محاسبات، تکنولوژی هوا فضا، انرژی‌های نو، بیوتک، ربات‌ها

@silicon_brain I از هوش مصنوعی عقب نمانید
یه کار جذاب و کاربردی در مورد فراموش کردن ترنسفورمر‌ها

Forgetting Transformer: Softmax Attention with a Forget Gate

الان همه میدونیم که ترانسفورمرها در مدل‌سازی توالی‌های طولانی بسیار موفقن، اما ایرادی که دارن، فاقد مکانیسمی برای فراموشی اطلاعات قدیمی به‌صورت وابسته به داده ها هستن.

این مقاله یک مکانیزم جدید برای ترکیب در ترنسفورمرها معرفی کرده که منجر به مدل "Forgetting Transformer" (FoX) میشه.

اگه دقت کرده باشین این مشکل تو چت بات های حال حاضر هم دیده میشه.مثلا وقتی چت میکنی، چت بات میاد بر اساس چت های قبلی باهات به گفتگو میپردازه.
مقاله

@silicon_brain I از هوش مصنوعی عقب نمانید
این گزارش رو برای این که بدونین توانایی AI الان چقدره، بخونید

تحقیقات جدید Model Evaluation & Threat Research (METR) میگه، AI (اگه بخواییم دقیق بگیم مدل Claude 3.7 Sonnet می‌تونه کارهایی که تا ۵۹ دقیقه زمان نیاز دارن رو با ۵۰٪ موفقیت انجام بده، یعنی عملکردش نسبت به مدلی مثل GPT-4 تقریباً دو برابر شده.

اگه این روند ادامه پیدا کنه، AI تا ۲۰۲۸ می‌تونه کارهای یک‌هفته‌ای رو تا ۲۰۳۰ به‌صورت مستقل انجام بده.

تونسته ۱۷۰ تا task مربوط به software رو از کارهای چند ثانیه‌ای گرفته تا چالش‌های مهندسی ۸ ساعته انجام بده!

هر ۷ ماه یک بار، AI می‌تونه دو برابر طولانی‌تر کارها رو انجام بده. (سرعت پیشرفت دو برابر شدنش هر 7 ماهه). در نتیجه AI توی کارهای کوتاه عملکرد خوبی داره، ولی وقتی کارها طولانی و پیچیده می‌شن، دچار ضعف می‌شه

این موارد میتونه یه راهنمایی برای تصمیمات شما از جمله مسیر شغلی باشه. مثلا من میتونم این نتیجه رو بگیرم که کارهایی که تو چند ثانیه توسط انسان انجام میشه توسط ماشین خیلی بهتر میتونه انجام بگیره. اما کاری که تو یک ماه انجام میشه چی؟ (فعلا نه)
@silicon_brain | از هوش مصنوعی عقب نمانید
2025/07/07 16:08:05
Back to Top
HTML Embed Code: