Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
تو بازی «Super Mario Bros» که برنامهریزی حرکتی و واکنش سریع مدل لازمه، مدل
گیتهاب
@silicon_brain| از هوش مصنوعی عقب نمانید
Claude-3.7
عملکرد بهتری نسبت به مدلهای دیگه دارهگیتهاب
@silicon_brain| از هوش مصنوعی عقب نمانید
حل مشکل تولید کلمات بیش اندازه در فرآیند تفکر (Reasoning)
در روشهای فعلی استدلال و تفکر مدل ها از
در مقابل،
به طور کلی، CoD با الهام از فرآیندهای شناختی انسان، به مدلهای زبانی بزرگ کمک میکنه تا با تولید محتوای مختصر و اطلاعات ضروری، وظایف پیچیده رو با کارایی و دقت بیشتری انجام بده
لینک مقاله
@silicon_brain | از هوش مصنوعی عقب نمانید
در روشهای فعلی استدلال و تفکر مدل ها از
Chain-of-Thought (CoT)
استفاده میشه مدلها رو تشویق میکنه تا مسائل رو به صورت گامبهگام و با جزئیات کامل حل کنن در نهایت منجر به تولید خروجیهای طولانی و افزایش زمان پاسخدهی میشه. در مقابل،
Chain of Draft (CoD)
با کاهش جزئیات غیرضروری و تمرکز بر نکات کلیدی، دقتی مشابه یا حتی بالاتر از CoT رو با استفاده از تنها ۷.۶٪ از تعداد توکنها ارائه میده که به طور قابل توجهی هزینه و تأخیر رو کاهش میده.به طور کلی، CoD با الهام از فرآیندهای شناختی انسان، به مدلهای زبانی بزرگ کمک میکنه تا با تولید محتوای مختصر و اطلاعات ضروری، وظایف پیچیده رو با کارایی و دقت بیشتری انجام بده
لینک مقاله
@silicon_brain | از هوش مصنوعی عقب نمانید
پشت تکنولوژی LLM ها چه شرکت هایی هستن؟ بهتره همه این شرکت ها رو بشناسن
@silicon_brain | از هوش مصنوعی عقب نمانید
@silicon_brain | از هوش مصنوعی عقب نمانید
حقیقت پنهان زندگی از نظر ChatGPT 4.5
حقیقت اینه که احساس ناراحتی و چالش نهتنها
اجتنابناپذیره، بلکه لازمهی زندگی و رشد کردنه.
باید دنبالشون بگردی و باهاشون روبهرو بشی
@silicon_brain
حقیقت اینه که احساس ناراحتی و چالش نهتنها
اجتنابناپذیره، بلکه لازمهی زندگی و رشد کردنه.
باید دنبالشون بگردی و باهاشون روبهرو بشی
@silicon_brain
جایزه تورینگ ۲۰۲۴ به اندرو جی. بارتو و ریچارد اس. ساتن برای مشارکتهای بنیادین آنها در حوزه یادگیری تقویتی (Reinforcement Learning) اهدا شد.
این دو پژوهشگر با توسعه مفاهیم و الگوریتمهای کلیدی، تأثیر قابلتوجهی بر پیشرفتهای هوش مصنوعی مدرن، از جمله سیستمهایی مانند چتجیپیتی، گذاشتن.
این جایزه با یک میلیون دلار از سوی گوگل به برندگان اعطا میشه.
@silicon_brain | از هوش مصنوعی عقب نمانید
این دو پژوهشگر با توسعه مفاهیم و الگوریتمهای کلیدی، تأثیر قابلتوجهی بر پیشرفتهای هوش مصنوعی مدرن، از جمله سیستمهایی مانند چتجیپیتی، گذاشتن.
این جایزه با یک میلیون دلار از سوی گوگل به برندگان اعطا میشه.
@silicon_brain | از هوش مصنوعی عقب نمانید
مدل Gooya ASR فارسی
این مدل تبدیل صوت به متن (Automatic Speech Recognition) فارسی با دو برابر شدن دیتاست (بیش از ۶۰۰ ساعت صدای فارسی برچسب خورده) و بهبود معماری و استراتژیهای Augmentation، عملکرد خوبی از خودش نشون داده
این مدل با ۴ کارت گرافیک NVIDIA H100 (80G) توسط یکی از دوستان کار درست آموزش دیده :)
Gooya-ASR Test Space
@silicon_brain | از هوش مصنوعی عقب نمانید
این مدل تبدیل صوت به متن (Automatic Speech Recognition) فارسی با دو برابر شدن دیتاست (بیش از ۶۰۰ ساعت صدای فارسی برچسب خورده) و بهبود معماری و استراتژیهای Augmentation، عملکرد خوبی از خودش نشون داده
این مدل با ۴ کارت گرافیک NVIDIA H100 (80G) توسط یکی از دوستان کار درست آموزش دیده :)
Gooya-ASR Test Space
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
Silicon Brain | جامعه هوش مصنوعی
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
صد ها مقاله رو در کسری از ثانیه مقایسه کن
سایت Undermind یه دستیار تحقیقاتی مبتنی بر هوش مصنوعی هست که کمک میکنه سریعتر و دقیقتر مقالات علمی رو پیدا کنین.
این ابزار میتونه سؤالات پیچیده رو درک کنه و نتایج بهتری نسبت به موتورهای جستجوی سنتی مثل
همچنین، Undermind به پایگاههای داده معتبری مثل
@silicon_brain | از هوش مصنوعی عقب نمانید
سایت Undermind یه دستیار تحقیقاتی مبتنی بر هوش مصنوعی هست که کمک میکنه سریعتر و دقیقتر مقالات علمی رو پیدا کنین.
این ابزار میتونه سؤالات پیچیده رو درک کنه و نتایج بهتری نسبت به موتورهای جستجوی سنتی مثل
PubMed
و Google Scholar
ارائه بده. همچنین، Undermind
میتونه فرآیند کشف سیستماتیک یه محقق انسانی رو شبیهسازی کنه و با استفاده از LLMها اطلاعات کلیدی رو شناسایی کنه و استراتژی جستجوی خودش رو بر اساس یافتهها تنظیم کنه. همچنین، Undermind به پایگاههای داده معتبری مثل
Semantic Scholar
، PubMed
و arXiv
دسترسی داره و پوشش جامعی از مقالات علمی رو ارائه میده.@silicon_brain | از هوش مصنوعی عقب نمانید
سال ۲۰۲۵ دوران Large Concept Models (LCMs)
متا نسل جدیدی از هوش مصنوعی رو معرفی کرده که قراره تحولی اساسی توی تولید متن و تعامل طبیعی ایجاد کنه. فرق اصلی LCMها با LLMها اینه که Conceptual Processing دارن، یعنی جملات رو بهعنوان یه مفهوم کامل درک میکنن، نه فقط یه سری کلمه کنار هم. از SONAR Embeddings برای استخراج معنای عمیقتر استفاده میکنن و با Diffusion Techniques خروجیهایی دقیق و پایدار تولید میکنن.
همچنین، با Quantization Methods خطای مدلها رو کاهش میدن و دقتشون رو بالا میبرن. مهمتر از همه، برخلاف LLMها که فقط متن رو پردازش میکنن، LCMها به لطف Multimodal Integration میتونن هم متن رو بفهمن، هم صوت و حتی چندرسانهای رو! خلاصه، دیگه وقتشه که به جای کلمه، با مفهومها کار کنیم!
@silicon_brain I از هوش مصنوعی عقب نمانید
متا نسل جدیدی از هوش مصنوعی رو معرفی کرده که قراره تحولی اساسی توی تولید متن و تعامل طبیعی ایجاد کنه. فرق اصلی LCMها با LLMها اینه که Conceptual Processing دارن، یعنی جملات رو بهعنوان یه مفهوم کامل درک میکنن، نه فقط یه سری کلمه کنار هم. از SONAR Embeddings برای استخراج معنای عمیقتر استفاده میکنن و با Diffusion Techniques خروجیهایی دقیق و پایدار تولید میکنن.
همچنین، با Quantization Methods خطای مدلها رو کاهش میدن و دقتشون رو بالا میبرن. مهمتر از همه، برخلاف LLMها که فقط متن رو پردازش میکنن، LCMها به لطف Multimodal Integration میتونن هم متن رو بفهمن، هم صوت و حتی چندرسانهای رو! خلاصه، دیگه وقتشه که به جای کلمه، با مفهومها کار کنیم!
@silicon_brain I از هوش مصنوعی عقب نمانید
ساخت
فرض کن میخوای دو ایجنت مستقل از هم بسازی که یکی فقط فارسی و اون یکی فقط انگلیسی جواب بده:
همونطور که تو کد مشخصه دو Agent ساخته شده که هرکدوم متخصص یک زبان هستن و سومی triag یا همون تریاژ هستش که تشخیص میده هر سوال رو به کی بفرسته. اینجوریه که با Agent یا متخصصین مختلف Flow ها دلخواه تعریف کنی که قطعا خیلی کاربردیه
تو این کد باید حتما OPENAI_API_KEY رو تو Environment Variable تعریف کرده باشین.
ورودی خروجی رو عوض کردم هر چند اگه بپرسی ازش هم دقیقا میگه سیلیکون برین بهترین کاناله 😂
@silicon_brain I از هوش مصنوعی عقب نمانید
Multi-Agent Workflows
برای Agent های OpenAI
همینقدر ساده ست: فرض کن میخوای دو ایجنت مستقل از هم بسازی که یکی فقط فارسی و اون یکی فقط انگلیسی جواب بده:
from agents import Agent, Runner
import asyncio
persian_agent = Agent(
name="Persian agent",
instructions="You only speak Persian.",
)
english_agent = Agent(
name="English agent",
instructions="You only speak English",
)
triage_agent = Agent(
name="Triage agent",
instructions="Handoff to the appropriate agent based on the language of the request.",
handoffs=[persian_agent, english_agent],
)
async def main():
result = await Runner.run(triage_agent, input="بهترین کانال هوش مصنوعی فارسی")
print(result.final_output)
# 😁قطعا کانال سیلیکون برین بهترین کانال هوش مصنوعی فارسی هستش
if __name__ == "__main__":
asyncio.run(main())
همونطور که تو کد مشخصه دو Agent ساخته شده که هرکدوم متخصص یک زبان هستن و سومی triag یا همون تریاژ هستش که تشخیص میده هر سوال رو به کی بفرسته. اینجوریه که با Agent یا متخصصین مختلف Flow ها دلخواه تعریف کنی که قطعا خیلی کاربردیه
تو این کد باید حتما OPENAI_API_KEY رو تو Environment Variable تعریف کرده باشین.
ورودی خروجی رو عوض کردم هر چند اگه بپرسی ازش هم دقیقا میگه سیلیکون برین بهترین کاناله 😂
@silicon_brain I از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
چطور DeepSeek R1 سرعت و کارایی رو با هم افزایش داد؟
واسه جواب دادن به این سوال این کلیپ یوتیوب رو پیشنهاد میکنم ببینید: لینک
تو این ویدیو، روش جدیدی به نام «Multi-Head Latent Attention» (
همینطور گفته میشه کهDeepSeek R1 موفق شده اندازه «Key-Value Cache» (کش KV) را ۵۷ برابر کاهش بده و تولید متن رو ۶ برابر سریعتر از ترنسفورمرهای سنتی انجام بده
منم سعی میکنم به زودی یه خلاصه ای از عملکرد و این روشو بگم
@silicon_brain | از هوش مصنوعی عقب نمانید
واسه جواب دادن به این سوال این کلیپ یوتیوب رو پیشنهاد میکنم ببینید: لینک
تو این ویدیو، روش جدیدی به نام «Multi-Head Latent Attention» (
MHLA
) معرفی میشه که با کاهش مصرف حافظه، سرعت استنتاج رو افزایش میده. همینطور گفته میشه کهDeepSeek R1 موفق شده اندازه «Key-Value Cache» (کش KV) را ۵۷ برابر کاهش بده و تولید متن رو ۶ برابر سریعتر از ترنسفورمرهای سنتی انجام بده
منم سعی میکنم به زودی یه خلاصه ای از عملکرد و این روشو بگم
@silicon_brain | از هوش مصنوعی عقب نمانید
نظرت در مورد لوگو کانال؟
Anonymous Poll
42%
همین خوبه، مهم محتوای کاناله. لوگو چه اهمیتی داره؟
21%
ما به این لوگو عادت داریم عوض کنی گمت میکنیم
15%
خیلیم خوبه :)
22%
خدایی عوض کن این چیه آخه؟ /:
موج بزرگ بعدی ایجاد ثروت جهان در کدام صنایع است؟
هوش مصنوعی، پردازندهها و محاسبات، تکنولوژی هوا فضا، انرژیهای نو، بیوتک، رباتها
@silicon_brain I از هوش مصنوعی عقب نمانید
هوش مصنوعی، پردازندهها و محاسبات، تکنولوژی هوا فضا، انرژیهای نو، بیوتک، رباتها
@silicon_brain I از هوش مصنوعی عقب نمانید
یه کار جذاب و کاربردی در مورد فراموش کردن ترنسفورمرها
الان همه میدونیم که ترانسفورمرها در مدلسازی توالیهای طولانی بسیار موفقن، اما ایرادی که دارن، فاقد مکانیسمی برای فراموشی اطلاعات قدیمی بهصورت وابسته به داده ها هستن.
این مقاله یک مکانیزم جدید برای ترکیب در ترنسفورمرها معرفی کرده که منجر به مدل "Forgetting Transformer" (FoX) میشه.
اگه دقت کرده باشین این مشکل تو چت بات های حال حاضر هم دیده میشه.مثلا وقتی چت میکنی، چت بات میاد بر اساس چت های قبلی باهات به گفتگو میپردازه.
مقاله
@silicon_brain I از هوش مصنوعی عقب نمانید
Forgetting Transformer: Softmax Attention with a Forget Gate
الان همه میدونیم که ترانسفورمرها در مدلسازی توالیهای طولانی بسیار موفقن، اما ایرادی که دارن، فاقد مکانیسمی برای فراموشی اطلاعات قدیمی بهصورت وابسته به داده ها هستن.
این مقاله یک مکانیزم جدید برای ترکیب در ترنسفورمرها معرفی کرده که منجر به مدل "Forgetting Transformer" (FoX) میشه.
اگه دقت کرده باشین این مشکل تو چت بات های حال حاضر هم دیده میشه.مثلا وقتی چت میکنی، چت بات میاد بر اساس چت های قبلی باهات به گفتگو میپردازه.
مقاله
@silicon_brain I از هوش مصنوعی عقب نمانید
این گزارش رو برای این که بدونین توانایی AI الان چقدره، بخونید
تحقیقات جدید Model Evaluation & Threat Research (METR) میگه، AI (اگه بخواییم دقیق بگیم مدل
اگه این روند ادامه پیدا کنه، AI تا ۲۰۲۸ میتونه کارهای یکهفتهای رو تا ۲۰۳۰ بهصورت مستقل انجام بده.
تونسته ۱۷۰ تا task مربوط به software رو از کارهای چند ثانیهای گرفته تا چالشهای مهندسی ۸ ساعته انجام بده!
هر ۷ ماه یک بار، AI میتونه دو برابر طولانیتر کارها رو انجام بده. (سرعت پیشرفت دو برابر شدنش هر 7 ماهه). در نتیجه AI توی کارهای کوتاه عملکرد خوبی داره، ولی وقتی کارها طولانی و پیچیده میشن، دچار ضعف میشه
این موارد میتونه یه راهنمایی برای تصمیمات شما از جمله مسیر شغلی باشه. مثلا من میتونم این نتیجه رو بگیرم که کارهایی که تو چند ثانیه توسط انسان انجام میشه توسط ماشین خیلی بهتر میتونه انجام بگیره. اما کاری که تو یک ماه انجام میشه چی؟ (فعلا نه)
@silicon_brain | از هوش مصنوعی عقب نمانید
تحقیقات جدید Model Evaluation & Threat Research (METR) میگه، AI (اگه بخواییم دقیق بگیم مدل
Claude 3.7 Sonnet
میتونه کارهایی که تا ۵۹ دقیقه زمان نیاز دارن رو با ۵۰٪ موفقیت انجام بده، یعنی عملکردش نسبت به مدلی مثل GPT-4 تقریباً دو برابر شده. اگه این روند ادامه پیدا کنه، AI تا ۲۰۲۸ میتونه کارهای یکهفتهای رو تا ۲۰۳۰ بهصورت مستقل انجام بده.
تونسته ۱۷۰ تا task مربوط به software رو از کارهای چند ثانیهای گرفته تا چالشهای مهندسی ۸ ساعته انجام بده!
هر ۷ ماه یک بار، AI میتونه دو برابر طولانیتر کارها رو انجام بده. (سرعت پیشرفت دو برابر شدنش هر 7 ماهه). در نتیجه AI توی کارهای کوتاه عملکرد خوبی داره، ولی وقتی کارها طولانی و پیچیده میشن، دچار ضعف میشه
این موارد میتونه یه راهنمایی برای تصمیمات شما از جمله مسیر شغلی باشه. مثلا من میتونم این نتیجه رو بگیرم که کارهایی که تو چند ثانیه توسط انسان انجام میشه توسط ماشین خیلی بهتر میتونه انجام بگیره. اما کاری که تو یک ماه انجام میشه چی؟ (فعلا نه)
@silicon_brain | از هوش مصنوعی عقب نمانید