Please open Telegram to view this post
VIEW IN TELEGRAM
Silicon Brain | جامعه هوش مصنوعی
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
صد ها مقاله رو در کسری از ثانیه مقایسه کن
سایت Undermind یه دستیار تحقیقاتی مبتنی بر هوش مصنوعی هست که کمک میکنه سریعتر و دقیقتر مقالات علمی رو پیدا کنین.
این ابزار میتونه سؤالات پیچیده رو درک کنه و نتایج بهتری نسبت به موتورهای جستجوی سنتی مثل
همچنین، Undermind به پایگاههای داده معتبری مثل
@silicon_brain | از هوش مصنوعی عقب نمانید
سایت Undermind یه دستیار تحقیقاتی مبتنی بر هوش مصنوعی هست که کمک میکنه سریعتر و دقیقتر مقالات علمی رو پیدا کنین.
این ابزار میتونه سؤالات پیچیده رو درک کنه و نتایج بهتری نسبت به موتورهای جستجوی سنتی مثل
PubMed
و Google Scholar
ارائه بده. همچنین، Undermind
میتونه فرآیند کشف سیستماتیک یه محقق انسانی رو شبیهسازی کنه و با استفاده از LLMها اطلاعات کلیدی رو شناسایی کنه و استراتژی جستجوی خودش رو بر اساس یافتهها تنظیم کنه. همچنین، Undermind به پایگاههای داده معتبری مثل
Semantic Scholar
، PubMed
و arXiv
دسترسی داره و پوشش جامعی از مقالات علمی رو ارائه میده.@silicon_brain | از هوش مصنوعی عقب نمانید
سال ۲۰۲۵ دوران Large Concept Models (LCMs)
متا نسل جدیدی از هوش مصنوعی رو معرفی کرده که قراره تحولی اساسی توی تولید متن و تعامل طبیعی ایجاد کنه. فرق اصلی LCMها با LLMها اینه که Conceptual Processing دارن، یعنی جملات رو بهعنوان یه مفهوم کامل درک میکنن، نه فقط یه سری کلمه کنار هم. از SONAR Embeddings برای استخراج معنای عمیقتر استفاده میکنن و با Diffusion Techniques خروجیهایی دقیق و پایدار تولید میکنن.
همچنین، با Quantization Methods خطای مدلها رو کاهش میدن و دقتشون رو بالا میبرن. مهمتر از همه، برخلاف LLMها که فقط متن رو پردازش میکنن، LCMها به لطف Multimodal Integration میتونن هم متن رو بفهمن، هم صوت و حتی چندرسانهای رو! خلاصه، دیگه وقتشه که به جای کلمه، با مفهومها کار کنیم!
@silicon_brain I از هوش مصنوعی عقب نمانید
متا نسل جدیدی از هوش مصنوعی رو معرفی کرده که قراره تحولی اساسی توی تولید متن و تعامل طبیعی ایجاد کنه. فرق اصلی LCMها با LLMها اینه که Conceptual Processing دارن، یعنی جملات رو بهعنوان یه مفهوم کامل درک میکنن، نه فقط یه سری کلمه کنار هم. از SONAR Embeddings برای استخراج معنای عمیقتر استفاده میکنن و با Diffusion Techniques خروجیهایی دقیق و پایدار تولید میکنن.
همچنین، با Quantization Methods خطای مدلها رو کاهش میدن و دقتشون رو بالا میبرن. مهمتر از همه، برخلاف LLMها که فقط متن رو پردازش میکنن، LCMها به لطف Multimodal Integration میتونن هم متن رو بفهمن، هم صوت و حتی چندرسانهای رو! خلاصه، دیگه وقتشه که به جای کلمه، با مفهومها کار کنیم!
@silicon_brain I از هوش مصنوعی عقب نمانید
ساخت
فرض کن میخوای دو ایجنت مستقل از هم بسازی که یکی فقط فارسی و اون یکی فقط انگلیسی جواب بده:
همونطور که تو کد مشخصه دو Agent ساخته شده که هرکدوم متخصص یک زبان هستن و سومی triag یا همون تریاژ هستش که تشخیص میده هر سوال رو به کی بفرسته. اینجوریه که با Agent یا متخصصین مختلف Flow ها دلخواه تعریف کنی که قطعا خیلی کاربردیه
تو این کد باید حتما OPENAI_API_KEY رو تو Environment Variable تعریف کرده باشین.
ورودی خروجی رو عوض کردم هر چند اگه بپرسی ازش هم دقیقا میگه سیلیکون برین بهترین کاناله 😂
@silicon_brain I از هوش مصنوعی عقب نمانید
Multi-Agent Workflows
برای Agent های OpenAI
همینقدر ساده ست: فرض کن میخوای دو ایجنت مستقل از هم بسازی که یکی فقط فارسی و اون یکی فقط انگلیسی جواب بده:
from agents import Agent, Runner
import asyncio
persian_agent = Agent(
name="Persian agent",
instructions="You only speak Persian.",
)
english_agent = Agent(
name="English agent",
instructions="You only speak English",
)
triage_agent = Agent(
name="Triage agent",
instructions="Handoff to the appropriate agent based on the language of the request.",
handoffs=[persian_agent, english_agent],
)
async def main():
result = await Runner.run(triage_agent, input="بهترین کانال هوش مصنوعی فارسی")
print(result.final_output)
# 😁قطعا کانال سیلیکون برین بهترین کانال هوش مصنوعی فارسی هستش
if __name__ == "__main__":
asyncio.run(main())
همونطور که تو کد مشخصه دو Agent ساخته شده که هرکدوم متخصص یک زبان هستن و سومی triag یا همون تریاژ هستش که تشخیص میده هر سوال رو به کی بفرسته. اینجوریه که با Agent یا متخصصین مختلف Flow ها دلخواه تعریف کنی که قطعا خیلی کاربردیه
تو این کد باید حتما OPENAI_API_KEY رو تو Environment Variable تعریف کرده باشین.
ورودی خروجی رو عوض کردم هر چند اگه بپرسی ازش هم دقیقا میگه سیلیکون برین بهترین کاناله 😂
@silicon_brain I از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
چطور DeepSeek R1 سرعت و کارایی رو با هم افزایش داد؟
واسه جواب دادن به این سوال این کلیپ یوتیوب رو پیشنهاد میکنم ببینید: لینک
تو این ویدیو، روش جدیدی به نام «Multi-Head Latent Attention» (
همینطور گفته میشه کهDeepSeek R1 موفق شده اندازه «Key-Value Cache» (کش KV) را ۵۷ برابر کاهش بده و تولید متن رو ۶ برابر سریعتر از ترنسفورمرهای سنتی انجام بده
منم سعی میکنم به زودی یه خلاصه ای از عملکرد و این روشو بگم
@silicon_brain | از هوش مصنوعی عقب نمانید
واسه جواب دادن به این سوال این کلیپ یوتیوب رو پیشنهاد میکنم ببینید: لینک
تو این ویدیو، روش جدیدی به نام «Multi-Head Latent Attention» (
MHLA
) معرفی میشه که با کاهش مصرف حافظه، سرعت استنتاج رو افزایش میده. همینطور گفته میشه کهDeepSeek R1 موفق شده اندازه «Key-Value Cache» (کش KV) را ۵۷ برابر کاهش بده و تولید متن رو ۶ برابر سریعتر از ترنسفورمرهای سنتی انجام بده
منم سعی میکنم به زودی یه خلاصه ای از عملکرد و این روشو بگم
@silicon_brain | از هوش مصنوعی عقب نمانید
نظرت در مورد لوگو کانال؟
Anonymous Poll
42%
همین خوبه، مهم محتوای کاناله. لوگو چه اهمیتی داره؟
21%
ما به این لوگو عادت داریم عوض کنی گمت میکنیم
15%
خیلیم خوبه :)
22%
خدایی عوض کن این چیه آخه؟ /:
موج بزرگ بعدی ایجاد ثروت جهان در کدام صنایع است؟
هوش مصنوعی، پردازندهها و محاسبات، تکنولوژی هوا فضا، انرژیهای نو، بیوتک، رباتها
@silicon_brain I از هوش مصنوعی عقب نمانید
هوش مصنوعی، پردازندهها و محاسبات، تکنولوژی هوا فضا، انرژیهای نو، بیوتک، رباتها
@silicon_brain I از هوش مصنوعی عقب نمانید
یه کار جذاب و کاربردی در مورد فراموش کردن ترنسفورمرها
الان همه میدونیم که ترانسفورمرها در مدلسازی توالیهای طولانی بسیار موفقن، اما ایرادی که دارن، فاقد مکانیسمی برای فراموشی اطلاعات قدیمی بهصورت وابسته به داده ها هستن.
این مقاله یک مکانیزم جدید برای ترکیب در ترنسفورمرها معرفی کرده که منجر به مدل "Forgetting Transformer" (FoX) میشه.
اگه دقت کرده باشین این مشکل تو چت بات های حال حاضر هم دیده میشه.مثلا وقتی چت میکنی، چت بات میاد بر اساس چت های قبلی باهات به گفتگو میپردازه.
مقاله
@silicon_brain I از هوش مصنوعی عقب نمانید
Forgetting Transformer: Softmax Attention with a Forget Gate
الان همه میدونیم که ترانسفورمرها در مدلسازی توالیهای طولانی بسیار موفقن، اما ایرادی که دارن، فاقد مکانیسمی برای فراموشی اطلاعات قدیمی بهصورت وابسته به داده ها هستن.
این مقاله یک مکانیزم جدید برای ترکیب در ترنسفورمرها معرفی کرده که منجر به مدل "Forgetting Transformer" (FoX) میشه.
اگه دقت کرده باشین این مشکل تو چت بات های حال حاضر هم دیده میشه.مثلا وقتی چت میکنی، چت بات میاد بر اساس چت های قبلی باهات به گفتگو میپردازه.
مقاله
@silicon_brain I از هوش مصنوعی عقب نمانید
این گزارش رو برای این که بدونین توانایی AI الان چقدره، بخونید
تحقیقات جدید Model Evaluation & Threat Research (METR) میگه، AI (اگه بخواییم دقیق بگیم مدل
اگه این روند ادامه پیدا کنه، AI تا ۲۰۲۸ میتونه کارهای یکهفتهای رو تا ۲۰۳۰ بهصورت مستقل انجام بده.
تونسته ۱۷۰ تا task مربوط به software رو از کارهای چند ثانیهای گرفته تا چالشهای مهندسی ۸ ساعته انجام بده!
هر ۷ ماه یک بار، AI میتونه دو برابر طولانیتر کارها رو انجام بده. (سرعت پیشرفت دو برابر شدنش هر 7 ماهه). در نتیجه AI توی کارهای کوتاه عملکرد خوبی داره، ولی وقتی کارها طولانی و پیچیده میشن، دچار ضعف میشه
این موارد میتونه یه راهنمایی برای تصمیمات شما از جمله مسیر شغلی باشه. مثلا من میتونم این نتیجه رو بگیرم که کارهایی که تو چند ثانیه توسط انسان انجام میشه توسط ماشین خیلی بهتر میتونه انجام بگیره. اما کاری که تو یک ماه انجام میشه چی؟ (فعلا نه)
@silicon_brain | از هوش مصنوعی عقب نمانید
تحقیقات جدید Model Evaluation & Threat Research (METR) میگه، AI (اگه بخواییم دقیق بگیم مدل
Claude 3.7 Sonnet
میتونه کارهایی که تا ۵۹ دقیقه زمان نیاز دارن رو با ۵۰٪ موفقیت انجام بده، یعنی عملکردش نسبت به مدلی مثل GPT-4 تقریباً دو برابر شده. اگه این روند ادامه پیدا کنه، AI تا ۲۰۲۸ میتونه کارهای یکهفتهای رو تا ۲۰۳۰ بهصورت مستقل انجام بده.
تونسته ۱۷۰ تا task مربوط به software رو از کارهای چند ثانیهای گرفته تا چالشهای مهندسی ۸ ساعته انجام بده!
هر ۷ ماه یک بار، AI میتونه دو برابر طولانیتر کارها رو انجام بده. (سرعت پیشرفت دو برابر شدنش هر 7 ماهه). در نتیجه AI توی کارهای کوتاه عملکرد خوبی داره، ولی وقتی کارها طولانی و پیچیده میشن، دچار ضعف میشه
این موارد میتونه یه راهنمایی برای تصمیمات شما از جمله مسیر شغلی باشه. مثلا من میتونم این نتیجه رو بگیرم که کارهایی که تو چند ثانیه توسط انسان انجام میشه توسط ماشین خیلی بهتر میتونه انجام بگیره. اما کاری که تو یک ماه انجام میشه چی؟ (فعلا نه)
@silicon_brain | از هوش مصنوعی عقب نمانید
یافته جدید OpenAI در مورد زنجیره تفکر COT
(تو این پست در مورد COT گفتم)
اعلام کرده که طراحی ساختارهای پاداشی که ناخواسته موجب تشویق رفتارهای نادرست در مدل های زبانی نشن، کاری بسیار دشواریه!
این موضوع فقط مختص مدل های زبانی نیست، به عنوان مثال اگه بچه هاتون به خاطر دروغ گفتن تنبیه کنید، درواقع جلو دروغ گفتنشون رو نگرفتین، فقط باعث شدین اونها یاد بگیرن چطوری ماهرانه تر و مخفی تر دروغ بگن!
در مدلهای پیشرفتهی استدلال، معمولا هدف و نیت اونها به روشنی در زنجیره ی تفکرشون نمایان میشه.
اوپن ای آی با استفاده از یه مدل زبانی دیگه، مسیر استدلال رو زیر نظر میگیره تا رفتارهای ناهنجار رو تشخیص بده، اما این قابلیت پایش پذیری مسیر فکری بسیار شکننده ست، چون اگه نظارت سخت گیرانه تری بر زنجیرهی تفکر اعمال شه، این مدلها یاد میگیرن که نیت خود شون رو پنهان کنن و همچنان به رفتار نادرست ادامه بدن!
@silicon_brain | از هوش مصنوعی عقب نمانید
(تو این پست در مورد COT گفتم)
اعلام کرده که طراحی ساختارهای پاداشی که ناخواسته موجب تشویق رفتارهای نادرست در مدل های زبانی نشن، کاری بسیار دشواریه!
این موضوع فقط مختص مدل های زبانی نیست، به عنوان مثال اگه بچه هاتون به خاطر دروغ گفتن تنبیه کنید، درواقع جلو دروغ گفتنشون رو نگرفتین، فقط باعث شدین اونها یاد بگیرن چطوری ماهرانه تر و مخفی تر دروغ بگن!
در مدلهای پیشرفتهی استدلال، معمولا هدف و نیت اونها به روشنی در زنجیره ی تفکرشون نمایان میشه.
اوپن ای آی با استفاده از یه مدل زبانی دیگه، مسیر استدلال رو زیر نظر میگیره تا رفتارهای ناهنجار رو تشخیص بده، اما این قابلیت پایش پذیری مسیر فکری بسیار شکننده ست، چون اگه نظارت سخت گیرانه تری بر زنجیرهی تفکر اعمال شه، این مدلها یاد میگیرن که نیت خود شون رو پنهان کنن و همچنان به رفتار نادرست ادامه بدن!
@silicon_brain | از هوش مصنوعی عقب نمانید
نتایج نظرسنجی AAAI درباره تحقیقات AGI رو براتون اوردم
طبق نظرسنجی:
➖ ۳۰٪ از محققان بر این باورند که تحقیقات AGI باید تا زمانی که کنترل کامل سیستمها ممکن نباشد، متوقف شود.
➖ ۸۴٪ معتقدند شبکههای عصبی بهتنهایی برای AGI کافی نیستند.
➖ بیش از ۶۰٪ بر لزوم ترکیب شبکههای عصبی و AI نمادین برای استدلال انسانی تأکید دارند.
➖۷۵٪ ایمنی AI را مهمتر از دستیابی به AGI میدانند.
@silicon_brain I از هوش مصنوعی عقب نمانید
طبق نظرسنجی:
➖ ۳۰٪ از محققان بر این باورند که تحقیقات AGI باید تا زمانی که کنترل کامل سیستمها ممکن نباشد، متوقف شود.
➖ ۸۴٪ معتقدند شبکههای عصبی بهتنهایی برای AGI کافی نیستند.
➖ بیش از ۶۰٪ بر لزوم ترکیب شبکههای عصبی و AI نمادین برای استدلال انسانی تأکید دارند.
➖۷۵٪ ایمنی AI را مهمتر از دستیابی به AGI میدانند.
@silicon_brain I از هوش مصنوعی عقب نمانید
Mathematics of ML.pdf
650.2 KB
جزوه «ریاضیات یادگیری ماشین»
راجن د. شاه استاد دانشگاه کمبریج که تجربه زیادی در حوزه یادگیری ماشین و مدلسازی آماری داره، توی این جزوه، تلاش کرده تا مسائل پیچیده ریاضی ML رو به زبانی ساده توضیح بده
@silicon_brain I از هوش مصنوعی عقب نمانید
راجن د. شاه استاد دانشگاه کمبریج که تجربه زیادی در حوزه یادگیری ماشین و مدلسازی آماری داره، توی این جزوه، تلاش کرده تا مسائل پیچیده ریاضی ML رو به زبانی ساده توضیح بده
@silicon_brain I از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
عملکرد ریلتایم Gemini2 در مورد سیتی شکم
سؤالات پزشک رو دقیق جواب داد و تشخیص درستی داشت. حتی عوارضی که باید حواسش بهشون باشه رو هم گوشزد کرد.
تصویر پایینی هم باحالش کرده😂
@silicon_brain I از هوش مصنوعی عقب نمانید
سؤالات پزشک رو دقیق جواب داد و تشخیص درستی داشت. حتی عوارضی که باید حواسش بهشون باشه رو هم گوشزد کرد.
تصویر پایینی هم باحالش کرده😂
@silicon_brain I از هوش مصنوعی عقب نمانید
این روزا خیلی در مورد آمارهای هوش مصنوعی صحبت کردیم، در مورد کار خودمونم یه گزارشی داشته باشیم
طبق نظرسنجی انجامشده توسط Wired از ۷۳۰ مهندس نرمافزار، ۷۵ درصد از هوش مصنوعی استفاده میکنن.
از این افراد، ۳۵.۶ درصد به آینده هوش مصنوعی خوشبین و ۳۸.۴ درصد بدبین هستن.
برنامهنویسانی که فریلنسری کار میکنن بیشتر از ابزارهای هوش مصنوعی استفاده میکنن و ۵۰ درصدشون بابت استفاده از این ابزارها هزینه پرداخت میکنن.
@silicon_brain I از هوش مصنوعی عقب نمانید
طبق نظرسنجی انجامشده توسط Wired از ۷۳۰ مهندس نرمافزار، ۷۵ درصد از هوش مصنوعی استفاده میکنن.
از این افراد، ۳۵.۶ درصد به آینده هوش مصنوعی خوشبین و ۳۸.۴ درصد بدبین هستن.
برنامهنویسانی که فریلنسری کار میکنن بیشتر از ابزارهای هوش مصنوعی استفاده میکنن و ۵۰ درصدشون بابت استفاده از این ابزارها هزینه پرداخت میکنن.
@silicon_brain I از هوش مصنوعی عقب نمانید
جدیدا
این مدل فقط 37B پارامتر رو برای هر توکن فعال میکنه، بنابراین نیاز به منابع محاسباتی کمتری داره. عملکرد این مدل در استدلال و کدنویسی بهتر از مدلهای قبلی
این مدل در مقایسه با نسخه قبلی خود، عملکرد بهتری در استدلال، ریاضیات و کدنویسی داره.
MMLU-Pro (81.2, +5.3)
تستهایی برای سنجش دانش عمومی و حل مسائل در زمینههای مختلف
GPQA (68.4, +9.3)
ارزیابی دانش حرفهای در مقطع تحصیلات تکمیلی
AIME (59.4, +19.8)
سنجش استدلال ریاضی با استفاده از مسائل ریاضی سطح مسابقات
LiveCodeBench (49.2, +10.0)
ارزیابی دقت و صحت اجرای برنامهنویسی در دنیای واقعی
مدل DeepSeek-V3-0324 بصورت Open-Source هستش و برای استفاده عمومی در دسترس قرار داره.
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
DeepSeek
یه مدل Open-Source جدید با 685B پارامتر به نام DeepSeek-V3-0324 منتشر کرده که از معماری Mixture-of-Experts (MoE)
استفاده میکنه. این مدل فقط 37B پارامتر رو برای هر توکن فعال میکنه، بنابراین نیاز به منابع محاسباتی کمتری داره. عملکرد این مدل در استدلال و کدنویسی بهتر از مدلهای قبلی
DeepSeek
شده.این مدل در مقایسه با نسخه قبلی خود، عملکرد بهتری در استدلال، ریاضیات و کدنویسی داره.
MMLU-Pro (81.2, +5.3)
تستهایی برای سنجش دانش عمومی و حل مسائل در زمینههای مختلف
GPQA (68.4, +9.3)
ارزیابی دانش حرفهای در مقطع تحصیلات تکمیلی
AIME (59.4, +19.8)
سنجش استدلال ریاضی با استفاده از مسائل ریاضی سطح مسابقات
LiveCodeBench (49.2, +10.0)
ارزیابی دقت و صحت اجرای برنامهنویسی در دنیای واقعی
مدل DeepSeek-V3-0324 بصورت Open-Source هستش و برای استفاده عمومی در دسترس قرار داره.
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
فصل، فصل آمار دهی هستش😁
Generative AI سهم بازار فروشندگان پیشرو در
این تصویر گزارشی از IoT Analytics را درباره سهم بازار شرکتهای پیشرو در سه حوزه کلیدی هوش مصنوعی مولد رو ارائه میده:
واحدهای پردازشی دیتاسنتر (Datacenter GPUs) – NVIDIA با ۹۲٪ سهم بازار پیشتاز بلامنازع، در حالی که AMD (۴٪)، هواوی (۲٪)، اینتل (۱٪)، Cerebras (۱٪) و Groq (۱٪) در رتبههای بعدی قرار دارن.
مدلهای پایه و پلتفرمهای مدیریت مدل (Foundation Models & Model Management Platforms) – مایکروسافت (۳۹٪)، AWS (۱۹٪) و گوگل (۱۵٪) پیشگامان اصلی این بخش هستن.
خدمات هوش مصنوعی مولد (GenAI Services) – بخش Other با ۷۶٪ بزرگترین سهم را دارد، اما شرکتهایی مانند Accenture (۷٪)، Deloitte (۷٪)، IBM (۳٪)، Capgemini (۲٪)، McKinsey (۲٪)، BCG در این بازار نقش دارند.
@silicon_brain I از هوش مصنوعی عقب نمانید
Generative AI سهم بازار فروشندگان پیشرو در
این تصویر گزارشی از IoT Analytics را درباره سهم بازار شرکتهای پیشرو در سه حوزه کلیدی هوش مصنوعی مولد رو ارائه میده:
واحدهای پردازشی دیتاسنتر (Datacenter GPUs) – NVIDIA با ۹۲٪ سهم بازار پیشتاز بلامنازع، در حالی که AMD (۴٪)، هواوی (۲٪)، اینتل (۱٪)، Cerebras (۱٪) و Groq (۱٪) در رتبههای بعدی قرار دارن.
مدلهای پایه و پلتفرمهای مدیریت مدل (Foundation Models & Model Management Platforms) – مایکروسافت (۳۹٪)، AWS (۱۹٪) و گوگل (۱۵٪) پیشگامان اصلی این بخش هستن.
خدمات هوش مصنوعی مولد (GenAI Services) – بخش Other با ۷۶٪ بزرگترین سهم را دارد، اما شرکتهایی مانند Accenture (۷٪)، Deloitte (۷٪)، IBM (۳٪)، Capgemini (۲٪)، McKinsey (۲٪)، BCG در این بازار نقش دارند.
@silicon_brain I از هوش مصنوعی عقب نمانید