Telegram Web Link
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
صد ها مقاله رو در کسری از ثانیه مقایسه کن

‏ سایت Undermind یه دستیار تحقیقاتی مبتنی بر هوش مصنوعی هست که کمک می‌کنه سریع‌تر و دقیق‌تر مقالات علمی رو پیدا کنین.

این ابزار می‌تونه سؤالات پیچیده رو درک کنه و نتایج بهتری نسبت به موتورهای جستجوی سنتی مثل PubMed و Google Scholar ارائه بده. همچنین، Undermind می‌تونه فرآیند کشف سیستماتیک یه محقق انسانی رو شبیه‌سازی کنه و با استفاده از LLMها اطلاعات کلیدی رو شناسایی کنه و استراتژی جستجوی خودش رو بر اساس یافته‌ها تنظیم کنه.

همچنین، Undermind به پایگاه‌های داده معتبری مثل Semantic Scholar، PubMed و arXiv دسترسی داره و پوشش جامعی از مقالات علمی رو ارائه می‌ده.

@silicon_brain | از هوش مصنوعی عقب نمانید
سال ۲۰۲۵ دوران Large Concept Models (LCMs)

متا نسل جدیدی از هوش مصنوعی رو معرفی کرده که قراره تحولی اساسی توی تولید متن و تعامل طبیعی ایجاد کنه. فرق اصلی LCMها با LLMها اینه که Conceptual Processing دارن، یعنی جملات رو به‌عنوان یه مفهوم کامل درک می‌کنن، نه فقط یه سری کلمه کنار هم. از SONAR Embeddings برای استخراج معنای عمیق‌تر استفاده می‌کنن و با Diffusion Techniques خروجی‌هایی دقیق و پایدار تولید می‌کنن.

همچنین، با Quantization Methods خطای مدل‌ها رو کاهش میدن و دقتشون رو بالا می‌برن. مهم‌تر از همه، برخلاف LLMها که فقط متن رو پردازش می‌کنن، LCMها به لطف Multimodal Integration می‌تونن هم متن رو بفهمن، هم صوت و حتی چندرسانه‌ای رو! خلاصه، دیگه وقتشه که به جای کلمه، با مفهوم‌ها کار کنیم!

@silicon_brain I از هوش مصنوعی عقب نمانید
ساخت Multi-Agent Workflows برای Agent های OpenAI همینقدر ساده ست:
فرض کن میخوای دو ایجنت مستقل از هم بسازی که یکی فقط فارسی و اون یکی فقط انگلیسی جواب بده:
from agents import Agent, Runner
import asyncio

persian_agent = Agent(
name="Persian agent",
instructions="You only speak Persian.",
)

english_agent = Agent(
name="English agent",
instructions="You only speak English",
)

triage_agent = Agent(
name="Triage agent",
instructions="Handoff to the appropriate agent based on the language of the request.",
handoffs=[persian_agent, english_agent],
)

async def main():
result = await Runner.run(triage_agent, input="بهترین کانال هوش مصنوعی فارسی")
print(result.final_output)
# 😁قطعا کانال سیلیکون برین بهترین کانال هوش مصنوعی فارسی هستش

if __name__ == "__main__":
asyncio.run(main())

همونطور که تو کد مشخصه دو Agent ساخته شده که هرکدوم متخصص یک زبان هستن و سومی triag یا همون تریاژ هستش که تشخیص میده هر سوال رو به کی بفرسته. اینجوریه که با Agent یا متخصصین مختلف Flow ها دلخواه تعریف کنی که قطعا خیلی کاربردیه

تو این کد باید حتما OPENAI_API_KEY رو تو Environment Variable تعریف کرده باشین.
ورودی خروجی رو عوض کردم هر چند اگه بپرسی ازش هم دقیقا میگه سیلیکون برین بهترین کاناله 😂
@silicon_brain I از هوش مصنوعی عقب نمانید
بچه‌ها می‌دونستین همه‌ی مدل‌های یولو رو تهران آموزش میدن؟ تو این مغازه؟😂
Please open Telegram to view this post
VIEW IN TELEGRAM
چطور DeepSeek R1 سرعت و کارایی رو با هم افزایش داد؟

واسه جواب دادن به این سوال این کلیپ یوتیوب رو پیشنهاد میکنم ببینید: لینک

تو این ویدیو، روش جدیدی به نام «Multi-Head Latent Attention» (MHLA) معرفی میشه که با کاهش مصرف حافظه، سرعت استنتاج رو افزایش میده.
همینطور گفته میشه کهDeepSeek R1 موفق شده اندازه «Key-Value Cache» (کش KV) را ۵۷ برابر کاهش بده و تولید متن رو ۶ برابر سریع‌تر از ترنسفورمرهای سنتی انجام بده

منم سعی میکنم به زودی یه خلاصه ای از عملکرد و این روشو بگم

@silicon_brain | از هوش مصنوعی عقب نمانید
لوگو گوگل به مناسبت نوروز تغییر کرد
💐
گوگل به مناسبت نوروز Doodle جدیدی طراحی کرده که وظیفه طراحی آن برعهده «پندار یوسفی»، مدیر ایرانی تیم UX‌ گوگل ترنسلیت، هست. این دودل علاوه بر نمایش نمادهای سفره هفت‌سین، برخی فعالیت‌های مربوط به نوروز مانند تمیز کردن را هم به تصویر کشیده
موج بزرگ بعدی ایجاد ثروت جهان در کدام صنایع است؟
هوش مصنوعی، پردازنده‌ها و محاسبات، تکنولوژی هوا فضا، انرژی‌های نو، بیوتک، ربات‌ها

@silicon_brain I از هوش مصنوعی عقب نمانید
یه کار جذاب و کاربردی در مورد فراموش کردن ترنسفورمر‌ها

Forgetting Transformer: Softmax Attention with a Forget Gate

الان همه میدونیم که ترانسفورمرها در مدل‌سازی توالی‌های طولانی بسیار موفقن، اما ایرادی که دارن، فاقد مکانیسمی برای فراموشی اطلاعات قدیمی به‌صورت وابسته به داده ها هستن.

این مقاله یک مکانیزم جدید برای ترکیب در ترنسفورمرها معرفی کرده که منجر به مدل "Forgetting Transformer" (FoX) میشه.

اگه دقت کرده باشین این مشکل تو چت بات های حال حاضر هم دیده میشه.مثلا وقتی چت میکنی، چت بات میاد بر اساس چت های قبلی باهات به گفتگو میپردازه.
مقاله

@silicon_brain I از هوش مصنوعی عقب نمانید
این گزارش رو برای این که بدونین توانایی AI الان چقدره، بخونید

تحقیقات جدید Model Evaluation & Threat Research (METR) میگه، AI (اگه بخواییم دقیق بگیم مدل Claude 3.7 Sonnet می‌تونه کارهایی که تا ۵۹ دقیقه زمان نیاز دارن رو با ۵۰٪ موفقیت انجام بده، یعنی عملکردش نسبت به مدلی مثل GPT-4 تقریباً دو برابر شده.

اگه این روند ادامه پیدا کنه، AI تا ۲۰۲۸ می‌تونه کارهای یک‌هفته‌ای رو تا ۲۰۳۰ به‌صورت مستقل انجام بده.

تونسته ۱۷۰ تا task مربوط به software رو از کارهای چند ثانیه‌ای گرفته تا چالش‌های مهندسی ۸ ساعته انجام بده!

هر ۷ ماه یک بار، AI می‌تونه دو برابر طولانی‌تر کارها رو انجام بده. (سرعت پیشرفت دو برابر شدنش هر 7 ماهه). در نتیجه AI توی کارهای کوتاه عملکرد خوبی داره، ولی وقتی کارها طولانی و پیچیده می‌شن، دچار ضعف می‌شه

این موارد میتونه یه راهنمایی برای تصمیمات شما از جمله مسیر شغلی باشه. مثلا من میتونم این نتیجه رو بگیرم که کارهایی که تو چند ثانیه توسط انسان انجام میشه توسط ماشین خیلی بهتر میتونه انجام بگیره. اما کاری که تو یک ماه انجام میشه چی؟ (فعلا نه)
@silicon_brain | از هوش مصنوعی عقب نمانید
یافته جدید OpenAI در مورد زنجیره تفکر COT
(تو این پست در مورد COT گفتم)

اعلام کرده که طراحی ساختارهای پاداشی که ناخواسته موجب تشویق رفتارهای نادرست در مدل های زبانی نشن، کاری بسیار دشواریه!

این موضوع فقط مختص مدل های زبانی نیست، به عنوان مثال اگه بچه‌ هاتون به‌ خاطر دروغ گفتن تنبیه کنید، درواقع جلو دروغ گفتنشون رو نگرفتین، فقط باعث شدین اونها یاد بگیرن چطوری ماهرانه تر و مخفی‌ تر دروغ بگن!

در مدل‌های پیشرفته‌ی استدلال، معمولا هدف و نیت اونها به‌ روشنی در زنجیره‌ ی تفکرشون نمایان میشه.

اوپن ای آی با استفاده از یه مدل زبانی دیگه، مسیر استدلال رو زیر نظر میگیره تا رفتارهای ناهنجار رو تشخیص بده، اما این قابلیت پایش‌ پذیری مسیر فکری بسیار شکننده ست، چون اگه نظارت سخت‌ گیرانه‌ تری بر زنجیره‌ی تفکر اعمال شه، این مدل‌ها یاد میگیرن که نیت خود شون رو پنهان کنن و همچنان به رفتار نادرست ادامه بدن!
@silicon_brain | از هوش مصنوعی عقب نمانید
نتایج نظرسنجی AAAI درباره تحقیقات AGI رو براتون اوردم

طبق نظرسنجی:
۳۰٪ از محققان بر این باورند که تحقیقات AGI باید تا زمانی که کنترل کامل سیستم‌ها ممکن نباشد، متوقف شود.

۸۴٪ معتقدند شبکه‌های عصبی به‌تنهایی برای AGI کافی نیستند.

بیش از ۶۰٪ بر لزوم ترکیب شبکه‌های عصبی و AI نمادین برای استدلال انسانی تأکید دارند.

۷۵٪ ایمنی AI را مهم‌تر از دستیابی به AGI می‌دانند.

@silicon_brain I از هوش مصنوعی عقب نمانید
Mathematics of ML.pdf
650.2 KB
جزوه «ریاضیات یادگیری ماشین»

راجن د. شاه استاد دانشگاه کمبریج که تجربه زیادی در حوزه یادگیری ماشین و مدل‌سازی آماری داره، توی این جزوه، تلاش کرده تا مسائل پیچیده ریاضی ML رو به زبانی ساده توضیح بده

@silicon_brain I از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
عملکرد ریل‌تایم Gemini2 در مورد سی‌تی شکم

سؤالات پزشک رو دقیق جواب داد و تشخیص درستی داشت. حتی عوارضی که باید حواسش بهشون باشه رو هم گوشزد کرد.
تصویر پایینی هم باحالش کرده😂

@silicon_brain I از هوش مصنوعی عقب نمانید
این روزا خیلی در مورد آمارهای هوش مصنوعی صحبت کردیم، در مورد کار خودمونم یه گزارشی داشته باشیم

طبق نظرسنجی انجام‌شده توسط Wired از ۷۳۰ مهندس نرم‌افزار، ۷۵ درصد از هوش مصنوعی استفاده میکنن.

از این افراد، ۳۵.۶ درصد به آینده هوش مصنوعی خوش‌بین و ۳۸.۴ درصد بدبین هستن.

برنامه‌نویسانی که فری‌لنسری کار میکنن بیشتر از ابزارهای هوش مصنوعی استفاده می‌کنن و ۵۰ درصدشون بابت استفاده از این ابزارها هزینه پرداخت می‌کنن.

@silicon_brain I از هوش مصنوعی عقب نمانید
جدیدا DeepSeek یه مدل Open-Source جدید با 685B پارامتر به نام DeepSeek-V3-0324 منتشر کرده که از معماری Mixture-of-Experts (MoE) استفاده می‌کنه.

این مدل فقط 37B پارامتر رو برای هر توکن فعال می‌کنه، بنابراین نیاز به منابع محاسباتی کمتری داره. عملکرد این مدل در استدلال و کدنویسی بهتر از مدل‌های قبلی DeepSeek شده.

این مدل در مقایسه با نسخه قبلی خود، عملکرد بهتری در استدلال، ریاضیات و کدنویسی داره.

MMLU-Pro (81.2, +5.3)
تست‌هایی برای سنجش دانش عمومی و حل مسائل در زمینه‌های مختلف

GPQA (68.4, +9.3)
ارزیابی دانش حرفه‌ای در مقطع تحصیلات تکمیلی

AIME (59.4, +19.8)
سنجش استدلال ریاضی با استفاده از مسائل ریاضی سطح مسابقات

LiveCodeBench (49.2, +10.0)
ارزیابی دقت و صحت اجرای برنامه‌نویسی در دنیای واقعی


مدل DeepSeek-V3-0324 بصورت Open-Source هستش و برای استفاده عمومی در دسترس قرار داره.
هاگینگ فیس

@silicon_brain | از هوش مصنوعی عقب نمانید
فصل، فصل آمار دهی هستش😁

Generative AI سهم بازار فروشندگان پیشرو در

این تصویر گزارشی از IoT Analytics را درباره سهم بازار شرکت‌های پیشرو در سه حوزه کلیدی هوش مصنوعی مولد رو ارائه می‌ده:

واحدهای پردازشی دیتاسنتر (Datacenter GPUs) – NVIDIA با ۹۲٪ سهم بازار پیشتاز بلامنازع، در حالی که AMD (۴٪)، هواوی (۲٪)، اینتل (۱٪)، Cerebras (۱٪) و Groq (۱٪) در رتبه‌های بعدی قرار دارن.

مدل‌های پایه و پلتفرم‌های مدیریت مدل (Foundation Models & Model Management Platforms) – مایکروسافت (۳۹٪)، AWS (۱۹٪) و گوگل (۱۵٪) پیشگامان اصلی این بخش هستن.

خدمات هوش مصنوعی مولد (GenAI Services) – بخش Other با ۷۶٪ بزرگ‌ترین سهم را دارد، اما شرکت‌هایی مانند Accenture (۷٪)، Deloitte (۷٪)، IBM (۳٪)، Capgemini (۲٪)، McKinsey (۲٪)، BCG در این بازار نقش دارند.

@silicon_brain I از هوش مصنوعی عقب نمانید
2025/06/30 17:21:16
Back to Top
HTML Embed Code: