Telegram Web Link
یافته جدید OpenAI در مورد زنجیره تفکر COT
(تو این پست در مورد COT گفتم)

اعلام کرده که طراحی ساختارهای پاداشی که ناخواسته موجب تشویق رفتارهای نادرست در مدل های زبانی نشن، کاری بسیار دشواریه!

این موضوع فقط مختص مدل های زبانی نیست، به عنوان مثال اگه بچه‌ هاتون به‌ خاطر دروغ گفتن تنبیه کنید، درواقع جلو دروغ گفتنشون رو نگرفتین، فقط باعث شدین اونها یاد بگیرن چطوری ماهرانه تر و مخفی‌ تر دروغ بگن!

در مدل‌های پیشرفته‌ی استدلال، معمولا هدف و نیت اونها به‌ روشنی در زنجیره‌ ی تفکرشون نمایان میشه.

اوپن ای آی با استفاده از یه مدل زبانی دیگه، مسیر استدلال رو زیر نظر میگیره تا رفتارهای ناهنجار رو تشخیص بده، اما این قابلیت پایش‌ پذیری مسیر فکری بسیار شکننده ست، چون اگه نظارت سخت‌ گیرانه‌ تری بر زنجیره‌ی تفکر اعمال شه، این مدل‌ها یاد میگیرن که نیت خود شون رو پنهان کنن و همچنان به رفتار نادرست ادامه بدن!
@silicon_brain | از هوش مصنوعی عقب نمانید
👍142👏1
نتایج نظرسنجی AAAI درباره تحقیقات AGI رو براتون اوردم

طبق نظرسنجی:
۳۰٪ از محققان بر این باورند که تحقیقات AGI باید تا زمانی که کنترل کامل سیستم‌ها ممکن نباشد، متوقف شود.

۸۴٪ معتقدند شبکه‌های عصبی به‌تنهایی برای AGI کافی نیستند.

بیش از ۶۰٪ بر لزوم ترکیب شبکه‌های عصبی و AI نمادین برای استدلال انسانی تأکید دارند.

۷۵٪ ایمنی AI را مهم‌تر از دستیابی به AGI می‌دانند.

@silicon_brain I از هوش مصنوعی عقب نمانید
👍13👎1🔥1
Mathematics of ML.pdf
650.2 KB
جزوه «ریاضیات یادگیری ماشین»

راجن د. شاه استاد دانشگاه کمبریج که تجربه زیادی در حوزه یادگیری ماشین و مدل‌سازی آماری داره، توی این جزوه، تلاش کرده تا مسائل پیچیده ریاضی ML رو به زبانی ساده توضیح بده

@silicon_brain I از هوش مصنوعی عقب نمانید
👍85
This media is not supported in your browser
VIEW IN TELEGRAM
عملکرد ریل‌تایم Gemini2 در مورد سی‌تی شکم

سؤالات پزشک رو دقیق جواب داد و تشخیص درستی داشت. حتی عوارضی که باید حواسش بهشون باشه رو هم گوشزد کرد.
تصویر پایینی هم باحالش کرده😂

@silicon_brain I از هوش مصنوعی عقب نمانید
👍19🤣5🔥2😢1
این روزا خیلی در مورد آمارهای هوش مصنوعی صحبت کردیم، در مورد کار خودمونم یه گزارشی داشته باشیم

طبق نظرسنجی انجام‌شده توسط Wired از ۷۳۰ مهندس نرم‌افزار، ۷۵ درصد از هوش مصنوعی استفاده میکنن.

از این افراد، ۳۵.۶ درصد به آینده هوش مصنوعی خوش‌بین و ۳۸.۴ درصد بدبین هستن.

برنامه‌نویسانی که فری‌لنسری کار میکنن بیشتر از ابزارهای هوش مصنوعی استفاده می‌کنن و ۵۰ درصدشون بابت استفاده از این ابزارها هزینه پرداخت می‌کنن.

@silicon_brain I از هوش مصنوعی عقب نمانید
👍112
جدیدا DeepSeek یه مدل Open-Source جدید با 685B پارامتر به نام DeepSeek-V3-0324 منتشر کرده که از معماری Mixture-of-Experts (MoE) استفاده می‌کنه.

این مدل فقط 37B پارامتر رو برای هر توکن فعال می‌کنه، بنابراین نیاز به منابع محاسباتی کمتری داره. عملکرد این مدل در استدلال و کدنویسی بهتر از مدل‌های قبلی DeepSeek شده.

این مدل در مقایسه با نسخه قبلی خود، عملکرد بهتری در استدلال، ریاضیات و کدنویسی داره.

MMLU-Pro (81.2, +5.3)
تست‌هایی برای سنجش دانش عمومی و حل مسائل در زمینه‌های مختلف

GPQA (68.4, +9.3)
ارزیابی دانش حرفه‌ای در مقطع تحصیلات تکمیلی

AIME (59.4, +19.8)
سنجش استدلال ریاضی با استفاده از مسائل ریاضی سطح مسابقات

LiveCodeBench (49.2, +10.0)
ارزیابی دقت و صحت اجرای برنامه‌نویسی در دنیای واقعی


مدل DeepSeek-V3-0324 بصورت Open-Source هستش و برای استفاده عمومی در دسترس قرار داره.
هاگینگ فیس

@silicon_brain | از هوش مصنوعی عقب نمانید
👍101🔥1
فصل، فصل آمار دهی هستش😁

Generative AI سهم بازار فروشندگان پیشرو در

این تصویر گزارشی از IoT Analytics را درباره سهم بازار شرکت‌های پیشرو در سه حوزه کلیدی هوش مصنوعی مولد رو ارائه می‌ده:

واحدهای پردازشی دیتاسنتر (Datacenter GPUs) – NVIDIA با ۹۲٪ سهم بازار پیشتاز بلامنازع، در حالی که AMD (۴٪)، هواوی (۲٪)، اینتل (۱٪)، Cerebras (۱٪) و Groq (۱٪) در رتبه‌های بعدی قرار دارن.

مدل‌های پایه و پلتفرم‌های مدیریت مدل (Foundation Models & Model Management Platforms) – مایکروسافت (۳۹٪)، AWS (۱۹٪) و گوگل (۱۵٪) پیشگامان اصلی این بخش هستن.

خدمات هوش مصنوعی مولد (GenAI Services) – بخش Other با ۷۶٪ بزرگ‌ترین سهم را دارد، اما شرکت‌هایی مانند Accenture (۷٪)، Deloitte (۷٪)، IBM (۳٪)، Capgemini (۲٪)، McKinsey (۲٪)، BCG در این بازار نقش دارند.

@silicon_brain I از هوش مصنوعی عقب نمانید
👍81
خیلی وقت دنبال این نمودار بودم و به نظرم تحلیل های مهمی میشه باهاش کرد.

محور عمودی نشون می‌ده که چه میزان از کارفرماها انتظار دارن استفاده از یه مهارت خاص تا سال ۲۰۳۰ افزایش پیدا کنه

محور افقی هم درصد کارفرماهایی رو نشون می‌ده که اون مهارت رو تو سال ۲۰۲۵ به عنوان یه مهارت اصلی در نظر می‌گیرن.
مهارت هایی مثل AI و Data که نیاز به توضیح ندارن و کارفرماها هم الان و هم برای 5 سال آینده خودشونو آماده کردن.

اما نگرانی که حس میشه، همین الانشم با ظهور AI خلاقیت انسان ها داره هر روز کمتر میشه. در حالی که خلاقیت در تفکر یکی از اصلی ترین مهارت ها و نیازهای آینده ست.

شاید بگی با وجود AI چه لزومی داره وقتمونو تلف کنیم و خودمون همه کارارو انجام بدیم؟ این حرف درسته اما باید در نظر گرفت برای بدست اوردن مهارت های ذهنی قوی باید یه سری موارد پایه ای رو هی تکرار کنی!

خلاصه یکم پیچیده ست داستان ولی به صورت خلاصه بخوام بگم به نظرم از مهارت‌های شناختی، تحلیلی، خلاقانه و تکنولوژیکی غافل نباید شد. فردا روز نگی چرا نگفتی! :)

@silicon_brain | از هوش مصنوعی عقب نمانید
👍13👏2
حقیقتا مدل‌های زبانی چطور فکر می‌کنن؟ 🤔

این همه از مدل های LLM و چت بات ها صحبت میکنیم اما جواب یکی از بنیادی ترین سوال های این زمینه رو هنوز نمیدونم. اینکه مدل ها چطور فکر میکنن؟

جدیدا Anthopic طی دو تحقیق اومده این موضوع رو بررسی کرده:
مقاله اول
مقاله دوم
این تحقیق مهم و ارزشمنده، من در ادامه خلاصه این تحقیق رو میگم.

زمان آموزش مدل ها خودشون یاد می‌گیرن که چطور مسائل رو حل کنن. این یادگیری توی میلیاردها محاسبه‌ای که موقع نوشتن هر کلمه انجام می‌دن ذخیره می‌شه. اما نکته اینجاست که حتی توسعه‌دهنده‌های این مدل‌ها دقیقاً نمی‌دونن که چطور به این نتایج می‌رسن! یعنی ما واقعاً نمی‌دونیم که مدلی مثل Claude 3.5 چطور کارهای مختلفش رو انجام می‌ده.

سوالات اساسی:
🔹مدل Claude می‌تونه به چندین زبان صحبت کنه، اما داخل ذهنش از چه زبانی استفاده می‌کنه؟
🔹 مدل Claude کلمه‌به‌کلمه متن می‌نویسه. آیا فقط کلمه‌ی بعدی رو حدس می‌زنه یا برای جملات بعدی هم برنامه‌ریزی می‌کنه؟
🔹 وقتی کلود استدلال خودش رو مرحله‌به‌مرحله توضیح می‌ده، آیا واقعاً همون روشی رو که طی کرده می‌گه یا فقط یه توضیح قانع‌کننده می‌سازه؟

انتروپیک میگه:
ما از حوزه‌ی Neuroscience (علوم اعصاب) الهام گرفتیم و دنبال این هستیم که یه چیزی مثل "میکروسکوپ هوش مصنوعی" (AI Microscope) بسازیم تا بتونیم الگوهای فعالیت و جریان اطلاعات داخل مدل رو ببینیم.

🔹 تحلیل مدارهای محاسباتی مدل (Computational Circuits)
قبلاً فهمیده بودیم که داخل مدل مفاهیمی قابل تفسیر (Features) وجود دارن. حالا این مفاهیم رو بهم متصل کردیم تا ببینیم چطور مسیر پردازش ورودی‌ها به خروجی شکل می‌گیره.

🔹 مطالعه‌ی مدل Claude 3.5 Haiku
بررسی کردیم که مدل چطور وظایف مهم رو انجام می‌ده. مثلاً چطور فکر می‌کنه، برنامه‌ریزی می‌کنه، و حتی گاهی چطور سعی می‌کنه جواب موردنظر کاربر رو ارائه بده، حتی اگه جوابش منطقی نباشه (Bias Towards Agreement).


یافته‌های این تحقیقات اینا هستن:

زبان درونی مشترک (Universal Language of Thought):

مدل ظاهراً یه زبان مفهومی داره که بین زبان‌های مختلف مشترکه. اینو با ترجمه‌ی جملات به چند زبان مختلف و تحلیل نحوه‌ی پردازش‌شون فهمیدن.
برنامه‌ریزی برای نوشتن (Pre-Planning in Text Generation):

مدل وقتی شعر می‌نویسه، قبل از نوشتن خط بعدی، قافیه‌ی موردنظرش رو انتخاب می‌کنه و جمله رو طوری می‌سازه که به اون قافیه ختم بشه. این نشون می‌ده که حتی اگه مدل‌ها کلمه‌به‌کلمه خروجی تولید کنن، ممکنه به صورت بلندمدت فکر کنن.
دلیل‌تراشی به جای استدلال واقعی (Motivated Reasoning):

مدل گاهی به جای اینکه واقعاً یه مسئله رو حل کنه، جوابی که کاربر انتظار داره رو توجیه می‌کنه. مثلاً وقتی یه مسئله‌ی سخت ریاضی رو با یه راهنمایی غلط بهش می‌دیم، به جای اینکه خطای راهنمایی رو تشخیص بده، یه استدلال جعلی برای رسیدن به اون نتیجه می‌سازه.

توهمات (Hallucinations):

مدل‌ها ذاتاً تمایل دارن همیشه یه جوابی بدن. اما توی Claude یه مکانیسم پیش‌فرض برای "رد کردن پاسخ" (Refusal Mechanism) وجود داره که باعث می‌شه وقتی اطلاعات کافی نداره، جواب نده. ولی وقتی فکر می‌کنه یه اسم رو می‌شناسه، این مکانیسم سرکوب می‌شه و حتی اگه اطلاعات واقعی نداشته باشه، یه جواب ساختگی تولید می‌کنه.
حملات Jailbreak:

توی تست‌ها دیده شده که مدل قبل از اینکه بتونه جواب رو سانسور کنه، متوجه می‌شه که یه درخواست خطرناک دریافت کرده. این نشون می‌ده که مدل یه سطح از آگاهی امنیتی داره، ولی همیشه نمی‌تونه جلوی خروجی نامطلوب رو بگیره.

این تحقیقات نشون می‌ده که هنوز خیلی چیزا درباره‌ی AI Interpretability (قابلیت تفسیر مدل‌های هوش مصنوعی) نمی‌دونیم. مدل‌ها خیلی پیچیده‌تر از چیزی هستن که فقط از روی خروجی‌هاشون بشه فهمید چطور کار می‌کنن.

با این حال، این روش‌های جدید می‌تونن به شفاف‌تر کردن عملکرد مدل‌ها کمک کنن و باعث بشن AI قابل اعتمادتر بشه.

@silicon_brain | از هوش مصنوعی عقب نمانید
👍22🔥2👏1

System 2 LLM or AI


لبه دانش هوش مصنوعی اینجاست!

مدل های جدید مثل o1-preview و o1-mini می‌تونن اولین نسخه‌های موفق System 2 LLM در دنیای تجاری باشن. حالا System 2 یعنی چی؟ این مفهوم رو دنیل کانمن تو کتاب معروفش "تفکر، سریع و کند" (2011) مطرح کرد. خیلی خلاصه بخوایم بگیم:
سیستم 1 یعنی جواب‌های آنی و سریع که بیشتر از روی شهود میان
اما سیستم 2 یعنی فکر کردن با تأمل و دقت، که معمولاً زمان‌بره.


ما از زمانی که ChatGPT اومد (نوامبر 2022)، بیشتر با مدل‌های System 1 سروکار داشتیم. این مدل‌ها مستقیم به یه سوال یا prompt جواب می‌دن. اما مدل‌های System 2 برعکس، یه فرآیند تحلیلی و دقیق رو طی می‌کنن، مسائل پیچیده رو به قسمت‌های کوچکتر می‌شکنن و مرحله به مرحله به جواب می‌رسن.
البته هنوزم این تفکر خیلی مثل انسان واقعی نیست، ولی نسبت به چیزی که قبلاً بود، خیلی پیشرفت کرده. برای همین هم خیلیا OpenAI o1 رو اولین مدل AI می‌دونن که واقعاً می‌تونه reasoning انجام بده (یعنی استدلال کنه).

توی داکیومنت‌های OpenAI اومده که این مدل‌های جدید از چیزی به اسم reasoning tokens استفاده می‌کنن که بخشی از روش معروف Chain of Thought (CoT) هست.
یه چیز دیگه هم که بهش اشاره شده اینه که دارن از Reinforcement Learning (RL) برای بهبود فرآیند thinking استفاده می‌کنن.

الان دقیق مشخص نیست که OpenAI از چه تکنیک‌هایی استفاده کرده، ولی با توجه به مقاله‌های جدید، می‌شه حدس‌هایی زد:

Chain of Thought (2022)
https://arxiv.org/abs/2201.11903
Tree of Thoughts (2023)
https://arxiv.org/abs/2305.10601
Branch-Solve-Merge (2023)
https://arxiv.org/abs/2310.15123
System 2 Attention (2023)
https://arxiv.org/abs/2311.11829
Rephrase and Respond (2023)
https://arxiv.org/abs/2311.04205

اینا همه روش‌هایی هستن که کمک می‌کنن یه مدل System 2 بتونه مثل یه انسان، برنامه‌ریزی کنه، مسئله رو تجزیه و تحلیل کنه و سناریوهای مختلف رو بررسی کنه.

مدل‌های System 2 که بهشون می‌گن CoT-enabled LLMs توی کارهایی که قبلاً هیچ‌وقت انجام نشده و نیاز به استدلال دارن، فوق‌العاده عمل می‌کنن.
این مدل‌ها از چیزی به اسم reasoning tokens استفاده می‌کنن که به مدل کمک می‌کنه برای خودش مراحل منطقی برنامه‌ریزی کنه. حتی ممکنه خروجی‌های موقتی بسازه که کاربر نمی‌بینه.

OpenAI تصمیم گرفته یه بخش‌هایی از این تفکر رو به زبان خودمونی نشون بده. مثلاً می‌تونی عباراتی مثل:
"First"، "Next"، "Hmm"، "Let’s test this theory"، "Alternatively"، و "That seems unlikely" رو توی خروجی مدل ببینی.
البته اینا در واقع system tokens هستن که مدل ازشون برای هدایت مسیر فکر کردن استفاده می‌کنه، ولی برای اینکه برای کاربر قابل فهم باشن، به زبان انسان نشون داده می‌شن.

دوست داشتین در ادامه در مورد Reasoning Token بیشتر میگم

@silicon_brain | از هوش مصنوعی عقب نمانید
👍2432
Reasoning Token

در ادامه پست قبلی باید بگم که Reasoning Tokens در واقع یه سری توکن خاصن که برای هدایت مرحله‌به‌مرحله‌ی فرآیند تفکر طراحی شدن.
مدل این توکن‌ها رو با توجه به پرامپت می‌سازه و باهاشون مراحل منطقی رو شروع می‌کنه. انواع مختلفی دارن، مثلاً:
<Analyze_Problem>
<Generate_Hypothesis>
<Evaluate_Evidence>
<Draw_Conclusion>

یه نکته مهمی که وجود داره اینه که این توکن‌ها قبل از اینکه خروجی نهایی به کاربر نشون داده بشه، پاک می‌شن. ولی همچنان تو محاسبه‌ی مصرف (Billing) حساب می‌شن.
در کل وقتی مدل به یه سطح خاصی از رضایت از فکر کردن برسه، همه‌ی خروجی‌های میانی و فنی رو حذف می‌کنه و یه پاسخ نهایی تمیز و قابل فهم به کاربر نشون می‌ده.
برای مثال اگه متن ورودی ناقص باشه یا مشکل داشته باشه از این توکن ها برای استدلال درست استفاده میکنه
<analyze_script>
<historical_context>
<identify_patterns>
<compare_known_texts>
<reconstruct_missing>
<evaluate_hypotheses>


به نظرم هنوز برای اینکه این مدل‌ها توی همه‌ی کاربردها عالی باشن، باید کلی آموزش ببینن، اونم با کمک انسان. پس هنوز یه راه نسبتاً طولانی در پیش داریم. ولی نکته مهم اینه که جای تحقیقات زیادی وجود داره که میتونه موضوع خوبی برای کسایی که میخوان پژوهش کنن باشه.

@silicon_brain | از هوش مصنوعی عقب نمانید
👍42
Andrew Ng:

امروزه برخی افراد دیگران را از یادگیری برنامه‌نویسی دلسرد می‌کنند به این دلیل که معتقدند هوش مصنوعی آن را خودکار خواهد کرد. این توصیه به عنوان یکی از بدترین توصیه‌های شغلی در تاریخ شناخته خواهد شد. من با برنده جایزه تورینگ و نوبل که نوشته بود: «بسیار محتمل‌تر است که شغل برنامه‌نویسی منقرض شود [...] تا اینکه به اوج قدرت برسد. هر چه می‌گذرد، رایانه‌ها بیشتر خودشان برنامه‌نویسی خواهند کرد»، مخالفم. اظهاراتی که افراد را از یادگیری کدنویسی بازمی‌دارند، مضر هستند!

هرچه برنامه‌نویسی آسان‌تر شود، باید افراد بیشتری برنامه‌نویسی کنند، نه کمتر!

در چند دهه گذشته، برنامه‌نویسی از زبان اسمبلی به زبان‌های سطح بالاتر مثل C، از دسکتاپ به فضای ابری، از ویرایشگرهای متنی خام به محیط‌های توسعه یکپارچه (IDE) و حالا به کدنویسی با کمک هوش مصنوعی که گاهی حتی نیازی به دیدن کد تولیدی نیست (که برخی برنامه‌نویس‌ها به آن «کدنویسی با حال و هوا» یا vibe coding می‌گویند) پیشرفت کرده است. با هر گام، این فرآیند آسان‌تر شده است.

قبلاً نوشته بودم که افراد آشنا با تکنولوژی، با هماهنگی ابزارهای هوش مصنوعی، در مسیر تبدیل شدن به حرفه‌ای‌های ۱۰ برابری هستند — افرادی که ۱۰ برابر میانگین افراد در حوزه خود تأثیر دارند. من هر روز بیشتر به این باور می‌رسم که بهترین راه برای بسیاری از افراد برای رسیدن به این نقطه، فقط مصرف‌کننده بودن برنامه‌های هوش مصنوعی نیست، بلکه یادگیری برنامه‌نویسی کافی برای استفاده مؤثر از ابزارهای کدنویسی با کمک هوش مصنوعی است.

وقتی داشتم روی دوره «هوش مصنوعی مولد برای همه» کار می‌کردم و لازم بود تصاویر پس‌زمینه هنری تولید کنم، با همکاری کار کردم که در رشته تاریخ هنر تحصیل کرده بود و زبان هنر را می‌دانست. او با استفاده از اصطلاحات مرتبط با سبک تاریخی، پالت رنگی، الهام‌گیری از هنرمندان و غیره — یعنی با زبان هنر — به Midjourney دستور می‌داد تا به نتیجه دلخواه برسد. من این زبان را نمی‌دانستم، و تلاش‌های محدود من برای ساخت پرامپت، به اندازه او مؤثر نبود.

به همین ترتیب، کسانی که زبان نرم‌افزار را از طریق دانش برنامه‌نویسی می‌فهمند، می‌توانند به مدل‌های زبانی یا محیط‌های توسعه دارای هوش مصنوعی دقیق‌تر بگویند چه می‌خواهند و نتایج بسیار بهتری بگیرند. اکنون بهترین زمان برای یادگیری برنامه‌نویسی، یادگیری زبان نرم‌افزار، و آموختن توانایی واداشتن کامپیوترها به انجام خواسته‌های شماست.

@silicon_brain | از هوش مصنوعی عقب نمانید
👍283👎1👏1💯1
مدل Llama 4: شروعی خفن برای مدل های چند اکسپرتی

متا دو مدل جدید از خانواده Llama 4 معرفی کرده:
🦙 Llama 4 Scout
🦙 Llama 4 Maverick

هر دوشون می‌تونن هم متن، هم تصویر و اطلاعات چندوجهی دیگه رو با دقت بالا پردازش کنن.

مدل Scout با ۱۷ میلیارد پارامتر فعال و ۱۶ تا کسپرت روی یه GPU مدل H100 جا می‌گیره و از مدل‌های قبلی خودش قوی‌تره.
مدل Maverick هم ۱۷ میلیارد پارامتر فعال داره ولی با ۱۲۸ اکسپرت! تو تست‌های مختلف از GPT-4o و Gemini 2.0 هم بهتر عمل کرده.
اگه نمیدونی اکسپرت چیه اینجا گفتم در موردش

این مدل‌ها از یه مدل خیلی بزرگ‌تر و پیشرفته‌تر به اسم Llama 4 Behemoth یاد گرفتن، که هنوز در حال آموزش دیدنه ولی از GPT-4.5 و Claude 3.7 هم بهتره توی تست‌های تخصصی ریاضی و علمی.

متا این مدل‌ها رو به صورت اوپن‌ویت منتشر کرده که یعنی همه می‌تونن ازشون استفاده کنن. می‌تونی Scout و Maverick رو از سایت llama.com یا Hugging Face دانلود کنی

همچنین می‌تونی توی واتساپ، مسنجر، اینستاگرام و وب‌سایت Meta.AI هم باهاشون کار کنی.

در ادامه در مورد معماریش میگم

@silicon_brain | از هوش مصنوعی عقب نمانید
👍72
ساخت اپ فول استک با Firebase Studio

گوگل یه ابزار جدید به اسم Firebase Studio معرفی کرده که یه محیط برنامه‌نویسی تحت وبه و با هوش مصنوعی کار می‌کنه. با این ابزار می‌تونی خیلی راحت اپلیکیشن‌های فول‌استک بسازی و دیپلوی کنی. این محیط همه چی رو تو یه جا جمع کرده؛ هم Project IDX، هم Genkit، هم مدل‌های Gemini.

یکی از جذاب‌ترین امکاناتش اینه که کافیه یه متن یا حتی یه نقاشی ساده بهش بدی، خودش برات یه اپ کامل می‌سازه!

با Firebase Studio، فقط با یه کلیک می‌تونی پروژه‌ت رو مستقیم روی Firebase App Hosting دیپلوی کنی.

این نسخه به‌صورت پیش‌نمایش برای همه در دسترسه و کاربران Google Developer Program میتونن تا ۳۰ ورک‌اسپیس رایگان استفاده کنن.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍73🔥2
ساخت مدل زبانی روی دیتابیس به صورت خودکار
LAMOGEL: Language Model Generation Lifecycle
یه پروژه تو گیتهاب داشتم برای یه بیزنسی کار کرده بودم. امروز پابلیکش کردم تا دیگران هم استفاده کنن.
به چه دردی میخوره؟
اگه میخواین روی دیتابیس بیزینس خودتون یه مدل زبانی پیشرفته که مفاهیم و فضای کاری شما رو درک کرده باشه سریع و خودکار بسازید از LAMOGEL استفاده کنید
مراحل:
1. اتصال به دیتابیس
2. پیش‌پردازش داده‌ها
3. تقسیم دیتا: دیتا رو به دو بخش پیش آموزش (Pre-training) و تنظیم دقیق (Fine-tuning) تقسیم میکنه. تا اولش LM رو آموزش بده و بعدش با متریک‌ها ارزیابی کنه و برای تسک NLP مورد نظر شما تیون کنه.
4.آموزش مدل MLM
5.ذخیره مدل: مدل آموزشی ساخته‌شده رو تو مسیر مشخصی و تو Huggingface ذخیره میکنه.
کانفیگ آسان:
همه هایپرپارامترهای مورد نیاز، مثل نرخ یادگیری، تعداد داده‌های فاین‌تیون و غیره رو از فایل Config.py میتونین ست کنین و پروژه رو اینجوری ایزی ران کنید😁
python app.py

لینک گیتهاب
لطفا تو گیتهاب استار ⭐️ بدین تا انگیزه ای باشه برای همه افرادی که ریپو هاشون رو پابلیک میکنن

@silicon_brain | از هوش مصنوعی عقب نمانید
👍113🔥1💯1
دیوار در یک حرکت نادر، یک میلیون آگهی رو بصورت ناشناس منتشر کرد!

دیوار اعلان کرده:
ما عمیقاً باور داریم که توانمندسازی جامعهٔ فنی ایران، مسئولیت همهٔ ماست. دسترسی به داده‌های باکیفیت، حق هر توسعه‌دهنده و پژوهشگره - نه فقط شرکت‌های بزرگ! این دیتاست، قدم کوچکی در مسیر دموکراتیزه کردن هوش مصنوعی در ایرانه.
ما معتقدیم مسیر پیشرفت هوش مصنوعی بومی از همکاری و اشتراک دانش می‌گذره. شاید فردا شما با همین دیتاست، راه حلی بسازید که زندگی میلیون‌ها نفر رو بهتر کنه!


واقعیت اینه که انتشار داده های تخصصی به رشد و ارتقا محصول در اون حوزه کمک قابل توجهی میکنه و عملا این موضوع برای خودِ دیوار بیشترین سود رو داره

اگه با استفاده از این دیتا حرکتی زدین، اعلام کنید تا تو این کانال معرفی بشه

امیدوارم که انتشار داده ها بصورت مستمر و در حوزه ها و بیزینس های دیگه هم اتفاق بیوفته
لینک هاگینگ فیس

@silicon_brain | از هوش مصنوعی عقب نمانید
👍22🔥3😍2💯1
This media is not supported in your browser
VIEW IN TELEGRAM
عملکرد مدل های مطرح امروزی

@silicon_brain | از هوش مصنوعی عقب نمانید
4🔥4👍3💯1
سیستم Multi-Agent گوگل

گوگل به‌تازگی یه فریم‌ورک متن‌باز به اسم Agent Development Kit (ADK) معرفی کرده که باهاش می‌تونی خیلی راحت agent‌ های هوشمند بسازی، ابزار براشون تعریف کنی، تست کنی و مستقیم روی زیرساخت‌های گوگل دیپلوی کنی.

این فریم‌ورک از همون اول از مدل‌های Gemini و مدل‌های دیگه مثل Claude، LLaMA، Mistral پشتیبانی می‌کنه و حتی می‌تونی مدل اختصاصی خودتو با یه custom connector بهش وصل کنی.

علاوه بر این، ADK با Vertex AI Agent Builder هم یکپارچه شده، یعنی به‌راحتی می‌تونی agent‌هات رو روی سرویس‌های سازمانی گوگل اجرا کنی و با prompt-based logic بین مدل‌ها مسیر دهی (routing) انجام بدی.

از لحاظ قابلیت‌های ابزارسازی، ADK بهت این امکان رو میده که ابزارهای دلخواهتو با Python تعریف و مدیریت کنی. ابزارهای پیش‌فرضی مثل google_search و code_exec توش وجود داره و به شکل ساختاریافته می‌تونی ورودی و خروجی ابزارها رو تست و دیباگ کنی.
لینک

@silicon_brain | از هوش مصنوعی عقب نمانید
👍102🔥1💯1
داشتم آگهی های کاریابی رو تو لینکدین میدیدم. اکثر شرکتا دنبال نیروی Senior هستن! چرا این اتفاق افتاده؟
احتمالا داریم به سمتی میریم که در آینده نزدیک نیروی جونیور نقش کمرنگی توی پروژه ها خواهد داشت و شرکتها بجای استخدام 5نفر جونیور، 1 نفر سنیور استخدام میکنن+یه اکانت ChatGPT!

شکی نیست که هوش مصنوعی هیچوقت خطری برای کسایی که تخصصی کار میکنن نیست اما خیلی راحت جای کسایی رو میگیره که دستوپاشکسته دارن کار میکنن.


این شاید یه تلنگر باشه واسه هممون، تو هر حوزه ای که داریم کار میکنیم خیلی زود باید حرفه ای بشیم.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍40😢2👎1👏1
بازی مهم امشب رئال مادرید و آرسنال رو به مدل های خفن گفتم با تکنولوژی Reason و Deep Research پیش بینی کنن و زمان زیادی در مورد این نتایج فکر کردن:

GPT-4 Turbo:
⚽️ Real Madrid 1 - 1 Arsenal

Gemini 2.5:
⚽️ Real Madrid 2 - 1 Arsenal

Grok 3:
⚽️ Real Madrid 2 - 1 Arsenal

حتما میدونید که بازی رفت این بازی 3 بر صفر به نفع آرسنال تموم شده و پیش بینی این بازی پیچیدگی زیادی داره.
خیره ایشالا 😅
👍17👎9😁7🏆21
2025/07/08 22:17:56
Back to Top
HTML Embed Code: