یافته جدید OpenAI در مورد زنجیره تفکر COT
(تو این پست در مورد COT گفتم)
اعلام کرده که طراحی ساختارهای پاداشی که ناخواسته موجب تشویق رفتارهای نادرست در مدل های زبانی نشن، کاری بسیار دشواریه!
این موضوع فقط مختص مدل های زبانی نیست، به عنوان مثال اگه بچه هاتون به خاطر دروغ گفتن تنبیه کنید، درواقع جلو دروغ گفتنشون رو نگرفتین، فقط باعث شدین اونها یاد بگیرن چطوری ماهرانه تر و مخفی تر دروغ بگن!
در مدلهای پیشرفتهی استدلال، معمولا هدف و نیت اونها به روشنی در زنجیره ی تفکرشون نمایان میشه.
اوپن ای آی با استفاده از یه مدل زبانی دیگه، مسیر استدلال رو زیر نظر میگیره تا رفتارهای ناهنجار رو تشخیص بده، اما این قابلیت پایش پذیری مسیر فکری بسیار شکننده ست، چون اگه نظارت سخت گیرانه تری بر زنجیرهی تفکر اعمال شه، این مدلها یاد میگیرن که نیت خود شون رو پنهان کنن و همچنان به رفتار نادرست ادامه بدن!
@silicon_brain | از هوش مصنوعی عقب نمانید
(تو این پست در مورد COT گفتم)
اعلام کرده که طراحی ساختارهای پاداشی که ناخواسته موجب تشویق رفتارهای نادرست در مدل های زبانی نشن، کاری بسیار دشواریه!
این موضوع فقط مختص مدل های زبانی نیست، به عنوان مثال اگه بچه هاتون به خاطر دروغ گفتن تنبیه کنید، درواقع جلو دروغ گفتنشون رو نگرفتین، فقط باعث شدین اونها یاد بگیرن چطوری ماهرانه تر و مخفی تر دروغ بگن!
در مدلهای پیشرفتهی استدلال، معمولا هدف و نیت اونها به روشنی در زنجیره ی تفکرشون نمایان میشه.
اوپن ای آی با استفاده از یه مدل زبانی دیگه، مسیر استدلال رو زیر نظر میگیره تا رفتارهای ناهنجار رو تشخیص بده، اما این قابلیت پایش پذیری مسیر فکری بسیار شکننده ست، چون اگه نظارت سخت گیرانه تری بر زنجیرهی تفکر اعمال شه، این مدلها یاد میگیرن که نیت خود شون رو پنهان کنن و همچنان به رفتار نادرست ادامه بدن!
@silicon_brain | از هوش مصنوعی عقب نمانید
👍14❤2👏1
نتایج نظرسنجی AAAI درباره تحقیقات AGI رو براتون اوردم
طبق نظرسنجی:
➖ ۳۰٪ از محققان بر این باورند که تحقیقات AGI باید تا زمانی که کنترل کامل سیستمها ممکن نباشد، متوقف شود.
➖ ۸۴٪ معتقدند شبکههای عصبی بهتنهایی برای AGI کافی نیستند.
➖ بیش از ۶۰٪ بر لزوم ترکیب شبکههای عصبی و AI نمادین برای استدلال انسانی تأکید دارند.
➖۷۵٪ ایمنی AI را مهمتر از دستیابی به AGI میدانند.
@silicon_brain I از هوش مصنوعی عقب نمانید
طبق نظرسنجی:
➖ ۳۰٪ از محققان بر این باورند که تحقیقات AGI باید تا زمانی که کنترل کامل سیستمها ممکن نباشد، متوقف شود.
➖ ۸۴٪ معتقدند شبکههای عصبی بهتنهایی برای AGI کافی نیستند.
➖ بیش از ۶۰٪ بر لزوم ترکیب شبکههای عصبی و AI نمادین برای استدلال انسانی تأکید دارند.
➖۷۵٪ ایمنی AI را مهمتر از دستیابی به AGI میدانند.
@silicon_brain I از هوش مصنوعی عقب نمانید
👍13👎1🔥1
Mathematics of ML.pdf
650.2 KB
جزوه «ریاضیات یادگیری ماشین»
راجن د. شاه استاد دانشگاه کمبریج که تجربه زیادی در حوزه یادگیری ماشین و مدلسازی آماری داره، توی این جزوه، تلاش کرده تا مسائل پیچیده ریاضی ML رو به زبانی ساده توضیح بده
@silicon_brain I از هوش مصنوعی عقب نمانید
راجن د. شاه استاد دانشگاه کمبریج که تجربه زیادی در حوزه یادگیری ماشین و مدلسازی آماری داره، توی این جزوه، تلاش کرده تا مسائل پیچیده ریاضی ML رو به زبانی ساده توضیح بده
@silicon_brain I از هوش مصنوعی عقب نمانید
👍8❤5
This media is not supported in your browser
VIEW IN TELEGRAM
عملکرد ریلتایم Gemini2 در مورد سیتی شکم
سؤالات پزشک رو دقیق جواب داد و تشخیص درستی داشت. حتی عوارضی که باید حواسش بهشون باشه رو هم گوشزد کرد.
تصویر پایینی هم باحالش کرده😂
@silicon_brain I از هوش مصنوعی عقب نمانید
سؤالات پزشک رو دقیق جواب داد و تشخیص درستی داشت. حتی عوارضی که باید حواسش بهشون باشه رو هم گوشزد کرد.
تصویر پایینی هم باحالش کرده😂
@silicon_brain I از هوش مصنوعی عقب نمانید
👍19🤣5🔥2😢1
این روزا خیلی در مورد آمارهای هوش مصنوعی صحبت کردیم، در مورد کار خودمونم یه گزارشی داشته باشیم
طبق نظرسنجی انجامشده توسط Wired از ۷۳۰ مهندس نرمافزار، ۷۵ درصد از هوش مصنوعی استفاده میکنن.
از این افراد، ۳۵.۶ درصد به آینده هوش مصنوعی خوشبین و ۳۸.۴ درصد بدبین هستن.
برنامهنویسانی که فریلنسری کار میکنن بیشتر از ابزارهای هوش مصنوعی استفاده میکنن و ۵۰ درصدشون بابت استفاده از این ابزارها هزینه پرداخت میکنن.
@silicon_brain I از هوش مصنوعی عقب نمانید
طبق نظرسنجی انجامشده توسط Wired از ۷۳۰ مهندس نرمافزار، ۷۵ درصد از هوش مصنوعی استفاده میکنن.
از این افراد، ۳۵.۶ درصد به آینده هوش مصنوعی خوشبین و ۳۸.۴ درصد بدبین هستن.
برنامهنویسانی که فریلنسری کار میکنن بیشتر از ابزارهای هوش مصنوعی استفاده میکنن و ۵۰ درصدشون بابت استفاده از این ابزارها هزینه پرداخت میکنن.
@silicon_brain I از هوش مصنوعی عقب نمانید
👍11❤2
جدیدا
این مدل فقط 37B پارامتر رو برای هر توکن فعال میکنه، بنابراین نیاز به منابع محاسباتی کمتری داره. عملکرد این مدل در استدلال و کدنویسی بهتر از مدلهای قبلی
این مدل در مقایسه با نسخه قبلی خود، عملکرد بهتری در استدلال، ریاضیات و کدنویسی داره.
MMLU-Pro (81.2, +5.3)
تستهایی برای سنجش دانش عمومی و حل مسائل در زمینههای مختلف
GPQA (68.4, +9.3)
ارزیابی دانش حرفهای در مقطع تحصیلات تکمیلی
AIME (59.4, +19.8)
سنجش استدلال ریاضی با استفاده از مسائل ریاضی سطح مسابقات
LiveCodeBench (49.2, +10.0)
ارزیابی دقت و صحت اجرای برنامهنویسی در دنیای واقعی
مدل DeepSeek-V3-0324 بصورت Open-Source هستش و برای استفاده عمومی در دسترس قرار داره.
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
DeepSeek
یه مدل Open-Source جدید با 685B پارامتر به نام DeepSeek-V3-0324 منتشر کرده که از معماری Mixture-of-Experts (MoE)
استفاده میکنه. این مدل فقط 37B پارامتر رو برای هر توکن فعال میکنه، بنابراین نیاز به منابع محاسباتی کمتری داره. عملکرد این مدل در استدلال و کدنویسی بهتر از مدلهای قبلی
DeepSeek
شده.این مدل در مقایسه با نسخه قبلی خود، عملکرد بهتری در استدلال، ریاضیات و کدنویسی داره.
MMLU-Pro (81.2, +5.3)
تستهایی برای سنجش دانش عمومی و حل مسائل در زمینههای مختلف
GPQA (68.4, +9.3)
ارزیابی دانش حرفهای در مقطع تحصیلات تکمیلی
AIME (59.4, +19.8)
سنجش استدلال ریاضی با استفاده از مسائل ریاضی سطح مسابقات
LiveCodeBench (49.2, +10.0)
ارزیابی دقت و صحت اجرای برنامهنویسی در دنیای واقعی
مدل DeepSeek-V3-0324 بصورت Open-Source هستش و برای استفاده عمومی در دسترس قرار داره.
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
👍10❤1🔥1
فصل، فصل آمار دهی هستش😁
Generative AI سهم بازار فروشندگان پیشرو در
این تصویر گزارشی از IoT Analytics را درباره سهم بازار شرکتهای پیشرو در سه حوزه کلیدی هوش مصنوعی مولد رو ارائه میده:
واحدهای پردازشی دیتاسنتر (Datacenter GPUs) – NVIDIA با ۹۲٪ سهم بازار پیشتاز بلامنازع، در حالی که AMD (۴٪)، هواوی (۲٪)، اینتل (۱٪)، Cerebras (۱٪) و Groq (۱٪) در رتبههای بعدی قرار دارن.
مدلهای پایه و پلتفرمهای مدیریت مدل (Foundation Models & Model Management Platforms) – مایکروسافت (۳۹٪)، AWS (۱۹٪) و گوگل (۱۵٪) پیشگامان اصلی این بخش هستن.
خدمات هوش مصنوعی مولد (GenAI Services) – بخش Other با ۷۶٪ بزرگترین سهم را دارد، اما شرکتهایی مانند Accenture (۷٪)، Deloitte (۷٪)، IBM (۳٪)، Capgemini (۲٪)، McKinsey (۲٪)، BCG در این بازار نقش دارند.
@silicon_brain I از هوش مصنوعی عقب نمانید
Generative AI سهم بازار فروشندگان پیشرو در
این تصویر گزارشی از IoT Analytics را درباره سهم بازار شرکتهای پیشرو در سه حوزه کلیدی هوش مصنوعی مولد رو ارائه میده:
واحدهای پردازشی دیتاسنتر (Datacenter GPUs) – NVIDIA با ۹۲٪ سهم بازار پیشتاز بلامنازع، در حالی که AMD (۴٪)، هواوی (۲٪)، اینتل (۱٪)، Cerebras (۱٪) و Groq (۱٪) در رتبههای بعدی قرار دارن.
مدلهای پایه و پلتفرمهای مدیریت مدل (Foundation Models & Model Management Platforms) – مایکروسافت (۳۹٪)، AWS (۱۹٪) و گوگل (۱۵٪) پیشگامان اصلی این بخش هستن.
خدمات هوش مصنوعی مولد (GenAI Services) – بخش Other با ۷۶٪ بزرگترین سهم را دارد، اما شرکتهایی مانند Accenture (۷٪)، Deloitte (۷٪)، IBM (۳٪)، Capgemini (۲٪)، McKinsey (۲٪)، BCG در این بازار نقش دارند.
@silicon_brain I از هوش مصنوعی عقب نمانید
👍8❤1
خیلی وقت دنبال این نمودار بودم و به نظرم تحلیل های مهمی میشه باهاش کرد.
محور عمودی نشون میده که چه میزان از کارفرماها انتظار دارن استفاده از یه مهارت خاص تا سال ۲۰۳۰ افزایش پیدا کنه
محور افقی هم درصد کارفرماهایی رو نشون میده که اون مهارت رو تو سال ۲۰۲۵ به عنوان یه مهارت اصلی در نظر میگیرن.
مهارت هایی مثل AI و Data که نیاز به توضیح ندارن و کارفرماها هم الان و هم برای 5 سال آینده خودشونو آماده کردن.
اما نگرانی که حس میشه، همین الانشم با ظهور AI خلاقیت انسان ها داره هر روز کمتر میشه. در حالی که خلاقیت در تفکر یکی از اصلی ترین مهارت ها و نیازهای آینده ست.
شاید بگی با وجود AI چه لزومی داره وقتمونو تلف کنیم و خودمون همه کارارو انجام بدیم؟ این حرف درسته اما باید در نظر گرفت برای بدست اوردن مهارت های ذهنی قوی باید یه سری موارد پایه ای رو هی تکرار کنی!
خلاصه یکم پیچیده ست داستان ولی به صورت خلاصه بخوام بگم به نظرم از مهارتهای شناختی، تحلیلی، خلاقانه و تکنولوژیکی غافل نباید شد. فردا روز نگی چرا نگفتی! :)
@silicon_brain | از هوش مصنوعی عقب نمانید
محور عمودی نشون میده که چه میزان از کارفرماها انتظار دارن استفاده از یه مهارت خاص تا سال ۲۰۳۰ افزایش پیدا کنه
محور افقی هم درصد کارفرماهایی رو نشون میده که اون مهارت رو تو سال ۲۰۲۵ به عنوان یه مهارت اصلی در نظر میگیرن.
مهارت هایی مثل AI و Data که نیاز به توضیح ندارن و کارفرماها هم الان و هم برای 5 سال آینده خودشونو آماده کردن.
اما نگرانی که حس میشه، همین الانشم با ظهور AI خلاقیت انسان ها داره هر روز کمتر میشه. در حالی که خلاقیت در تفکر یکی از اصلی ترین مهارت ها و نیازهای آینده ست.
شاید بگی با وجود AI چه لزومی داره وقتمونو تلف کنیم و خودمون همه کارارو انجام بدیم؟ این حرف درسته اما باید در نظر گرفت برای بدست اوردن مهارت های ذهنی قوی باید یه سری موارد پایه ای رو هی تکرار کنی!
خلاصه یکم پیچیده ست داستان ولی به صورت خلاصه بخوام بگم به نظرم از مهارتهای شناختی، تحلیلی، خلاقانه و تکنولوژیکی غافل نباید شد. فردا روز نگی چرا نگفتی! :)
@silicon_brain | از هوش مصنوعی عقب نمانید
👍13👏2
حقیقتا مدلهای زبانی چطور فکر میکنن؟ 🤔
این همه از مدل های LLM و چت بات ها صحبت میکنیم اما جواب یکی از بنیادی ترین سوال های این زمینه رو هنوز نمیدونم. اینکه مدل ها چطور فکر میکنن؟
جدیدا
مقاله اول
مقاله دوم
این تحقیق مهم و ارزشمنده، من در ادامه خلاصه این تحقیق رو میگم.
زمان آموزش مدل ها خودشون یاد میگیرن که چطور مسائل رو حل کنن. این یادگیری توی میلیاردها محاسبهای که موقع نوشتن هر کلمه انجام میدن ذخیره میشه. اما نکته اینجاست که حتی توسعهدهندههای این مدلها دقیقاً نمیدونن که چطور به این نتایج میرسن! یعنی ما واقعاً نمیدونیم که مدلی مثل
سوالات اساسی:
🔹مدل
🔹 مدل
🔹 وقتی کلود استدلال خودش رو مرحلهبهمرحله توضیح میده، آیا واقعاً همون روشی رو که طی کرده میگه یا فقط یه توضیح قانعکننده میسازه؟
انتروپیک میگه:
یافتههای این تحقیقات اینا هستن:
مدل ظاهراً یه زبان مفهومی داره که بین زبانهای مختلف مشترکه. اینو با ترجمهی جملات به چند زبان مختلف و تحلیل نحوهی پردازششون فهمیدن.
مدل وقتی شعر مینویسه، قبل از نوشتن خط بعدی، قافیهی موردنظرش رو انتخاب میکنه و جمله رو طوری میسازه که به اون قافیه ختم بشه. این نشون میده که حتی اگه مدلها کلمهبهکلمه خروجی تولید کنن، ممکنه به صورت بلندمدت فکر کنن.
مدل گاهی به جای اینکه واقعاً یه مسئله رو حل کنه، جوابی که کاربر انتظار داره رو توجیه میکنه. مثلاً وقتی یه مسئلهی سخت ریاضی رو با یه راهنمایی غلط بهش میدیم، به جای اینکه خطای راهنمایی رو تشخیص بده، یه استدلال جعلی برای رسیدن به اون نتیجه میسازه.
مدلها ذاتاً تمایل دارن همیشه یه جوابی بدن. اما توی Claude یه مکانیسم پیشفرض برای "رد کردن پاسخ" (Refusal Mechanism) وجود داره که باعث میشه وقتی اطلاعات کافی نداره، جواب نده. ولی وقتی فکر میکنه یه اسم رو میشناسه، این مکانیسم سرکوب میشه و حتی اگه اطلاعات واقعی نداشته باشه، یه جواب ساختگی تولید میکنه.
توی تستها دیده شده که مدل قبل از اینکه بتونه جواب رو سانسور کنه، متوجه میشه که یه درخواست خطرناک دریافت کرده. این نشون میده که مدل یه سطح از آگاهی امنیتی داره، ولی همیشه نمیتونه جلوی خروجی نامطلوب رو بگیره.
این تحقیقات نشون میده که هنوز خیلی چیزا دربارهی AI Interpretability (قابلیت تفسیر مدلهای هوش مصنوعی) نمیدونیم. مدلها خیلی پیچیدهتر از چیزی هستن که فقط از روی خروجیهاشون بشه فهمید چطور کار میکنن.
با این حال، این روشهای جدید میتونن به شفافتر کردن عملکرد مدلها کمک کنن و باعث بشن AI قابل اعتمادتر بشه.
@silicon_brain | از هوش مصنوعی عقب نمانید
این همه از مدل های LLM و چت بات ها صحبت میکنیم اما جواب یکی از بنیادی ترین سوال های این زمینه رو هنوز نمیدونم. اینکه مدل ها چطور فکر میکنن؟
جدیدا
Anthopic
طی دو تحقیق اومده این موضوع رو بررسی کرده:مقاله اول
مقاله دوم
این تحقیق مهم و ارزشمنده، من در ادامه خلاصه این تحقیق رو میگم.
زمان آموزش مدل ها خودشون یاد میگیرن که چطور مسائل رو حل کنن. این یادگیری توی میلیاردها محاسبهای که موقع نوشتن هر کلمه انجام میدن ذخیره میشه. اما نکته اینجاست که حتی توسعهدهندههای این مدلها دقیقاً نمیدونن که چطور به این نتایج میرسن! یعنی ما واقعاً نمیدونیم که مدلی مثل
Claude 3.5
چطور کارهای مختلفش رو انجام میده.سوالات اساسی:
🔹مدل
Claude
میتونه به چندین زبان صحبت کنه، اما داخل ذهنش از چه زبانی استفاده میکنه؟🔹 مدل
Claude
کلمهبهکلمه متن مینویسه. آیا فقط کلمهی بعدی رو حدس میزنه یا برای جملات بعدی هم برنامهریزی میکنه؟🔹 وقتی کلود استدلال خودش رو مرحلهبهمرحله توضیح میده، آیا واقعاً همون روشی رو که طی کرده میگه یا فقط یه توضیح قانعکننده میسازه؟
انتروپیک میگه:
ما از حوزهی Neuroscience (علوم اعصاب) الهام گرفتیم و دنبال این هستیم که یه چیزی مثل "میکروسکوپ هوش مصنوعی" (AI Microscope) بسازیم تا بتونیم الگوهای فعالیت و جریان اطلاعات داخل مدل رو ببینیم.
🔹 تحلیل مدارهای محاسباتی مدل (Computational Circuits)
قبلاً فهمیده بودیم که داخل مدل مفاهیمی قابل تفسیر (Features) وجود دارن. حالا این مفاهیم رو بهم متصل کردیم تا ببینیم چطور مسیر پردازش ورودیها به خروجی شکل میگیره.
🔹 مطالعهی مدل Claude 3.5 Haiku
بررسی کردیم که مدل چطور وظایف مهم رو انجام میده. مثلاً چطور فکر میکنه، برنامهریزی میکنه، و حتی گاهی چطور سعی میکنه جواب موردنظر کاربر رو ارائه بده، حتی اگه جوابش منطقی نباشه (Bias Towards Agreement).
یافتههای این تحقیقات اینا هستن:
زبان درونی مشترک (Universal Language of Thought):
مدل ظاهراً یه زبان مفهومی داره که بین زبانهای مختلف مشترکه. اینو با ترجمهی جملات به چند زبان مختلف و تحلیل نحوهی پردازششون فهمیدن.
برنامهریزی برای نوشتن (Pre-Planning in Text Generation):
مدل وقتی شعر مینویسه، قبل از نوشتن خط بعدی، قافیهی موردنظرش رو انتخاب میکنه و جمله رو طوری میسازه که به اون قافیه ختم بشه. این نشون میده که حتی اگه مدلها کلمهبهکلمه خروجی تولید کنن، ممکنه به صورت بلندمدت فکر کنن.
دلیلتراشی به جای استدلال واقعی (Motivated Reasoning):
مدل گاهی به جای اینکه واقعاً یه مسئله رو حل کنه، جوابی که کاربر انتظار داره رو توجیه میکنه. مثلاً وقتی یه مسئلهی سخت ریاضی رو با یه راهنمایی غلط بهش میدیم، به جای اینکه خطای راهنمایی رو تشخیص بده، یه استدلال جعلی برای رسیدن به اون نتیجه میسازه.
توهمات (Hallucinations):
مدلها ذاتاً تمایل دارن همیشه یه جوابی بدن. اما توی Claude یه مکانیسم پیشفرض برای "رد کردن پاسخ" (Refusal Mechanism) وجود داره که باعث میشه وقتی اطلاعات کافی نداره، جواب نده. ولی وقتی فکر میکنه یه اسم رو میشناسه، این مکانیسم سرکوب میشه و حتی اگه اطلاعات واقعی نداشته باشه، یه جواب ساختگی تولید میکنه.
حملات Jailbreak:
توی تستها دیده شده که مدل قبل از اینکه بتونه جواب رو سانسور کنه، متوجه میشه که یه درخواست خطرناک دریافت کرده. این نشون میده که مدل یه سطح از آگاهی امنیتی داره، ولی همیشه نمیتونه جلوی خروجی نامطلوب رو بگیره.
این تحقیقات نشون میده که هنوز خیلی چیزا دربارهی AI Interpretability (قابلیت تفسیر مدلهای هوش مصنوعی) نمیدونیم. مدلها خیلی پیچیدهتر از چیزی هستن که فقط از روی خروجیهاشون بشه فهمید چطور کار میکنن.
با این حال، این روشهای جدید میتونن به شفافتر کردن عملکرد مدلها کمک کنن و باعث بشن AI قابل اعتمادتر بشه.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍22🔥2👏1
System 2 LLM or AI
لبه دانش هوش مصنوعی اینجاست!
مدل های جدید مثل
ما از زمانی که
البته هنوزم این تفکر خیلی مثل انسان واقعی نیست، ولی نسبت به چیزی که قبلاً بود، خیلی پیشرفت کرده. برای همین هم خیلیا
توی داکیومنتهای OpenAI اومده که این مدلهای جدید از چیزی به اسم reasoning tokens استفاده میکنن که بخشی از روش معروف Chain of Thought (CoT) هست.
یه چیز دیگه هم که بهش اشاره شده اینه که دارن از
الان دقیق مشخص نیست که OpenAI از چه تکنیکهایی استفاده کرده، ولی با توجه به مقالههای جدید، میشه حدسهایی زد:
Chain of Thought (2022)
https://arxiv.org/abs/2201.11903
Tree of Thoughts (2023)
https://arxiv.org/abs/2305.10601
Branch-Solve-Merge (2023)
https://arxiv.org/abs/2310.15123
System 2 Attention (2023)
https://arxiv.org/abs/2311.11829
Rephrase and Respond (2023)
https://arxiv.org/abs/2311.04205
اینا همه روشهایی هستن که کمک میکنن یه مدل System 2 بتونه مثل یه انسان، برنامهریزی کنه، مسئله رو تجزیه و تحلیل کنه و سناریوهای مختلف رو بررسی کنه.
مدلهای System 2 که بهشون میگن
این مدلها از چیزی به اسم
OpenAI تصمیم گرفته یه بخشهایی از این تفکر رو به زبان خودمونی نشون بده. مثلاً میتونی عباراتی مثل:
"First"، "Next"، "Hmm"، "Let’s test this theory"، "Alternatively"، و "That seems unlikely" رو توی خروجی مدل ببینی.
البته اینا در واقع system tokens هستن که مدل ازشون برای هدایت مسیر فکر کردن استفاده میکنه، ولی برای اینکه برای کاربر قابل فهم باشن، به زبان انسان نشون داده میشن.
دوست داشتین در ادامه در مورد Reasoning Token بیشتر میگم
@silicon_brain | از هوش مصنوعی عقب نمانید
System 2 LLM or AI
لبه دانش هوش مصنوعی اینجاست!
مدل های جدید مثل
o1-preview
و o1-mini
میتونن اولین نسخههای موفق System 2 LLM در دنیای تجاری باشن. حالا System 2 یعنی چی؟ این مفهوم رو دنیل کانمن تو کتاب معروفش "تفکر، سریع و کند" (2011) مطرح کرد. خیلی خلاصه بخوایم بگیم:سیستم 1 یعنی جوابهای آنی و سریع که بیشتر از روی شهود میان
اما سیستم 2 یعنی فکر کردن با تأمل و دقت، که معمولاً زمانبره.
ما از زمانی که
ChatGPT
اومد (نوامبر 2022)، بیشتر با مدلهای System 1 سروکار داشتیم. این مدلها مستقیم به یه سوال یا prompt جواب میدن. اما مدلهای System 2 برعکس، یه فرآیند تحلیلی و دقیق رو طی میکنن، مسائل پیچیده رو به قسمتهای کوچکتر میشکنن و مرحله به مرحله به جواب میرسن.البته هنوزم این تفکر خیلی مثل انسان واقعی نیست، ولی نسبت به چیزی که قبلاً بود، خیلی پیشرفت کرده. برای همین هم خیلیا
OpenAI o1
رو اولین مدل AI میدونن که واقعاً میتونه reasoning
انجام بده (یعنی استدلال کنه).توی داکیومنتهای OpenAI اومده که این مدلهای جدید از چیزی به اسم reasoning tokens استفاده میکنن که بخشی از روش معروف Chain of Thought (CoT) هست.
یه چیز دیگه هم که بهش اشاره شده اینه که دارن از
Reinforcement
Learning (RL)
برای بهبود فرآیند thinking
استفاده میکنن.الان دقیق مشخص نیست که OpenAI از چه تکنیکهایی استفاده کرده، ولی با توجه به مقالههای جدید، میشه حدسهایی زد:
Chain of Thought (2022)
https://arxiv.org/abs/2201.11903
Tree of Thoughts (2023)
https://arxiv.org/abs/2305.10601
Branch-Solve-Merge (2023)
https://arxiv.org/abs/2310.15123
System 2 Attention (2023)
https://arxiv.org/abs/2311.11829
Rephrase and Respond (2023)
https://arxiv.org/abs/2311.04205
اینا همه روشهایی هستن که کمک میکنن یه مدل System 2 بتونه مثل یه انسان، برنامهریزی کنه، مسئله رو تجزیه و تحلیل کنه و سناریوهای مختلف رو بررسی کنه.
مدلهای System 2 که بهشون میگن
CoT-enabled LLMs
توی کارهایی که قبلاً هیچوقت انجام نشده و نیاز به استدلال دارن، فوقالعاده عمل میکنن.این مدلها از چیزی به اسم
reasoning tokens
استفاده میکنن که به مدل کمک میکنه برای خودش مراحل منطقی برنامهریزی کنه. حتی ممکنه خروجیهای موقتی بسازه که کاربر نمیبینه.OpenAI تصمیم گرفته یه بخشهایی از این تفکر رو به زبان خودمونی نشون بده. مثلاً میتونی عباراتی مثل:
"First"، "Next"، "Hmm"، "Let’s test this theory"، "Alternatively"، و "That seems unlikely" رو توی خروجی مدل ببینی.
البته اینا در واقع system tokens هستن که مدل ازشون برای هدایت مسیر فکر کردن استفاده میکنه، ولی برای اینکه برای کاربر قابل فهم باشن، به زبان انسان نشون داده میشن.
دوست داشتین در ادامه در مورد Reasoning Token بیشتر میگم
@silicon_brain | از هوش مصنوعی عقب نمانید
👍24❤3⚡2
Reasoning Token
در ادامه پست قبلی باید بگم که
مدل این توکنها رو با توجه به پرامپت میسازه و باهاشون مراحل منطقی رو شروع میکنه. انواع مختلفی دارن، مثلاً:
یه نکته مهمی که وجود داره اینه که این توکنها قبل از اینکه خروجی نهایی به کاربر نشون داده بشه، پاک میشن. ولی همچنان تو محاسبهی مصرف (Billing) حساب میشن.
در کل وقتی مدل به یه سطح خاصی از رضایت از فکر کردن برسه، همهی خروجیهای میانی و فنی رو حذف میکنه و یه پاسخ نهایی تمیز و قابل فهم به کاربر نشون میده.
برای مثال اگه متن ورودی ناقص باشه یا مشکل داشته باشه از این توکن ها برای استدلال درست استفاده میکنه
به نظرم هنوز برای اینکه این مدلها توی همهی کاربردها عالی باشن، باید کلی آموزش ببینن، اونم با کمک انسان. پس هنوز یه راه نسبتاً طولانی در پیش داریم. ولی نکته مهم اینه که جای تحقیقات زیادی وجود داره که میتونه موضوع خوبی برای کسایی که میخوان پژوهش کنن باشه.
@silicon_brain | از هوش مصنوعی عقب نمانید
در ادامه پست قبلی باید بگم که
Reasoning Tokens
در واقع یه سری توکن خاصن که برای هدایت مرحلهبهمرحلهی فرآیند تفکر طراحی شدن.مدل این توکنها رو با توجه به پرامپت میسازه و باهاشون مراحل منطقی رو شروع میکنه. انواع مختلفی دارن، مثلاً:
<Analyze_Problem>
<Generate_Hypothesis>
<Evaluate_Evidence>
<Draw_Conclusion>
یه نکته مهمی که وجود داره اینه که این توکنها قبل از اینکه خروجی نهایی به کاربر نشون داده بشه، پاک میشن. ولی همچنان تو محاسبهی مصرف (Billing) حساب میشن.
در کل وقتی مدل به یه سطح خاصی از رضایت از فکر کردن برسه، همهی خروجیهای میانی و فنی رو حذف میکنه و یه پاسخ نهایی تمیز و قابل فهم به کاربر نشون میده.
برای مثال اگه متن ورودی ناقص باشه یا مشکل داشته باشه از این توکن ها برای استدلال درست استفاده میکنه
<analyze_script>
<historical_context>
<identify_patterns>
<compare_known_texts>
<reconstruct_missing>
<evaluate_hypotheses>
به نظرم هنوز برای اینکه این مدلها توی همهی کاربردها عالی باشن، باید کلی آموزش ببینن، اونم با کمک انسان. پس هنوز یه راه نسبتاً طولانی در پیش داریم. ولی نکته مهم اینه که جای تحقیقات زیادی وجود داره که میتونه موضوع خوبی برای کسایی که میخوان پژوهش کنن باشه.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍4❤2
Andrew Ng:
امروزه برخی افراد دیگران را از یادگیری برنامهنویسی دلسرد میکنند به این دلیل که معتقدند هوش مصنوعی آن را خودکار خواهد کرد. این توصیه به عنوان یکی از بدترین توصیههای شغلی در تاریخ شناخته خواهد شد. من با برنده جایزه تورینگ و نوبل که نوشته بود: «بسیار محتملتر است که شغل برنامهنویسی منقرض شود [...] تا اینکه به اوج قدرت برسد. هر چه میگذرد، رایانهها بیشتر خودشان برنامهنویسی خواهند کرد»، مخالفم. اظهاراتی که افراد را از یادگیری کدنویسی بازمیدارند، مضر هستند!
هرچه برنامهنویسی آسانتر شود، باید افراد بیشتری برنامهنویسی کنند، نه کمتر!
در چند دهه گذشته، برنامهنویسی از زبان اسمبلی به زبانهای سطح بالاتر مثل C، از دسکتاپ به فضای ابری، از ویرایشگرهای متنی خام به محیطهای توسعه یکپارچه (IDE) و حالا به کدنویسی با کمک هوش مصنوعی که گاهی حتی نیازی به دیدن کد تولیدی نیست (که برخی برنامهنویسها به آن «کدنویسی با حال و هوا» یا vibe coding میگویند) پیشرفت کرده است. با هر گام، این فرآیند آسانتر شده است.
قبلاً نوشته بودم که افراد آشنا با تکنولوژی، با هماهنگی ابزارهای هوش مصنوعی، در مسیر تبدیل شدن به حرفهایهای ۱۰ برابری هستند — افرادی که ۱۰ برابر میانگین افراد در حوزه خود تأثیر دارند. من هر روز بیشتر به این باور میرسم که بهترین راه برای بسیاری از افراد برای رسیدن به این نقطه، فقط مصرفکننده بودن برنامههای هوش مصنوعی نیست، بلکه یادگیری برنامهنویسی کافی برای استفاده مؤثر از ابزارهای کدنویسی با کمک هوش مصنوعی است.
وقتی داشتم روی دوره «هوش مصنوعی مولد برای همه» کار میکردم و لازم بود تصاویر پسزمینه هنری تولید کنم، با همکاری کار کردم که در رشته تاریخ هنر تحصیل کرده بود و زبان هنر را میدانست. او با استفاده از اصطلاحات مرتبط با سبک تاریخی، پالت رنگی، الهامگیری از هنرمندان و غیره — یعنی با زبان هنر — به Midjourney دستور میداد تا به نتیجه دلخواه برسد. من این زبان را نمیدانستم، و تلاشهای محدود من برای ساخت پرامپت، به اندازه او مؤثر نبود.
به همین ترتیب، کسانی که زبان نرمافزار را از طریق دانش برنامهنویسی میفهمند، میتوانند به مدلهای زبانی یا محیطهای توسعه دارای هوش مصنوعی دقیقتر بگویند چه میخواهند و نتایج بسیار بهتری بگیرند. اکنون بهترین زمان برای یادگیری برنامهنویسی، یادگیری زبان نرمافزار، و آموختن توانایی واداشتن کامپیوترها به انجام خواستههای شماست.
@silicon_brain | از هوش مصنوعی عقب نمانید
امروزه برخی افراد دیگران را از یادگیری برنامهنویسی دلسرد میکنند به این دلیل که معتقدند هوش مصنوعی آن را خودکار خواهد کرد. این توصیه به عنوان یکی از بدترین توصیههای شغلی در تاریخ شناخته خواهد شد. من با برنده جایزه تورینگ و نوبل که نوشته بود: «بسیار محتملتر است که شغل برنامهنویسی منقرض شود [...] تا اینکه به اوج قدرت برسد. هر چه میگذرد، رایانهها بیشتر خودشان برنامهنویسی خواهند کرد»، مخالفم. اظهاراتی که افراد را از یادگیری کدنویسی بازمیدارند، مضر هستند!
هرچه برنامهنویسی آسانتر شود، باید افراد بیشتری برنامهنویسی کنند، نه کمتر!
در چند دهه گذشته، برنامهنویسی از زبان اسمبلی به زبانهای سطح بالاتر مثل C، از دسکتاپ به فضای ابری، از ویرایشگرهای متنی خام به محیطهای توسعه یکپارچه (IDE) و حالا به کدنویسی با کمک هوش مصنوعی که گاهی حتی نیازی به دیدن کد تولیدی نیست (که برخی برنامهنویسها به آن «کدنویسی با حال و هوا» یا vibe coding میگویند) پیشرفت کرده است. با هر گام، این فرآیند آسانتر شده است.
قبلاً نوشته بودم که افراد آشنا با تکنولوژی، با هماهنگی ابزارهای هوش مصنوعی، در مسیر تبدیل شدن به حرفهایهای ۱۰ برابری هستند — افرادی که ۱۰ برابر میانگین افراد در حوزه خود تأثیر دارند. من هر روز بیشتر به این باور میرسم که بهترین راه برای بسیاری از افراد برای رسیدن به این نقطه، فقط مصرفکننده بودن برنامههای هوش مصنوعی نیست، بلکه یادگیری برنامهنویسی کافی برای استفاده مؤثر از ابزارهای کدنویسی با کمک هوش مصنوعی است.
وقتی داشتم روی دوره «هوش مصنوعی مولد برای همه» کار میکردم و لازم بود تصاویر پسزمینه هنری تولید کنم، با همکاری کار کردم که در رشته تاریخ هنر تحصیل کرده بود و زبان هنر را میدانست. او با استفاده از اصطلاحات مرتبط با سبک تاریخی، پالت رنگی، الهامگیری از هنرمندان و غیره — یعنی با زبان هنر — به Midjourney دستور میداد تا به نتیجه دلخواه برسد. من این زبان را نمیدانستم، و تلاشهای محدود من برای ساخت پرامپت، به اندازه او مؤثر نبود.
به همین ترتیب، کسانی که زبان نرمافزار را از طریق دانش برنامهنویسی میفهمند، میتوانند به مدلهای زبانی یا محیطهای توسعه دارای هوش مصنوعی دقیقتر بگویند چه میخواهند و نتایج بسیار بهتری بگیرند. اکنون بهترین زمان برای یادگیری برنامهنویسی، یادگیری زبان نرمافزار، و آموختن توانایی واداشتن کامپیوترها به انجام خواستههای شماست.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍28❤3👎1👏1💯1
مدل Llama 4: شروعی خفن برای مدل های چند اکسپرتی
متا دو مدل جدید از خانواده
هر دوشون میتونن هم متن، هم تصویر و اطلاعات چندوجهی دیگه رو با دقت بالا پردازش کنن.
مدل
مدل
اگه نمیدونی اکسپرت چیه اینجا گفتم در موردش
این مدلها از یه مدل خیلی بزرگتر و پیشرفتهتر به اسم
متا این مدلها رو به صورت اوپنویت منتشر کرده که یعنی همه میتونن ازشون استفاده کنن. میتونی Scout و Maverick رو از سایت llama.com یا Hugging Face دانلود کنی
همچنین میتونی توی واتساپ، مسنجر، اینستاگرام و وبسایت Meta.AI هم باهاشون کار کنی.
در ادامه در مورد معماریش میگم
@silicon_brain | از هوش مصنوعی عقب نمانید
متا دو مدل جدید از خانواده
Llama 4
معرفی کرده:🦙 Llama 4 Scout
🦙 Llama 4 Maverick
هر دوشون میتونن هم متن، هم تصویر و اطلاعات چندوجهی دیگه رو با دقت بالا پردازش کنن.
مدل
Scout
با ۱۷ میلیارد پارامتر فعال و ۱۶ تا کسپرت روی یه GPU مدل H100 جا میگیره و از مدلهای قبلی خودش قویتره.مدل
Maverick
هم ۱۷ میلیارد پارامتر فعال داره ولی با ۱۲۸ اکسپرت! تو تستهای مختلف از GPT-4o و Gemini 2.0 هم بهتر عمل کرده.اگه نمیدونی اکسپرت چیه اینجا گفتم در موردش
این مدلها از یه مدل خیلی بزرگتر و پیشرفتهتر به اسم
Llama 4 Behemoth
یاد گرفتن، که هنوز در حال آموزش دیدنه ولی از GPT-4.5 و Claude 3.7 هم بهتره توی تستهای تخصصی ریاضی و علمی.متا این مدلها رو به صورت اوپنویت منتشر کرده که یعنی همه میتونن ازشون استفاده کنن. میتونی Scout و Maverick رو از سایت llama.com یا Hugging Face دانلود کنی
همچنین میتونی توی واتساپ، مسنجر، اینستاگرام و وبسایت Meta.AI هم باهاشون کار کنی.
در ادامه در مورد معماریش میگم
@silicon_brain | از هوش مصنوعی عقب نمانید
👍7❤2
ساخت اپ فول استک با Firebase Studio
گوگل یه ابزار جدید به اسم
یکی از جذابترین امکاناتش اینه که کافیه یه متن یا حتی یه نقاشی ساده بهش بدی، خودش برات یه اپ کامل میسازه!
با Firebase Studio، فقط با یه کلیک میتونی پروژهت رو مستقیم روی Firebase App Hosting دیپلوی کنی.
این نسخه بهصورت پیشنمایش برای همه در دسترسه و کاربران Google Developer Program میتونن تا ۳۰ ورکاسپیس رایگان استفاده کنن.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
گوگل یه ابزار جدید به اسم
Firebase Studio
معرفی کرده که یه محیط برنامهنویسی تحت وبه و با هوش مصنوعی کار میکنه. با این ابزار میتونی خیلی راحت اپلیکیشنهای فولاستک بسازی و دیپلوی کنی. این محیط همه چی رو تو یه جا جمع کرده؛ هم Project IDX، هم Genkit، هم مدلهای Gemini
.یکی از جذابترین امکاناتش اینه که کافیه یه متن یا حتی یه نقاشی ساده بهش بدی، خودش برات یه اپ کامل میسازه!
با Firebase Studio، فقط با یه کلیک میتونی پروژهت رو مستقیم روی Firebase App Hosting دیپلوی کنی.
این نسخه بهصورت پیشنمایش برای همه در دسترسه و کاربران Google Developer Program میتونن تا ۳۰ ورکاسپیس رایگان استفاده کنن.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍7❤3🔥2
Forwarded from Silicon Brain | جامعه هوش مصنوعی
ساخت مدل زبانی روی دیتابیس به صورت خودکار
LAMOGEL: Language Model Generation Lifecycle
یه پروژه تو گیتهاب داشتم برای یه بیزنسی کار کرده بودم. امروز پابلیکش کردم تا دیگران هم استفاده کنن.
به چه دردی میخوره؟
اگه میخواین روی دیتابیس بیزینس خودتون یه مدل زبانی پیشرفته که مفاهیم و فضای کاری شما رو درک کرده باشه سریع و خودکار بسازید از LAMOGEL استفاده کنید
مراحل:
1. اتصال به دیتابیس
2. پیشپردازش دادهها
3. تقسیم دیتا: دیتا رو به دو بخش پیش آموزش (Pre-training) و تنظیم دقیق (Fine-tuning) تقسیم میکنه. تا اولش LM رو آموزش بده و بعدش با متریکها ارزیابی کنه و برای تسک NLP مورد نظر شما تیون کنه.
4.آموزش مدل MLM
5.ذخیره مدل: مدل آموزشی ساختهشده رو تو مسیر مشخصی و تو Huggingface ذخیره میکنه.
کانفیگ آسان:
همه هایپرپارامترهای مورد نیاز، مثل نرخ یادگیری، تعداد دادههای فاینتیون و غیره رو از فایل Config.py میتونین ست کنین و پروژه رو اینجوری ایزی ران کنید😁
لینک گیتهاب
لطفا تو گیتهاب استار ⭐️ بدین تا انگیزه ای باشه برای همه افرادی که ریپو هاشون رو پابلیک میکنن
@silicon_brain | از هوش مصنوعی عقب نمانید
LAMOGEL: Language Model Generation Lifecycle
یه پروژه تو گیتهاب داشتم برای یه بیزنسی کار کرده بودم. امروز پابلیکش کردم تا دیگران هم استفاده کنن.
به چه دردی میخوره؟
اگه میخواین روی دیتابیس بیزینس خودتون یه مدل زبانی پیشرفته که مفاهیم و فضای کاری شما رو درک کرده باشه سریع و خودکار بسازید از LAMOGEL استفاده کنید
مراحل:
1. اتصال به دیتابیس
2. پیشپردازش دادهها
3. تقسیم دیتا: دیتا رو به دو بخش پیش آموزش (Pre-training) و تنظیم دقیق (Fine-tuning) تقسیم میکنه. تا اولش LM رو آموزش بده و بعدش با متریکها ارزیابی کنه و برای تسک NLP مورد نظر شما تیون کنه.
4.آموزش مدل MLM
5.ذخیره مدل: مدل آموزشی ساختهشده رو تو مسیر مشخصی و تو Huggingface ذخیره میکنه.
کانفیگ آسان:
همه هایپرپارامترهای مورد نیاز، مثل نرخ یادگیری، تعداد دادههای فاینتیون و غیره رو از فایل Config.py میتونین ست کنین و پروژه رو اینجوری ایزی ران کنید😁
python app.py
لینک گیتهاب
لطفا تو گیتهاب استار ⭐️ بدین تا انگیزه ای باشه برای همه افرادی که ریپو هاشون رو پابلیک میکنن
@silicon_brain | از هوش مصنوعی عقب نمانید
👍11❤3🔥1💯1
دیوار در یک حرکت نادر، یک میلیون آگهی رو بصورت ناشناس منتشر کرد!
دیوار اعلان کرده:
واقعیت اینه که انتشار داده های تخصصی به رشد و ارتقا محصول در اون حوزه کمک قابل توجهی میکنه و عملا این موضوع برای خودِ دیوار بیشترین سود رو داره
اگه با استفاده از این دیتا حرکتی زدین، اعلام کنید تا تو این کانال معرفی بشه
امیدوارم که انتشار داده ها بصورت مستمر و در حوزه ها و بیزینس های دیگه هم اتفاق بیوفته
لینک هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
دیوار اعلان کرده:
ما عمیقاً باور داریم که توانمندسازی جامعهٔ فنی ایران، مسئولیت همهٔ ماست. دسترسی به دادههای باکیفیت، حق هر توسعهدهنده و پژوهشگره - نه فقط شرکتهای بزرگ! این دیتاست، قدم کوچکی در مسیر دموکراتیزه کردن هوش مصنوعی در ایرانه.
ما معتقدیم مسیر پیشرفت هوش مصنوعی بومی از همکاری و اشتراک دانش میگذره. شاید فردا شما با همین دیتاست، راه حلی بسازید که زندگی میلیونها نفر رو بهتر کنه!
واقعیت اینه که انتشار داده های تخصصی به رشد و ارتقا محصول در اون حوزه کمک قابل توجهی میکنه و عملا این موضوع برای خودِ دیوار بیشترین سود رو داره
اگه با استفاده از این دیتا حرکتی زدین، اعلام کنید تا تو این کانال معرفی بشه
امیدوارم که انتشار داده ها بصورت مستمر و در حوزه ها و بیزینس های دیگه هم اتفاق بیوفته
لینک هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
👍22🔥3😍2💯1
سیستم Multi-Agent گوگل
گوگل بهتازگی یه فریمورک متنباز به اسم
این فریمورک از همون اول از مدلهای
علاوه بر این، ADK با
از لحاظ قابلیتهای ابزارسازی، ADK بهت این امکان رو میده که ابزارهای دلخواهتو با Python تعریف و مدیریت کنی. ابزارهای پیشفرضی مثل google_search و code_exec توش وجود داره و به شکل ساختاریافته میتونی ورودی و خروجی ابزارها رو تست و دیباگ کنی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
گوگل بهتازگی یه فریمورک متنباز به اسم
Agent Development Kit (ADK)
معرفی کرده که باهاش میتونی خیلی راحت agent های هوشمند بسازی، ابزار براشون تعریف کنی، تست کنی و مستقیم روی زیرساختهای گوگل دیپلوی کنی. این فریمورک از همون اول از مدلهای
Gemini
و مدلهای دیگه مثل Claude،
LLaMA،
Mistral
پشتیبانی میکنه و حتی میتونی مدل اختصاصی خودتو با یه custom connector بهش وصل کنی.علاوه بر این، ADK با
Vertex AI Agent Builder
هم یکپارچه شده، یعنی بهراحتی میتونی agentهات رو روی سرویسهای سازمانی گوگل اجرا کنی و با prompt-based logic بین مدلها مسیر دهی (routing) انجام بدی.از لحاظ قابلیتهای ابزارسازی، ADK بهت این امکان رو میده که ابزارهای دلخواهتو با Python تعریف و مدیریت کنی. ابزارهای پیشفرضی مثل google_search و code_exec توش وجود داره و به شکل ساختاریافته میتونی ورودی و خروجی ابزارها رو تست و دیباگ کنی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍10❤2🔥1💯1
داشتم آگهی های کاریابی رو تو لینکدین میدیدم. اکثر شرکتا دنبال نیروی Senior هستن! چرا این اتفاق افتاده؟
احتمالا داریم به سمتی میریم که در آینده نزدیک نیروی جونیور نقش کمرنگی توی پروژه ها خواهد داشت و شرکتها بجای استخدام 5نفر جونیور، 1 نفر سنیور استخدام میکنن+یه اکانت ChatGPT!
شکی نیست که هوش مصنوعی هیچوقت خطری برای کسایی که تخصصی کار میکنن نیست اما خیلی راحت جای کسایی رو میگیره که دستوپاشکسته دارن کار میکنن.
این شاید یه تلنگر باشه واسه هممون، تو هر حوزه ای که داریم کار میکنیم خیلی زود باید حرفه ای بشیم.
@silicon_brain | از هوش مصنوعی عقب نمانید
احتمالا داریم به سمتی میریم که در آینده نزدیک نیروی جونیور نقش کمرنگی توی پروژه ها خواهد داشت و شرکتها بجای استخدام 5نفر جونیور، 1 نفر سنیور استخدام میکنن+یه اکانت ChatGPT!
شکی نیست که هوش مصنوعی هیچوقت خطری برای کسایی که تخصصی کار میکنن نیست اما خیلی راحت جای کسایی رو میگیره که دستوپاشکسته دارن کار میکنن.
این شاید یه تلنگر باشه واسه هممون، تو هر حوزه ای که داریم کار میکنیم خیلی زود باید حرفه ای بشیم.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍40😢2👎1👏1
بازی مهم امشب رئال مادرید و آرسنال رو به مدل های خفن گفتم با تکنولوژی
GPT-4 Turbo:
⚽️ Real Madrid 1 - 1 Arsenal
Gemini 2.5:
⚽️ Real Madrid 2 - 1 Arsenal
Grok 3:
⚽️ Real Madrid 2 - 1 Arsenal
حتما میدونید که بازی رفت این بازی 3 بر صفر به نفع آرسنال تموم شده و پیش بینی این بازی پیچیدگی زیادی داره.
خیره ایشالا 😅
Reason
و Deep Research
پیش بینی کنن و زمان زیادی در مورد این نتایج فکر کردن:GPT-4 Turbo:
⚽️ Real Madrid 1 - 1 Arsenal
Gemini 2.5:
⚽️ Real Madrid 2 - 1 Arsenal
Grok 3:
⚽️ Real Madrid 2 - 1 Arsenal
حتما میدونید که بازی رفت این بازی 3 بر صفر به نفع آرسنال تموم شده و پیش بینی این بازی پیچیدگی زیادی داره.
خیره ایشالا 😅
👍17👎9😁7🏆2⚡1