Telegram Web Link
Channel created
Channel photo updated
هوش مصنوعی روی جلد تایم! 🤖
یه نگاه به جلد جدید مجله‌ی تایم بندازین تا ببینین اوضاع از چه قراره! انگار هوش مصنوعی دیگه شوخی‌بردار نیست و همه جای دنیا رو گرفته. این دفعه تایم اومده سراغ ۱۰۰ تا از مغز متفکرها و غول‌های این حوزه، از ایلان ماسک و امثالهم گرفته تا فعالان حقوق بشر که نمیخوان هوش مصنوعی از لگام در بره.
این لیست یه جورایی نقشه‌ی راه آینده‌ایه که توش هوش مصنوعی نقش اصلی رو بازی میکنه.
حالا باید بشینیم و ببینیم این مغزهای متفکر دنیا رو به کدوم سمت میبرن! البته بهتره ما همینجوری دست رو دست نذاریم و فقط تماشاچی نباشیم! هوش مصنوعی شوخی نداره و آینده‌ی همه‌ی ما رو میسازه. وقتشه نقش خودمون رو تو این میون پیدا کنیم و کاری کنیم که این آینده به دست همه و برای همه ساخته بشه.
پ.ن: به نظرتون جای کی خالیه؟
#هوش_مصنوعی #تایم #تکنولوژی #آینده
👍1
ایلان ماسک تو لیست تایم نیست، ولی اسکارلت جوهانسون هست! 🤨
انگار دعوای تایم و ایلان ماسک سر دراز داره! مجله‌ی تایم تو یه حرکت عجیب، ایلان ماسک رو از لیست ۱۰۰ شخصیت تاثیرگذار حوزه هوش مصنوعی حذف کرده، ولی اسکارلت جوهانسون رو آورده تو لیست!

حالا باید ببینیم دلیل این انتخاب چی بوده! 🤔 بعضی‌ها میگن چون شرکت مارک بنیوف، صاحب تایم، تو Anthropic سرمایه گذاری کرده و ایلان ماسک هم رقیبشه! البته تایم این موضوع رو رد کرده.

از اون طرف، عده‌ای هم این اقدام رو نوعی جانبداری و غرض‌ورزی شخصی تایم نسبت به ایلان ماسک میدونن.

حالا شما چی فکر می‌کنین؟ به نظرتون حذف ایلان ماسک منصفانه بوده؟ 🤔

#ایلان_ماسک #هوش_مصنوعی #تایم
👍1😁1🖕1
Channel name was changed to «Fusions by Saeed Abhari»
خب، پاول گراهام هم یه مطلب جدید تو وبلاگش گذاشته. 🤔 راستش انقدر جالبه که به نظرم خوندنش برای همه واجبه، به خصوص اگه پیگیر دنیای استارتاپ و تکنولوژی هستین.
خلاصه‌ی مطلبش اینه که یه مدل جدید مدیریتی برای شرکتهای بزرگ با حضور موسسین اونها داره شکل میگیره که با مدل سنتی و رایج مدیریتی خیلی متفاوته. در این مدل جدید، موسسین به جای اینکه فقط از طریق مدیران میانی با کارمندان در ارتباط باشن، خودشون مستقیما در جریان کارها قرار میگیرن و با کارمندان در سطوح مختلف تعامل دارن.
گراهام با اشاره به سخنرانی اخیر برایان چسکی، موسس Airbnb، و تجربیات مشابه از سوی دیگر موسسین موفق، این مدل جدید رو "مدل موسس" نامگذاری میکنه. در این مدل، موسسین با الهام گرفتن از روشهایی مثل جلسات سالانه استیو جابز با ۱۰۰ نفر از افراد کلیدی اپل، سعی میکنن انعطاف و پویایی فضای استارتاپی رو حتی در شرکتهای بزرگ حفظ کنن.
به هر حال، خوندن خود مطلب یه چیز دیگه‌اس. مطمئنم شما هم مثل من کلی چیز ازش یاد می‌گیرین. 😉
https://paulgraham.com/foundermode.html?fbclid=PAZXh0bgNhZW0CMTEAAaa_R_Amqm86kDd_J93fy-LJWtzwEEn16d2j9J0KZNk1GaQsUhtLQ4ko4Fs_aem_yaHIMi9QkjD8UB5_-5BiJg
4👍2
خبر داغ! 🔥 Reflection 70B اومده و با اینکه خیلی کوچیکتره، GPT-4 و Claude Sonnet رو تو benchmark های کلیدی شکست داده! خیلی جالبه، ولی داستان اصلی اینه که چطوری این اتفاق افتاده:

مت شومر یه محقق AI معمولی نیست. این یارو یه prompt engineer هست که از روزای اول GPT-3 تو خط مقدم بوده و واسه میلیون‌ها کاربر چیز ساخته. تجربش باعث شد یه نکته مهم رو بفهمه: LLM ها تو قبول کردن اشتباهاتشون موقع بازتاب خیلی بدن! حتی حاضرن اشتباه کنن که بعدش چیزی واسه درست کردن داشته باشن!

راه حلش چی بود؟ Fine-tuning برای خود-اصلاحی واقعی بدون خطاهای جدید. اونقدر ساده که نبوغ آمیزه، و آزمایشگاه‌های بزرگ ازش غافل شدن.

نتیجش یه مدلیه که فقط وقتی لازمه فکر می‌کنه. و با بازتاب داخلی، میشه راحت از کاربر مخفیش کرد.

تو 3 هفته توسط 2 تا آدم که می‌دونن LLM ها تو دنیای واقعی چجوری رفتار می‌کنن ساخته شد. بدون نیاز به میلیاردها دلار یا سال‌ها تحقیق.

Open-source هست! نسخه 405B هفته بعد میاد، شاید dataset هم منتشر کنن. یه سیل نوآوری داره میاد!

شرکت‌های بزرگ فناوری احتمالاً دارن به خودشون میپیچن. مدل‌هاشون که اغلب توسط محققای بی‌تجربه ساخته شدن، الان قدیمی به نظر میان. System prompt گراک خجالت‌آوره. Claude قبلاً این کارو با prompting می‌کنه (ازش بخواه با دقت فکر کنه، می‌بینی که کندتر جواب میده، چون رابط کاربریش متن بین تگ‌های <Thinking></Thinking> رو نشون نمیده)، ولی fine-tune کردنش می‌تونه یه ارتقاء آسون باشه.

بذارید واضح بگم: مدل‌ها تو یکی دو ماه آینده خیلی بهتر میشن. کار مت ساده‌ست، و هنوز کلی پیشرفت آسون دیگه هست که میشه کرد.

مثلاً، اگه به یه مدل بگی "اگه درست جواب بدی 20 دلار انعام میدم" یا "شغلم به این بستگی داره"، جواب‌های بهتری میگیری. با آموزش بهتر، شاید دیگه نیازی به این کارا نباشه.

Chain-of-Thought و Self-Reflection هم خیلی ساده‌ن، و این با یه مجموعه داده مصنوعی ساخته شده. فکرشو بکن اگه از آدما واسه جمع‌آوری یه مجموعه داده خیلی بهتر استفاده می‌کردیم چی می‌شد! یا اگه با انواع دیگه CoT، خود-بازتابی، استدلال چند عاملی و غیره آزمایش می‌کردیم چی؟ کلی چیز هست که میشه امتحان کرد، و لازم نیست تو OpenAI باشی تا امتحانشون کنی!

تو درازمدت، شاید مدل‌ها نیازی به fine-tune کردن CoT/Reflection نداشته باشن، شاید این جور فکر کردن عمیقاً توشون جا بیفته. فعلاً که یه برد آسونه.

آره، کُندتره - یه مرحله استدلال اضافه می‌کنه. ولی وقتی Groq/Cerebras داره 1800+ توکن در ثانیه میزنه، مگه فرقی می‌کنه؟ هر نمره IQ واسه یه مدل حیاتیه. من با کمال میل 100 میلی‌ثانیه واسه نتایج بهتر صبر می‌کنم.

آینده AI فقط مدل‌های بزرگتر نیست. آموزش هوشمندتر و تفکر شبیه انسانه. و ممکنه از دست مهندسا بیاد، نه دکترا.

این تازه اولشه. چشماتونو باز نگه دارین! 👀💡
5🍌2👍1
خبر داغ! 🔥 OpenAI دوباره همه رو شگفت‌زده کرده! مدل جدیدشون به اسم o1 اومده و داره مرزهای هوش مصنوعی رو جابجا می‌کنه. این مدل با یه ویژگی خاص طراحی شده: قبل از جواب دادن، مثل انسان‌ها فکر می‌کنه!

بذارید از عملکرد خیره‌کننده‌ش بگم:

1️⃣ تو مسابقات برنامه‌نویسی Codeforces، o1 از 89٪ رقبای انسان بهتر عمل کرده! این یعنی تو کدنویسی داره حرفه‌ای‌ها رو هم پشت سر میذاره.

2️⃣ تو المپیاد ریاضی آمریکا (AIME 2024)، o1 تونسته 83.3٪ سوال‌ها رو درست جواب بده. مقایسه‌ش با GPT-4 که فقط 13.4٪ رو درست زده بود نشون میده چقدر پیشرفت کرده!

3️⃣ حتی تو سوالات سطح دکترا هم عالی عمل کرده:

شیمی: o1 64.7٪ vs. GPT-4 40.2٪
فیزیک: o1 92.8٪ vs. GPT-4 59.5٪
زیست‌شناسی: o1 69.2٪ vs. GPT-4 61.6٪
4️⃣ تو آزمون‌های استاندارد هم حسابی درخشیده:

LSAT (آزمون ورودی حقوق): o1 95.6٪ vs. GPT-4 69.5٪
AP Calculus (ریاضیات پیشرفته): o1 83.3٪ vs. GPT-4 71.3٪
5️⃣ تو معیارهای تخصصی هوش مصنوعی هم پیشتاز بوده:

MATH: o1 94.8 vs. GPT-4 60.3
MathVista: o1 73.2 vs. GPT-4 63.8
MMLU: o1 92.3 vs. GPT-4 88.0
اما راز موفقیت o1 چیه؟ OpenAI میگه این مدل از تکنیک‌های یادگیری تقویتی استفاده می‌کنه تا یاد بگیره چطور مثل انسان‌ها فکر کنه. یعنی قبل از جواب دادن، یه زنجیره طولانی از افکار رو طی می‌کنه - درست مثل وقتی که ما با یه سوال سخت روبرو میشیم!

جالب‌تر اینکه، هر چقدر بیشتر به o1 اجازه فکر کردن بدیم، نتایجش بهتر میشه. این نشون میده که مدل داره واقعاً یاد می‌گیره چطور مسائل پیچیده رو حل کنه.

البته OpenAI میگه هنوز کار داره تا o1 به راحتی مدل‌های فعلی قابل استفاده بشه، اما یه نسخه اولیه رو برای ChatGPT و کاربران API منتشر کرده.

این پیشرفت‌ها نشون میده که هوش مصنوعی داره به سرعت به سطح تفکر انسانی نزدیک میشه. آینده AI واقعاً هیجان‌انگیزه! 🤖🧠💡

نظرتون چیه؟ فکر می‌کنید این پیشرفت‌ها چه تأثیری روی آینده کار و زندگی ما خواهد داشت؟ 🤔
🔥8👍2😢211👏1
یه پیچ جالب تو داستان هست که شاید از چشم خیلی‌ها دور مونده باشه!

دوستان، OpenAI تصمیم گرفته "زنجیره فکر" مدل o1 رو مخفی نگه داره. این یعنی چی و چرا مهمه؟ بیاین باهم بررسی کنیم:

1️⃣ کنترل بیشتر: این نشون میده OpenAI داره به سمت کنترل بیشتر روی تکنولوژیش میره. یادتونه زمانی که همه چیزشون open source بود؟ حالا انگار اوضاع فرق کرده!

2️⃣ جلوگیری از سوءاستفاده: از یه طرف، پنهان کردن زنجیره فکر میتونه به OpenAI کمک کنه جلوی سوءاستفاده‌های احتمالی رو بگیره. مثلاً میتونن مطمئن بشن که مدل قصد دستکاری کاربر رو نداره.

3️⃣ کاهش شفافیت: اما این کار شفافیت رو کم می‌کنه. ما به عنوان کاربر نمی‌تونیم دقیقاً بفهمیم AI چطور به جوابش رسیده. این برای محققان و منتقدان نگران‌کننده‌ست.

4️⃣ آزادی فکر AI: جالب‌تر اینکه، OpenAI میگه نمی‌خواد هیچ سیاستی رو روی زنجیره فکر اعمال کنه. یعنی می‌خوان "ذهن خام" AI رو ببینن، حتی اگه با ارزش‌های ما همخونی نداشته باشه!

5️⃣ تعادل بین شفافیت و رقابت: اینکه فقط یه خلاصه از زنجیره فکر رو نشون میدن، نشون میده دارن بین شفافیت و مزیت رقابتی تعادل برقرار می‌کنن.

اما یه نکته مهم‌تر هست که باید بهش توجه کنیم:

6️⃣ مزیت رقابتی، اسم رمز بازی: شاید دلایلی که OpenAI میگه فقط یه پوشش باشه. واقعیت اینه که اگه زنجیره افکار رو نشون ندن، رقبا نمی‌تونن ازش برای جمع‌آوری داده‌های با کیفیت و ساخت مدل‌های مشابه استفاده کنن.

7️⃣ تأثیر بر جامعه open source: این کار می‌تونه جلوی پیشرفت سریع جامعه open source در هوش مصنوعی رو بگیره. یادمون باشه که استفاده از مدل‌های برتر برای تولید داده‌های مصنوعی با کیفیت، یکی از دلایل اصلی پیشرفت سریع این جامعه بوده.

حالا سوال اینجاست: آیا این رویکرد درسته؟ 🤔

از یه طرف، این استراتژی می‌تونه به پیشرفت سریع‌تر OpenAI کمک کنه. اما از طرف دیگه، ممکنه باعث بشه جامعه علمی و عموم مردم کمتر بتونن روی توسعه AI نظارت داشته باشن و شکاف بین شرکت‌های بزرگ و جامعه open source بیشتر بشه.

به نظر من، ما باید مراقب باشیم. درسته که پیشرفت مهمه، اما شفافیت و اخلاق هم همینطور. شاید وقتشه که ما به عنوان جامعه، یه گفتگوی جدی در مورد اینکه چطور می‌خوایم AI توسعه پیدا کنه، داشته باشیم.

نظر شما چیه؟ فکر می‌کنید این رویکرد OpenAI در بلندمدت چه تأثیری روی توسعه AI، جامعه علمی و حتی دموکراتیزه شدن هوش مصنوعی خواهد داشت؟ 🌐🤖

#OpenAI #AI #Ethics #Technology #Future #OpenSource
👍62👎1👏1😱1😢1
2025/10/21 09:22:46
Back to Top
HTML Embed Code: