This media is not supported in your browser
VIEW IN TELEGRAM
لینوس توروالدز میگوید که هوش مصنوعی دنیا را تغییر خواهد داد، اما در حال حاضر 90٪ آن بازاریابی و 10٪ واقعیت است و حدود 5 سال دیگر طول میکشد تا مشخص شود که هوش مصنوعی واقعاً برای چه چیزهایی مفید است.
👍64👎7👌1
This media is not supported in your browser
VIEW IN TELEGRAM
Runway
یک قابلیت جدید به نام "Act-One" ایجاد کرده که به شما اجازه میده بدون نیاز به تجهیزات پیچیده مثل موشن کپچر یا تنظیم حرکات شخصیتها، یه اجرای زنده و طبیعی از شخصیتهای دیجیتال ایجاد کنین.
فقط با استفاده از یه ویدئوی ساده (که مثلا از یک نفر ضبط شده) و یک تصویر از شخصیت مورد نظر، میتونید حرکات و احساسات اون شخصیت رو به شکلی واقعی تولید کنید. این قابلیت در نسخه Gen-3 Alpha ارائه شده.
https://runwayml.com/research/introducing-act-one
یک قابلیت جدید به نام "Act-One" ایجاد کرده که به شما اجازه میده بدون نیاز به تجهیزات پیچیده مثل موشن کپچر یا تنظیم حرکات شخصیتها، یه اجرای زنده و طبیعی از شخصیتهای دیجیتال ایجاد کنین.
فقط با استفاده از یه ویدئوی ساده (که مثلا از یک نفر ضبط شده) و یک تصویر از شخصیت مورد نظر، میتونید حرکات و احساسات اون شخصیت رو به شکلی واقعی تولید کنید. این قابلیت در نسخه Gen-3 Alpha ارائه شده.
https://runwayml.com/research/introducing-act-one
👍12❤2🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
نسخه جدید Claude 3.5 Sonnet میتونه دستورات کاربر را دنبال کنه و نشانگر ماوس را روی صفحه کامپیوتر حرکت بده، روی مکانهای مرتبط کلیک کنه و از طریق یک کیبورد مجازی اطلاعات وارد کنه، به شکلی که تعامل افراد با کامپیوتر خودشون رو شبیهسازی میکنه.
https://www.anthropic.com/news/developing-computer-use
https://www.anthropic.com/news/developing-computer-use
👍14👎2
مایکروسافت فریم ورک متن باز مدل های1-bit رو منتشر کرد.
این فریم ورک همون کدی هست که در مقاله ی بسیار معروف امسال به نام "The Era of 1-bit LLMs" معرفی شده، مقاله ای که شاید بشه ازش به عنوان یکی از مهمترین مقالات سال 2024 نام برد.
https://github.com/microsoft/BitNet
این مقاله دو نکته بسیار مهم داشت، یکی جایگزینی مقادیر شناور با مقادیر سه گانه (-1، 0، 1) بود دومی جایگزینی ضرب های عنصر به عنصر با جمع های عنصر به عنصر بود
این فریم ورک همون کدی هست که در مقاله ی بسیار معروف امسال به نام "The Era of 1-bit LLMs" معرفی شده، مقاله ای که شاید بشه ازش به عنوان یکی از مهمترین مقالات سال 2024 نام برد.
https://github.com/microsoft/BitNet
این مقاله دو نکته بسیار مهم داشت، یکی جایگزینی مقادیر شناور با مقادیر سه گانه (-1، 0، 1) بود دومی جایگزینی ضرب های عنصر به عنصر با جمع های عنصر به عنصر بود
GitHub
GitHub - microsoft/BitNet: Official inference framework for 1-bit LLMs
Official inference framework for 1-bit LLMs. Contribute to microsoft/BitNet development by creating an account on GitHub.
👌3
Tensorflow(@CVision)
مایکروسافت فریم ورک متن باز مدل های1-bit رو منتشر کرد. این فریم ورک همون کدی هست که در مقاله ی بسیار معروف امسال به نام "The Era of 1-bit LLMs" معرفی شده، مقاله ای که شاید بشه ازش به عنوان یکی از مهمترین مقالات سال 2024 نام برد. https://github.com/microsoft/BitNet…
معمولا از مقادیر شناور مثل FP16 یا FP32 برای پارامترها استفاده میشه که می تونن دامنه وسیعی از اعداد رو با دقت بالا نمایندگی کنن، اما خوب فضای زیادی رو اشغال میکنن با استفاده از فقط سه مقدار مشخص (-1، 0، 1)، نیاز به فضای ذخیره سازی برای پارامترهای مدل به طور قابل توجهی کاهش پیدا میکنه. به جای اینکه برای هر پارامتر 16 یا 32 بیت نیاز داشته باشیم، به طور میانگین فقط به 1.58 بیت نیاز داریم.(log2 [3]=1.58)
این بهبود باعث میشه مدلها کوچکتر و راحت تر بارگذاری بشن .از طرفی مقادیر سه گانه محاسبات رو ساده تر میکنه چون پیچیدگی عملیات ریاضی در ضرب ماتریسی رو کاهش میده، و باعث میشه فرآیندهای آموزش و استنتاج سریع تر بشن.
در ضربهای ماتریسی، حاصل ضرب نقطه ای با استفاده از ضرب عنصر به عنصر و سپس جمع به دست میاد این میتونه محاسبات سنگینی داشته باشه، به ویژه برای ماتریسهای بزرگ. اما با تغییر عملیات از ضرب به جمع، بار محاسباتی به طور قابل توجهی کاهش پیدا میکنه.
به عنوان مثال، میتونیم حاصل ضرب نقطه ای رو فقط با جمع ها محاسبه کنیم و از نشانه های مقادیر سه گانه برای حفظ خروجی مورد نظر استفاده کنیم.
این بهبود باعث میشه مدلها کوچکتر و راحت تر بارگذاری بشن .از طرفی مقادیر سه گانه محاسبات رو ساده تر میکنه چون پیچیدگی عملیات ریاضی در ضرب ماتریسی رو کاهش میده، و باعث میشه فرآیندهای آموزش و استنتاج سریع تر بشن.
در ضربهای ماتریسی، حاصل ضرب نقطه ای با استفاده از ضرب عنصر به عنصر و سپس جمع به دست میاد این میتونه محاسبات سنگینی داشته باشه، به ویژه برای ماتریسهای بزرگ. اما با تغییر عملیات از ضرب به جمع، بار محاسباتی به طور قابل توجهی کاهش پیدا میکنه.
به عنوان مثال، میتونیم حاصل ضرب نقطه ای رو فقط با جمع ها محاسبه کنیم و از نشانه های مقادیر سه گانه برای حفظ خروجی مورد نظر استفاده کنیم.
👍19
This media is not supported in your browser
VIEW IN TELEGRAM
استوارت راسل میگوید که تا پایان این دهه، هوش مصنوعی ممکن است در تمام ابعاد از تواناییهای انسان فراتر رود و کارها را به صورت رایگان انجام دهد. بنابراین، ممکن است شغلهای بیشتری ایجاد شود، اما این شغلها دیگر برای انسانها نخواهند بود.
👌14👎4
Deep learning channel
تبدیل متن به گفتار فارسی: A convolutional sequence to sequence model for Persian text to speech کد و وزن های آموزش داده شده: https://github.com/AlisterTA/Persian-text-to-speech نمونه خروجی :( با صدای مریم محبوب) https://m.soundcloud.com/12211221212/sets/persian…
Audio
نیک بوستروم توی کتاب Superintelligence میگه که نورونهای زیستی با سرعتی حدود ۲۰۰ هرتز کار میکنن، یعنی حدودا هفت مرتبه کند تر از یه ریزپردازنده ی قدیمی که روی ۲ گیگاهرتز کار میکنه.
سال 2018 بعد از انتشار مقاله Attention is all you need این کار رو انجام دادم، تصورش سخت بود که روزی بتونم هر آهنگی با هر سبکی رو بسازم.
پتانسیل هوش مصنوعی در حوزههای مختلف، مثل یه تابع نمایی در یک فضای چند بعدی به صورت شگفت انگیزی در حال گسترشه.
کسایی که به قواعد و الگوهای دنیای خطی پایبندن، مثل تابعی با دقت محدود، در مقابل این تحول عظیم به طور حتم در معرض خطر عقب ماندگی قرار خواهند گرفت.
اینم یه آهنگ عاشقانه از عشق دیجیتال (مدل کلمات ماتریس، بایت و کد رو نمیتونه درست تلفظ کن چون توی داده های آموزشی نبودن)
سال 2018 بعد از انتشار مقاله Attention is all you need این کار رو انجام دادم، تصورش سخت بود که روزی بتونم هر آهنگی با هر سبکی رو بسازم.
پتانسیل هوش مصنوعی در حوزههای مختلف، مثل یه تابع نمایی در یک فضای چند بعدی به صورت شگفت انگیزی در حال گسترشه.
کسایی که به قواعد و الگوهای دنیای خطی پایبندن، مثل تابعی با دقت محدود، در مقابل این تحول عظیم به طور حتم در معرض خطر عقب ماندگی قرار خواهند گرفت.
اینم یه آهنگ عاشقانه از عشق دیجیتال (مدل کلمات ماتریس، بایت و کد رو نمیتونه درست تلفظ کن چون توی داده های آموزشی نبودن)
👍12👏3👎2❤1
خیلی از مدل های زبانی بزرگ مثل Chatgpt اشتباهات رایجی رو انجام میدن. به عنوان مثال سوالی که توی تصویر از Chatgpt پرسیدم در نظر بگیرین.
خیلی از مدلها به طور نادرست میگن که 9.8 از 9.11 کوچکتره، اما آیا میتونیم مفاهیم غلطی که در مدل باعث این اشتباه شده رو شناسایی کنیم و برطرف کنیم؟
وقتی یه مدل زبانی به شکلی غیرمنتظره رفتار میکنه، درک و پیدا کردن عامل این کار میتونه به ما کمک کنه تا مشکلات مدلهای زبانی رو پیشبینی و حل کنیم، دانش پنهان رو شناسایی و تعصبات و ارتباطات غلط داخل مدل رو پیدا کنیم اما پاسخ به این سوالا کار آسونی نیست، چون دادههای زیرساختی پیچیده هستن.
فرایند تفکر در مدلهای زبانی به شکل مجموعه ای از اعداد شناور غیرقابل فهم نمایان میشن که باید به مفاهیم قابل فهم برای انسانها تبدیل بشن.
خیلی از مدلها به طور نادرست میگن که 9.8 از 9.11 کوچکتره، اما آیا میتونیم مفاهیم غلطی که در مدل باعث این اشتباه شده رو شناسایی کنیم و برطرف کنیم؟
وقتی یه مدل زبانی به شکلی غیرمنتظره رفتار میکنه، درک و پیدا کردن عامل این کار میتونه به ما کمک کنه تا مشکلات مدلهای زبانی رو پیشبینی و حل کنیم، دانش پنهان رو شناسایی و تعصبات و ارتباطات غلط داخل مدل رو پیدا کنیم اما پاسخ به این سوالا کار آسونی نیست، چون دادههای زیرساختی پیچیده هستن.
فرایند تفکر در مدلهای زبانی به شکل مجموعه ای از اعداد شناور غیرقابل فهم نمایان میشن که باید به مفاهیم قابل فهم برای انسانها تبدیل بشن.
👍10👌2
Tensorflow(@CVision)
خیلی از مدل های زبانی بزرگ مثل Chatgpt اشتباهات رایجی رو انجام میدن. به عنوان مثال سوالی که توی تصویر از Chatgpt پرسیدم در نظر بگیرین. خیلی از مدلها به طور نادرست میگن که 9.8 از 9.11 کوچکتره، اما آیا میتونیم مفاهیم غلطی که در مدل باعث این اشتباه شده رو…
حالا یه تیم از محققین MIT و دانشگاه برکلی یک ابزار هوش مصنوعی توسعه دادن که میتونه نرون هایی که باعث بروز چنین خطایی در مدل میشه رو شناسایی و بدون آموزش مجدد مدل زبانی رفتارشون رو اصلاح کنه.
این ابزار که Monitor نام داره میتونه دلیل چنین خطایی رو کشف کنه. همونطور که در تصویر مشخصه دلیل چنین خطایی در مدل Llama به فعال شدن تعدادی از نورونهاست که با اتفاق یازدهم سپتامبر و آیات کتاب مقدس مرتبطن.
حملات 11 سپتامبر و عواقب تروریسم:
6 نورون مرتبط
شمارههای فصل و آیههای کتاب مقدس:
4 نورون مرتبط
ترکیبهای شیمیایی و فرمولهای مولکولی:
3 نورون مرتبط
ماهها و سالها:
4 نورون مرتبط
این اطلاعات نشون میده که مدل به شدت تحت تأثیر برخی مفاهیم خاص قرار داره و این دسته از نرون ها میتونن به شناسایی الگوهای رفتاری و مشکلات موجود در مدل کمک کنه. با حذف این نورونها، مدل Llama جواب صحیحی میده.
به طور کلی، حذف نورونهای مرتبط با آیات کتاب مقدس دقت مقایسه رو تا ۲۱ درصد افزایش میده.
اینجا میتونید مشکلات مدل رو بررسی کنید:
https://monitor.transluce.org/dashboard/chat
مقاله:
https://transluce.org/observability-interface
این ابزار که Monitor نام داره میتونه دلیل چنین خطایی رو کشف کنه. همونطور که در تصویر مشخصه دلیل چنین خطایی در مدل Llama به فعال شدن تعدادی از نورونهاست که با اتفاق یازدهم سپتامبر و آیات کتاب مقدس مرتبطن.
حملات 11 سپتامبر و عواقب تروریسم:
6 نورون مرتبط
شمارههای فصل و آیههای کتاب مقدس:
4 نورون مرتبط
ترکیبهای شیمیایی و فرمولهای مولکولی:
3 نورون مرتبط
ماهها و سالها:
4 نورون مرتبط
این اطلاعات نشون میده که مدل به شدت تحت تأثیر برخی مفاهیم خاص قرار داره و این دسته از نرون ها میتونن به شناسایی الگوهای رفتاری و مشکلات موجود در مدل کمک کنه. با حذف این نورونها، مدل Llama جواب صحیحی میده.
به طور کلی، حذف نورونهای مرتبط با آیات کتاب مقدس دقت مقایسه رو تا ۲۱ درصد افزایش میده.
اینجا میتونید مشکلات مدل رو بررسی کنید:
https://monitor.transluce.org/dashboard/chat
مقاله:
https://transluce.org/observability-interface
👍24😁4❤3🤯3
به نظرتون چطور میتونیم بدون صرف بودجه زیاد، آموزش مجدد، توانایی یه مدل زبانی رو توی استدلال کردن ارتقا بدیم؟
برای این کار ابتدا باید نگاهی به موضوع عدم قطعیت در مدلهای زبانی داشته باشیم و یه تعریف دقیق براش ارایه بدیم.
همونطور که میدونید توی مرحله نمونه گیری(Sampling)، مدل زبانی تصمیم می گیره که کدوم واژه (توکن) رو از بین واژه های احتمالی انتخاب کنه.
هرچقدر مدل توزیع احتمالات واژهها (logits) رو یکنواخت تر ببینه، به همون میزان در تصمیم خودش تردید بیشتری داره و هر چقدر از یه گزینه مطمئن تر باشه، احتمال انتخاب یه واژه رو به طور مشخص بالا می بینه.
Entropix چیه؟
روش Entropix به ما کمک میکنه وقتی مدل توی انتخاب توکن دچار تردیده، با استفاده از نمونه گیری تطبیقی، تصمیم بهتری بگیریم.
این روش بر اساس میزان عدم قطعیت، تکنیکهای مختلفی برای انتخاب توکن بعدی ارائه میده که در ادامه بهشون میپردازم، اما قبل از پرداختن به این موضوع بایستی اضافه کنم که عدم قطعیت همیشه بد نیست.
به عنوان مثال در مواردی ممکنه این عدم قطعیت در انتخاب توکن بعدی مربوط به یه کلمه مترادف باشه مثل "خوب" و "عالی".
ادامه دارد...
برای این کار ابتدا باید نگاهی به موضوع عدم قطعیت در مدلهای زبانی داشته باشیم و یه تعریف دقیق براش ارایه بدیم.
همونطور که میدونید توی مرحله نمونه گیری(Sampling)، مدل زبانی تصمیم می گیره که کدوم واژه (توکن) رو از بین واژه های احتمالی انتخاب کنه.
هرچقدر مدل توزیع احتمالات واژهها (logits) رو یکنواخت تر ببینه، به همون میزان در تصمیم خودش تردید بیشتری داره و هر چقدر از یه گزینه مطمئن تر باشه، احتمال انتخاب یه واژه رو به طور مشخص بالا می بینه.
Entropix چیه؟
روش Entropix به ما کمک میکنه وقتی مدل توی انتخاب توکن دچار تردیده، با استفاده از نمونه گیری تطبیقی، تصمیم بهتری بگیریم.
این روش بر اساس میزان عدم قطعیت، تکنیکهای مختلفی برای انتخاب توکن بعدی ارائه میده که در ادامه بهشون میپردازم، اما قبل از پرداختن به این موضوع بایستی اضافه کنم که عدم قطعیت همیشه بد نیست.
به عنوان مثال در مواردی ممکنه این عدم قطعیت در انتخاب توکن بعدی مربوط به یه کلمه مترادف باشه مثل "خوب" و "عالی".
ادامه دارد...
👍15💯1
Tensorflow(@CVision)
به نظرتون چطور میتونیم بدون صرف بودجه زیاد، آموزش مجدد، توانایی یه مدل زبانی رو توی استدلال کردن ارتقا بدیم؟ برای این کار ابتدا باید نگاهی به موضوع عدم قطعیت در مدلهای زبانی داشته باشیم و یه تعریف دقیق براش ارایه بدیم. همونطور که میدونید توی مرحله نمونه…
چطور عدمقطعیت رو اندازه بگیریم؟
تو این روش دو معیار اصلی با نام Entropy و Varentropy وجود داره:
آنتروپی(Entropy): نشون میده چقدر احتمالات واژهها با هم فرق دارن، یعنی اگه آنتروپی کم باشه، مدل روی یکی دو گزینه مطمئنه، ولی اگه زیاد باشه، همه گزینه ها احتمال نزدیکی دارن و مدل تردید داره.
واران تروپی(Varentropy): شکل عدم قطعیت رو نشون میده، واران تروپی بالا یعنی برخی احتمالات خیلی متفاوتن و به صورت قله های مختلف ظاهر میشن.
به عبارت ساده تر توزیع اختلاف بین احتمالات رو بررسی میکنه و نشون میده آیا مدل چند قله (انتخابهای برجسته) داره یا نه.
از ترکیب این دو معیار میتونیم چهار حالت ایجاد کنیم:
آنتروپی پایین، واران تروپی پایین: یعنی مدل به شدت به یک گزینه خاص مطمئنه و احتمال این گزینه بسیار بیشتر از بقیه ست. بنابراین، توزیع احتمالات شکل تیز و متمرکزی داره و تنها یک نتیجه غالبه.
آنتروپی پایین، واران تروپی بالا: توی این حالت، آنتروپی پایینه (مدل تقریبا مطمئنه) ولی واران تروپی بالا است. یعنی مدل چند گزینه برجسته با احتمال زیاد میبینه که از بقیه متمایز هستن. بنابراین، به جای یه نتیجه قطعی، چند گزینه از احتمالات برجسته وجود داره.
آنتروپی بالا، واران تروپی پایین: همه گزینه ها شبیه به هم هستن و مدل تردید داره.
توی این حالت، آنتروپی بالاست (مدل شک و تردید زیادی داره) ولی واران تروپی پایینه. یعنی مدل بین همه گزینه ها مردده و احتمالات نزدیک به هم هستن، توزیع به شکل تقریبا یکنواخته و تفاوت زیادی بین احتمال گزینهها وجود نداره.
آنتروپی بالا، واران تروپی بالا: توی این حالت نهایی، هم آنتروپی و هم واران تروپی بالا ست. یعنی مدل در انتخاب تردید زیادی داره و همچنین تفاوت زیادی بین احتمالات گزینههای مختلف وجود داره. در نتیجه، توزیع گسترده و ناهماهنگه و چندین قله متفاوت با احتمالات متنوع در توزیع وجود داره.
ادامه دارد...
تو این روش دو معیار اصلی با نام Entropy و Varentropy وجود داره:
آنتروپی(Entropy): نشون میده چقدر احتمالات واژهها با هم فرق دارن، یعنی اگه آنتروپی کم باشه، مدل روی یکی دو گزینه مطمئنه، ولی اگه زیاد باشه، همه گزینه ها احتمال نزدیکی دارن و مدل تردید داره.
واران تروپی(Varentropy): شکل عدم قطعیت رو نشون میده، واران تروپی بالا یعنی برخی احتمالات خیلی متفاوتن و به صورت قله های مختلف ظاهر میشن.
به عبارت ساده تر توزیع اختلاف بین احتمالات رو بررسی میکنه و نشون میده آیا مدل چند قله (انتخابهای برجسته) داره یا نه.
از ترکیب این دو معیار میتونیم چهار حالت ایجاد کنیم:
آنتروپی پایین، واران تروپی پایین: یعنی مدل به شدت به یک گزینه خاص مطمئنه و احتمال این گزینه بسیار بیشتر از بقیه ست. بنابراین، توزیع احتمالات شکل تیز و متمرکزی داره و تنها یک نتیجه غالبه.
آنتروپی پایین، واران تروپی بالا: توی این حالت، آنتروپی پایینه (مدل تقریبا مطمئنه) ولی واران تروپی بالا است. یعنی مدل چند گزینه برجسته با احتمال زیاد میبینه که از بقیه متمایز هستن. بنابراین، به جای یه نتیجه قطعی، چند گزینه از احتمالات برجسته وجود داره.
آنتروپی بالا، واران تروپی پایین: همه گزینه ها شبیه به هم هستن و مدل تردید داره.
توی این حالت، آنتروپی بالاست (مدل شک و تردید زیادی داره) ولی واران تروپی پایینه. یعنی مدل بین همه گزینه ها مردده و احتمالات نزدیک به هم هستن، توزیع به شکل تقریبا یکنواخته و تفاوت زیادی بین احتمال گزینهها وجود نداره.
آنتروپی بالا، واران تروپی بالا: توی این حالت نهایی، هم آنتروپی و هم واران تروپی بالا ست. یعنی مدل در انتخاب تردید زیادی داره و همچنین تفاوت زیادی بین احتمالات گزینههای مختلف وجود داره. در نتیجه، توزیع گسترده و ناهماهنگه و چندین قله متفاوت با احتمالات متنوع در توزیع وجود داره.
ادامه دارد...
👍16💯1
Tensorflow(@CVision)
چطور عدمقطعیت رو اندازه بگیریم؟ تو این روش دو معیار اصلی با نام Entropy و Varentropy وجود داره: آنتروپی(Entropy): نشون میده چقدر احتمالات واژهها با هم فرق دارن، یعنی اگه آنتروپی کم باشه، مدل روی یکی دو گزینه مطمئنه، ولی اگه زیاد باشه، همه گزینه ها احتمال…
با توجه به مواردی که گفتم به یه تعریف دقیق از عدم قطعیت رسیدیم و روش هایی ایجاد کردیم که میتونیم میزان عدم قطعیت رو اندازه گیری کنیم و در نهایت نمونه گیری تطبیقی بر اساس دو معیار آنتروپی و واران تروپی ایجاد کنیم.
این کاریه که برخی از مدل های زبانی در فرآیند (CoT) یا زنجیره تفکر برای افزایش قدرت استدلال در زمان استنتاج انجام میدن:
توی حالت اول(آنتروپی پایین، واران تروپی پایین) مدل نه تنها به انتخاب اول خودش اطمینان داره، بلکه اگه انتخاب اول اشتباه باشه، میدونه که گزینه بعدی چه خواهد بود.
در این حالت، نمونه گیری تطبیقی پیشنهاد میکنه که از روش انتخاب بیشترین احتمال (argmax) استفاده کنیم، یعنی توکنی رو انتخاب کنیم که بالاترین احتمال رو داره.
تو حالت بعدی(آنتروپی پایین، واران تروپی بالا )، مدل چند گزینه رو با احتمال بالا پیش بینی میکنه.
این یه موقعیت پیچیده ست، شاید مدل داره به یه شاخه جدید از نتایج فکر می کنه یا فقط چند گزینه معادل مثل مترادف ها رو پیشنهاد میده.
توی این حالت می تونیم شاخه بندی یا branching کنیم، یعنی هر دو گزینه با احتمال بالا رو پیگیری کنیم و ببینیم هر کدوم به کجا میرسن و بعد از یه نقطه مشخص نتایج رو با هم مقایسه کنیم.
روشهای زیادی برای branching هست که البته خودش نیاز به توضیحات جدا داره.
بسته به نتیجه branching، میتونیم واکنشهای مختلفی داشته باشیم. مثلاً اگه به دو شاخه با اطمینان نسبتا یکسان برسیم (طبق آنتروپی و واران تروپی)، ولی محتوای هر شاخه متفاوت باشه، میتونیم این انتخاب رو به عنوان یه سوال از کاربر بپرسیم تا کمک کنه مسیر درست رو پیدا کنیم.(جدیدا به پاسخ های چت جی پی تی توجه کرده باشین برخی مواقع پاسخ های متفاوت میده و از کاربر میپرسه که کدوم پاسخ رو می پسنده)
حالت سوم (آنتروپی بالا، واران تروپی پایین)نشون دهندهی یه حالت عدم اطمینان در مدله.
مدل شاید داره چیزی رو می بینه که اصلا نمیشناسه، یا ممکنه تمام گزینهها از نظرش تقریبا مشابه و قابل جایگزینی باشن.
تو این شرایط، بهترین کار اینه که به مدل کمک کنیم تا به یه حالت اطمینان بالاتر برسه.
روش Entropix پیشنهاد میکنه که از یه توکن فکری"thinking token " به عنوان توکن بعدی استفاده کنیم، مثل " Wait.."
این توکن فکری رو توی خروجی مدل میگذاریم تا مدل متوجه بشه نیاز داره بیشتر روی جوابش فکر کنه و زمان بیشتری برای پردازش قبل از اینکه جواب نهایی رو بده، بذاره.
مثلاً اگه مدل میخواد بگه «پایتخت آلمان پاریسه» ولی مطمئن نیست، ممکنه توکن فکری رو اضافه کنه و نتیجه اش رو اینطور بگه: «پایتخت آلمان پاریسه... صبر کن، نه، درواقع برلینه».
در حالت آخر(آنتروپی بالا، واران تروپی بالا ) مدل هیچ انتخاب واضحی نداره، اما نسبت به بعضی خروجی ها اطمینان بیشتری داره. این یه وضعیت پیچیدهست.
میشه به این موضوع اینطور فکر کرد که هر کدوم از گزینه های برتر ممکنه انتخابهای خوبی باشن (مثلا ممکنه مترادف هم باشن)، پس میتونیم یکی رو به صورت تصادفی انتخاب کنیم که به این حالت higher temperature گفته میشه
https://github.com/xjdr-alt/entropix
این کاریه که برخی از مدل های زبانی در فرآیند (CoT) یا زنجیره تفکر برای افزایش قدرت استدلال در زمان استنتاج انجام میدن:
توی حالت اول(آنتروپی پایین، واران تروپی پایین) مدل نه تنها به انتخاب اول خودش اطمینان داره، بلکه اگه انتخاب اول اشتباه باشه، میدونه که گزینه بعدی چه خواهد بود.
در این حالت، نمونه گیری تطبیقی پیشنهاد میکنه که از روش انتخاب بیشترین احتمال (argmax) استفاده کنیم، یعنی توکنی رو انتخاب کنیم که بالاترین احتمال رو داره.
تو حالت بعدی(آنتروپی پایین، واران تروپی بالا )، مدل چند گزینه رو با احتمال بالا پیش بینی میکنه.
این یه موقعیت پیچیده ست، شاید مدل داره به یه شاخه جدید از نتایج فکر می کنه یا فقط چند گزینه معادل مثل مترادف ها رو پیشنهاد میده.
توی این حالت می تونیم شاخه بندی یا branching کنیم، یعنی هر دو گزینه با احتمال بالا رو پیگیری کنیم و ببینیم هر کدوم به کجا میرسن و بعد از یه نقطه مشخص نتایج رو با هم مقایسه کنیم.
روشهای زیادی برای branching هست که البته خودش نیاز به توضیحات جدا داره.
بسته به نتیجه branching، میتونیم واکنشهای مختلفی داشته باشیم. مثلاً اگه به دو شاخه با اطمینان نسبتا یکسان برسیم (طبق آنتروپی و واران تروپی)، ولی محتوای هر شاخه متفاوت باشه، میتونیم این انتخاب رو به عنوان یه سوال از کاربر بپرسیم تا کمک کنه مسیر درست رو پیدا کنیم.(جدیدا به پاسخ های چت جی پی تی توجه کرده باشین برخی مواقع پاسخ های متفاوت میده و از کاربر میپرسه که کدوم پاسخ رو می پسنده)
حالت سوم (آنتروپی بالا، واران تروپی پایین)نشون دهندهی یه حالت عدم اطمینان در مدله.
مدل شاید داره چیزی رو می بینه که اصلا نمیشناسه، یا ممکنه تمام گزینهها از نظرش تقریبا مشابه و قابل جایگزینی باشن.
تو این شرایط، بهترین کار اینه که به مدل کمک کنیم تا به یه حالت اطمینان بالاتر برسه.
روش Entropix پیشنهاد میکنه که از یه توکن فکری"thinking token " به عنوان توکن بعدی استفاده کنیم، مثل " Wait.."
این توکن فکری رو توی خروجی مدل میگذاریم تا مدل متوجه بشه نیاز داره بیشتر روی جوابش فکر کنه و زمان بیشتری برای پردازش قبل از اینکه جواب نهایی رو بده، بذاره.
مثلاً اگه مدل میخواد بگه «پایتخت آلمان پاریسه» ولی مطمئن نیست، ممکنه توکن فکری رو اضافه کنه و نتیجه اش رو اینطور بگه: «پایتخت آلمان پاریسه... صبر کن، نه، درواقع برلینه».
در حالت آخر(آنتروپی بالا، واران تروپی بالا ) مدل هیچ انتخاب واضحی نداره، اما نسبت به بعضی خروجی ها اطمینان بیشتری داره. این یه وضعیت پیچیدهست.
میشه به این موضوع اینطور فکر کرد که هر کدوم از گزینه های برتر ممکنه انتخابهای خوبی باشن (مثلا ممکنه مترادف هم باشن)، پس میتونیم یکی رو به صورت تصادفی انتخاب کنیم که به این حالت higher temperature گفته میشه
https://github.com/xjdr-alt/entropix
GitHub
GitHub - xjdr-alt/entropix: Entropy Based Sampling and Parallel CoT Decoding
Entropy Based Sampling and Parallel CoT Decoding . Contribute to xjdr-alt/entropix development by creating an account on GitHub.
👍10👏2👌2
Tensorflow(@CVision)
نسخه جدید Claude 3.5 Sonnet میتونه دستورات کاربر را دنبال کنه و نشانگر ماوس را روی صفحه کامپیوتر حرکت بده، روی مکانهای مرتبط کلیک کنه و از طریق یک کیبورد مجازی اطلاعات وارد کنه، به شکلی که تعامل افراد با کامپیوتر خودشون رو شبیهسازی میکنه. https://www.…
This media is not supported in your browser
VIEW IN TELEGRAM
چند روز پیش درباره نسخه جدید Claude 3.5 Sonnet نوشتم که تعامل و دستورات کاربر با کامپیوتر رو از طریق کیبورد مجازی یا صدا فراهم کرده.
کاری که احتمالا این مدل انجام میده شناسایی مطمئن آیکونها و عناصر قابل تعامل توی رابط کاربری و درک مفهوم و معنای عناصر مختلف در تصویر و ارتباط دقیق این عناصر با عملی که کاربر میخواد انجام بده، هست.
امروز مایکرسافت OmniParser رو به صورت متن باز ارائه کرد. OmniParser یه ماژول جمع و جور(با سرعت بالا) برای پردازش صفحه هست و میتونه عکس های رابط کاربری رو به عناصر ساختار یافته تبدیل کنه.
این ماژول رو میشه با مدل های مختلف متن باز زبانی تلفیق کرد تا عامل هایی ساخت که بتونن روی رابط های کاربری عمل کنن، مثل کاری که Claude 3.5 Sonnet انجام میده با این تفاوت که به صورت لوکال اجرا میشه و 100% در کنترل خودتونه.
کد :
https://github.com/microsoft/OmniParser
لینک مقاله:
https://arxiv.org/abs/2408.00203
کاری که احتمالا این مدل انجام میده شناسایی مطمئن آیکونها و عناصر قابل تعامل توی رابط کاربری و درک مفهوم و معنای عناصر مختلف در تصویر و ارتباط دقیق این عناصر با عملی که کاربر میخواد انجام بده، هست.
امروز مایکرسافت OmniParser رو به صورت متن باز ارائه کرد. OmniParser یه ماژول جمع و جور(با سرعت بالا) برای پردازش صفحه هست و میتونه عکس های رابط کاربری رو به عناصر ساختار یافته تبدیل کنه.
این ماژول رو میشه با مدل های مختلف متن باز زبانی تلفیق کرد تا عامل هایی ساخت که بتونن روی رابط های کاربری عمل کنن، مثل کاری که Claude 3.5 Sonnet انجام میده با این تفاوت که به صورت لوکال اجرا میشه و 100% در کنترل خودتونه.
کد :
https://github.com/microsoft/OmniParser
لینک مقاله:
https://arxiv.org/abs/2408.00203
👍4
بنظرم باید هر روز هر چه بیشتر به سمت مدل های متن باز حرکت کنیم، تصور اینکه مثلا Calude 3.5 Sonnet هر چند ثانیه یه اسکرین شات از کامپیوترم بگیره و از اون اطلاعات برای آموزش هوش مصنوعی خودش استفاده کنه تا دانش جدید بسازه و توانایی های خود مختاری رو پیدا کنه، به نظرتون این استفاده منصفانه حساب میشه؟
بخوام منطقی باشم بایستی اقرار کنم که خود مون همون داده ای هستیم که این مدل ها روش آموزش می بینن و این کار به جایی میرسه که شغل های بسیاری از افراد جامعه رو جایگزین می کنن و عموم مردم مجبور میشن برای تعداد شغل های کمتری بجنگن که در نتیجه به خاطر عرضه و تقاضا، حقوق هم کمتر میشه.
اگه مردم برای سهمی از این وضعیت جدید تلاش نکنن، تمام ارزش به سمت هوش مصنوعی، مدیران شرکت های تکنولوژی و ربات ها میره.
بزرگ ترین مشکل مدل های هوشمند فعلی و مدل های آینده ای که ممکنه به هوش عمومی مصنوعی (AGI) برسه، اینه که تمامشون تو حوزه خصوصی و تحت مالکیت سرمایه دارن هستن و اهمیتی به آسیبهای اجتماعی که ممکنه ایجاد کنن، نمیدن.
در عین حال، ثروتی که تولید می کنن، تو دست یه عده ی خیلی محدودی جمع می شه.
همین الان هم تقریبا تو خیلی از کسب وکارها از سطح بالای اتوماسیون استفاده می شه، ولی همچنان حس می کنیم که مردم بیشتر از همیشه کار میکنن، ساعت های بیشتری رو می گذرونن، با حقوق کمتر، مزایای کمتر، و به سختی می تونن گذران زندگی کنن.
چرا همچنان فکر میکنیم که AGI قراره کاری برای بهتر شدن جامعه و حل مشکلات فعلی بکنه؟
حداقل کاری که میکنه اینه که مشکلات موجود رو بزرگ تر و وسیع تر می کنه!
بخوام منطقی باشم بایستی اقرار کنم که خود مون همون داده ای هستیم که این مدل ها روش آموزش می بینن و این کار به جایی میرسه که شغل های بسیاری از افراد جامعه رو جایگزین می کنن و عموم مردم مجبور میشن برای تعداد شغل های کمتری بجنگن که در نتیجه به خاطر عرضه و تقاضا، حقوق هم کمتر میشه.
اگه مردم برای سهمی از این وضعیت جدید تلاش نکنن، تمام ارزش به سمت هوش مصنوعی، مدیران شرکت های تکنولوژی و ربات ها میره.
بزرگ ترین مشکل مدل های هوشمند فعلی و مدل های آینده ای که ممکنه به هوش عمومی مصنوعی (AGI) برسه، اینه که تمامشون تو حوزه خصوصی و تحت مالکیت سرمایه دارن هستن و اهمیتی به آسیبهای اجتماعی که ممکنه ایجاد کنن، نمیدن.
در عین حال، ثروتی که تولید می کنن، تو دست یه عده ی خیلی محدودی جمع می شه.
همین الان هم تقریبا تو خیلی از کسب وکارها از سطح بالای اتوماسیون استفاده می شه، ولی همچنان حس می کنیم که مردم بیشتر از همیشه کار میکنن، ساعت های بیشتری رو می گذرونن، با حقوق کمتر، مزایای کمتر، و به سختی می تونن گذران زندگی کنن.
چرا همچنان فکر میکنیم که AGI قراره کاری برای بهتر شدن جامعه و حل مشکلات فعلی بکنه؟
حداقل کاری که میکنه اینه که مشکلات موجود رو بزرگ تر و وسیع تر می کنه!
👍29👎4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
یان لِکون پیشبینی میکند که هوش مصنوعی در ۵ تا ۷ سال آینده به سطح هوش حیوانات خواهد رسید و در عرض یک دهه به سطح هوش انسان، اما این ممکن است بیشتر طول بکشد چون "احتمالی وجود دارد که مسائل سختتر از آنچه فکر میکنیم باشند."
👍15
متا نسخهای متن باز شبیه NotebookLM گوگل رو منتشر کرد.
هر چند مزیت NotebookLM گوگل داشتن پنجره ی زمینه (context window) با ظرفیت ۲ میلیون توکنه و میتونه به صورت هم زمان ۵۰ فایل PDF رو پردازش کنه. البته صداهای موجود در مدل زبانی گوگل واقعاً عالی هستن
https://github.com/meta-llama/llama-recipes/tree/main/recipes/quickstart/NotebookLlama
هر چند مزیت NotebookLM گوگل داشتن پنجره ی زمینه (context window) با ظرفیت ۲ میلیون توکنه و میتونه به صورت هم زمان ۵۰ فایل PDF رو پردازش کنه. البته صداهای موجود در مدل زبانی گوگل واقعاً عالی هستن
https://github.com/meta-llama/llama-recipes/tree/main/recipes/quickstart/NotebookLlama
👍11
امشب کمی در مورد خود بهبودی یا self-improvement در هوش مصنوعی بحث کنیم.
برای صدها سال، توانایی خود بهبود دهی یکی از اصول بنیادی درک ما از انسان بودن بوده، یعنی توانایی خود مختاری و ایجاد معنا به عنوان افراد و جمع ها.
حالا به نظرتون اگه انسان ها دیگه تنها موجودات خود بهبود دهنده در جهان نباشن، این چه معنی داره؟
یا چطور می خوایم از بین رفتن این درک استثنایی خودمون رو توجیه کنیم؟
برای پاسخ به این سوالا کمی برگ های تاریخ رو ورق بزنیم ببینیم این مفهوم از کی وارد هوش مصنوعی شد و حالا کجای این ماجرا قرار گرفتیم.
مفهوم هوش مصنوعی خود بهبود دهنده به گذشته ای دور برمیگرده. ریاضیدانی به نام I.J. Good توی سال 1965 درباره «انفجار هوش» نوشت، که می تونه منجر به ایجاد یک ماشین فوق هوشمند بشه.
بعدتر، توی سال 2007، یود کوسکی، که بنیانگذار LessWrong هست، اصطلاح Seed AI رو مطرح کرد. در خلال مطالب لینک ها رو میگذارم چون حاوی مطالب ارزشمندیه که نمیشه به اختصار اینجا در موردش نوشت.
https://www.historyofinformation.com/detail.php?id=2142
https://intelligence.org/files/LOGI.pdf
این اصطلاح به هوش مصنوعی اشاره داره که قابلیت خود بهبوی رو داراست. سال 2015 هم سم آلتمن توی وبلاگش به همین موضوع پرداخت و گفت این نوع سیستم ها هنوز کمی دور هستن ولی احتمالا بزرگ ترین تهدید برای ادامه بقای بشریت هستن هر چند در اون زمان این حرف ها هم به نوعی برای بزرگ کردن اهمیت و ارزش شرکت خودش مطرح شده بود.
https://blog.samaltman.com/machine-intelligence-part-1
ادامه دارد...
برای صدها سال، توانایی خود بهبود دهی یکی از اصول بنیادی درک ما از انسان بودن بوده، یعنی توانایی خود مختاری و ایجاد معنا به عنوان افراد و جمع ها.
حالا به نظرتون اگه انسان ها دیگه تنها موجودات خود بهبود دهنده در جهان نباشن، این چه معنی داره؟
یا چطور می خوایم از بین رفتن این درک استثنایی خودمون رو توجیه کنیم؟
برای پاسخ به این سوالا کمی برگ های تاریخ رو ورق بزنیم ببینیم این مفهوم از کی وارد هوش مصنوعی شد و حالا کجای این ماجرا قرار گرفتیم.
مفهوم هوش مصنوعی خود بهبود دهنده به گذشته ای دور برمیگرده. ریاضیدانی به نام I.J. Good توی سال 1965 درباره «انفجار هوش» نوشت، که می تونه منجر به ایجاد یک ماشین فوق هوشمند بشه.
بعدتر، توی سال 2007، یود کوسکی، که بنیانگذار LessWrong هست، اصطلاح Seed AI رو مطرح کرد. در خلال مطالب لینک ها رو میگذارم چون حاوی مطالب ارزشمندیه که نمیشه به اختصار اینجا در موردش نوشت.
https://www.historyofinformation.com/detail.php?id=2142
https://intelligence.org/files/LOGI.pdf
این اصطلاح به هوش مصنوعی اشاره داره که قابلیت خود بهبوی رو داراست. سال 2015 هم سم آلتمن توی وبلاگش به همین موضوع پرداخت و گفت این نوع سیستم ها هنوز کمی دور هستن ولی احتمالا بزرگ ترین تهدید برای ادامه بقای بشریت هستن هر چند در اون زمان این حرف ها هم به نوعی برای بزرگ کردن اهمیت و ارزش شرکت خودش مطرح شده بود.
https://blog.samaltman.com/machine-intelligence-part-1
ادامه دارد...
👍6❤1😱1
Tensorflow(@CVision)
امشب کمی در مورد خود بهبودی یا self-improvement در هوش مصنوعی بحث کنیم. برای صدها سال، توانایی خود بهبود دهی یکی از اصول بنیادی درک ما از انسان بودن بوده، یعنی توانایی خود مختاری و ایجاد معنا به عنوان افراد و جمع ها. حالا به نظرتون اگه انسان ها دیگه…
با اینکه مفهوم هوش مصنوعی خود بهبود دهنده توضیحش راحت تر از عملی کردنشه، محققین توی این زمینه موفقیت های نسبی هم به دست آوردن.
اما بیشتر تلاش ها به جای اینکه بخوان ویژگی های داخلی یا کد پایه مدل رو به صورت لحظه ای تغییر بدن، تمرکز روی استفاده از یک مدل زبانی بزرگ برای طراحی و آموزش یک مدل جانشین بهتر دارن.
به عبارت دیگه، این هم ادامه همون روش های قدیمی فناوریه که توش از ابزارها برای ساخت ابزارهای بهتر بهره میبریم یا از چیپ های کامپیوتری برای طراحی چیپ های جدید استفاده میکنیم.
مثلا فوریه امسال محققین متا یه مدل زبانی خود پاداش دهنده رو پیشنهاد کردن که برای ایجاد یک تابع پاداش جدید برای مدل بعدی طراحی شده بود. این تحقیق بخشی از همون سلسله تلاش هاست که تمرکز بر کم کردن ترجیحات انسانی در مدل های زبانی داره، تا مدل های زبانی در سطح عملکرد انسانی باقی نمونن.
به عبارت ساده تر، هدف مقالاتی مثل این کاهش وابستگی به ترجیحات انسانیه. با معرفی مدل های خود پاداش دهنده، سعی دارن به نوعی ظرفیت های هوش مصنوعی رو فراتر از محدودیت های انسانی گسترش بدن و به سمت پیشرفتهای بیشتر در طراحی و عملکرد مدل ها حرکت کنن.
https://arxiv.org/pdf/2401.10020
ادامه دارد...
اما بیشتر تلاش ها به جای اینکه بخوان ویژگی های داخلی یا کد پایه مدل رو به صورت لحظه ای تغییر بدن، تمرکز روی استفاده از یک مدل زبانی بزرگ برای طراحی و آموزش یک مدل جانشین بهتر دارن.
به عبارت دیگه، این هم ادامه همون روش های قدیمی فناوریه که توش از ابزارها برای ساخت ابزارهای بهتر بهره میبریم یا از چیپ های کامپیوتری برای طراحی چیپ های جدید استفاده میکنیم.
مثلا فوریه امسال محققین متا یه مدل زبانی خود پاداش دهنده رو پیشنهاد کردن که برای ایجاد یک تابع پاداش جدید برای مدل بعدی طراحی شده بود. این تحقیق بخشی از همون سلسله تلاش هاست که تمرکز بر کم کردن ترجیحات انسانی در مدل های زبانی داره، تا مدل های زبانی در سطح عملکرد انسانی باقی نمونن.
به عبارت ساده تر، هدف مقالاتی مثل این کاهش وابستگی به ترجیحات انسانیه. با معرفی مدل های خود پاداش دهنده، سعی دارن به نوعی ظرفیت های هوش مصنوعی رو فراتر از محدودیت های انسانی گسترش بدن و به سمت پیشرفتهای بیشتر در طراحی و عملکرد مدل ها حرکت کنن.
https://arxiv.org/pdf/2401.10020
ادامه دارد...
👍5❤2
Tensorflow(@CVision)
با اینکه مفهوم هوش مصنوعی خود بهبود دهنده توضیحش راحت تر از عملی کردنشه، محققین توی این زمینه موفقیت های نسبی هم به دست آوردن. اما بیشتر تلاش ها به جای اینکه بخوان ویژگی های داخلی یا کد پایه مدل رو به صورت لحظه ای تغییر بدن، تمرکز روی استفاده از یک…
با درخواست از یه مدل زبانی که خودش به عنوان قاضی عمل میکنه، محققان متا تونستن مدل های جدیدی بسازن که توی رقابت های خودکار و رو در رو با سایر مدل ها تو AlpacaEval عملکرد بهتری داشتن.
توی بخشی از مقاله قید شده که تنظیم دقیق Llama 2 70B در سه مرحله توسط روش پیشنهادی، منجر به ایجاد مدلی شد که از خیلی سیستم های موجود توی جدول ردهبندی AlpacaEval 2.0، از جمله Claude 2، Gemini Pro و GPT-4 0613، از نظر عملکرد جلو می زنه.
یا تو ماه ژوئن محققان Anthropic کاری شبیه به متا رو انجام دادن که مجموعه ای از مدل ها بود که قابلیت خود تغییری در تابع پاداش و پارامتر ها رو دارا بودن.
این موضوع میتونه برای طرفدارای داستان های علمی تخیلی نگران کننده باشه، چون نشون میده که مدل ها میتونن به طور خودکار از محدودیت هایی انسانی اعمال شده در اونها فرار کنن و کنترل ها رو دور بزنن.
https://arxiv.org/pdf/2406.10162
ادامه داره...
توی بخشی از مقاله قید شده که تنظیم دقیق Llama 2 70B در سه مرحله توسط روش پیشنهادی، منجر به ایجاد مدلی شد که از خیلی سیستم های موجود توی جدول ردهبندی AlpacaEval 2.0، از جمله Claude 2، Gemini Pro و GPT-4 0613، از نظر عملکرد جلو می زنه.
یا تو ماه ژوئن محققان Anthropic کاری شبیه به متا رو انجام دادن که مجموعه ای از مدل ها بود که قابلیت خود تغییری در تابع پاداش و پارامتر ها رو دارا بودن.
این موضوع میتونه برای طرفدارای داستان های علمی تخیلی نگران کننده باشه، چون نشون میده که مدل ها میتونن به طور خودکار از محدودیت هایی انسانی اعمال شده در اونها فرار کنن و کنترل ها رو دور بزنن.
https://arxiv.org/pdf/2406.10162
ادامه داره...
👍3
Tensorflow(@CVision)
با درخواست از یه مدل زبانی که خودش به عنوان قاضی عمل میکنه، محققان متا تونستن مدل های جدیدی بسازن که توی رقابت های خودکار و رو در رو با سایر مدل ها تو AlpacaEval عملکرد بهتری داشتن. توی بخشی از مقاله قید شده که تنظیم دقیق Llama 2 70B در سه مرحله توسط…
اینها فقط بخش کوچکی از تحقیقات خود بهبود دهی در زمینه هوش مصنوعیه Deepmind، Microsoft و Apple هم مقالات مشابهی منتشر کردن و به این مفهوم پرداختن.
با این حال، با توجه به تحقیقاتی که تا الان دیدیم ممکنه به اون لحظه پرواز هوش مصنوعی که بعضی ها فکر میکنن، نزدیک نباشیم.
جیم فان، مدیر ارشد تحقیقاتی Nvidia توی یه پست اشاره کرد که مدل های خود بهبود دهنده در محیط های تحقیقاتی معمولا بعد از سه دور پیشرفت به یه نقطه اشباع میرسن. بعد از اون، به جای اینکه به سمت فوق هوش برن، معمولا هر مدل جدید نتایج بدتری رو نسبت به مدل قبلی نشون میده.
مدل های هوشمند خود آموز میتونن در شرایطی که بهترین پاسخ مشخصه، مثل بازیهای رومیزی (GO)، نتایج فوق العادهای نشون بدن، اما وقتی از یه مدل زبانی عمومی خواسته میشه که خودش رو قضاوت و بهبود بده، ممکنه با مشکلاتی مواجه بشه.
مخصوصا وقتی به ارزیابی استدلال انتزاعی که بخش بزرگی از هوش انسانی رو تعریف می کنه، میرسه. ایشون میگه من هنوز نمایشی قانع کننده از مدل های زبانی خود بهبود دهنده ندیدم که به خوبی AlphaZero باشه، بازی هایی که مدل از صفر فقط با بازی کردن با خودش یاد میگیره.
https://x.com/DrJimFan/status/1754552129229140215
ادامه دارد...
با این حال، با توجه به تحقیقاتی که تا الان دیدیم ممکنه به اون لحظه پرواز هوش مصنوعی که بعضی ها فکر میکنن، نزدیک نباشیم.
جیم فان، مدیر ارشد تحقیقاتی Nvidia توی یه پست اشاره کرد که مدل های خود بهبود دهنده در محیط های تحقیقاتی معمولا بعد از سه دور پیشرفت به یه نقطه اشباع میرسن. بعد از اون، به جای اینکه به سمت فوق هوش برن، معمولا هر مدل جدید نتایج بدتری رو نسبت به مدل قبلی نشون میده.
مدل های هوشمند خود آموز میتونن در شرایطی که بهترین پاسخ مشخصه، مثل بازیهای رومیزی (GO)، نتایج فوق العادهای نشون بدن، اما وقتی از یه مدل زبانی عمومی خواسته میشه که خودش رو قضاوت و بهبود بده، ممکنه با مشکلاتی مواجه بشه.
مخصوصا وقتی به ارزیابی استدلال انتزاعی که بخش بزرگی از هوش انسانی رو تعریف می کنه، میرسه. ایشون میگه من هنوز نمایشی قانع کننده از مدل های زبانی خود بهبود دهنده ندیدم که به خوبی AlphaZero باشه، بازی هایی که مدل از صفر فقط با بازی کردن با خودش یاد میگیره.
https://x.com/DrJimFan/status/1754552129229140215
ادامه دارد...