Tensorflow(@CVision)
کار دیگه ای که شباهت هایی به مقاله قبلی داره کار آقای رامین حسنی از MIT هست. عنوان مقاله Liquid Time Constant Networks هست. این مدل در واقع نوعی شبکه عصبی پویا و انعطاف پذیره که برای پردازش اطلاعات در زمان و تصمیم گیری در شرایط پیچیده با الهام از ساختارهای…
توی ویدیو بالا توضیح میده که در مقایسه با مدلهای دیگه، برای انجام وظیفه ای مثل هدایت خودرو، مدل LTCN تنها به حدود ۱۹ نورون نیاز داره، در حالی که سایر مدل ها برای همون کار به هزاران نورون نیاز دارن.
از نکات مهم ارایه شده در این کار میشه به موارد زیراشاره کرد :
مدل می تونه همون نتایج شبکههای عصبی دیگه رو با ۱۰ تا ۲۰ برابر نورون کمتر به دست بیاره
این مدل روابط علی و معلولی دنیای واقعی رو یاد میگیره
توانایی فوق العادهای در تعمیم خارج از محدوده دادههای آموزشی داره، یعنی میتونه همون وظیفه رو توی شرایط کاملا متفاوت انجام بده
بدون نیاز به تعیین اهداف مشخص میتونه کار کنه
و در نهایت توی یادگیری تقلیدی بسیار خوب عمل می کنه
در واقع نوآوری کلیدی این مدل اینه که امکان تغییر سرعت هر نورون رو به صورت متغیر و لحظه ای فراهم میکنه.
همین ویژگی ساده باعث شده که این شبکهها به نتایج فوقالعادهای برسن. سخنرانی تد رو برای توضیحات بیشتر ببینید. نوشتن در موردش زمان زیادی میبره
ادامه دارد ...
https://www.ted.com/talks/ramin_hasani_liquid_neural_networks
از نکات مهم ارایه شده در این کار میشه به موارد زیراشاره کرد :
مدل می تونه همون نتایج شبکههای عصبی دیگه رو با ۱۰ تا ۲۰ برابر نورون کمتر به دست بیاره
این مدل روابط علی و معلولی دنیای واقعی رو یاد میگیره
توانایی فوق العادهای در تعمیم خارج از محدوده دادههای آموزشی داره، یعنی میتونه همون وظیفه رو توی شرایط کاملا متفاوت انجام بده
بدون نیاز به تعیین اهداف مشخص میتونه کار کنه
و در نهایت توی یادگیری تقلیدی بسیار خوب عمل می کنه
در واقع نوآوری کلیدی این مدل اینه که امکان تغییر سرعت هر نورون رو به صورت متغیر و لحظه ای فراهم میکنه.
همین ویژگی ساده باعث شده که این شبکهها به نتایج فوقالعادهای برسن. سخنرانی تد رو برای توضیحات بیشتر ببینید. نوشتن در موردش زمان زیادی میبره
ادامه دارد ...
https://www.ted.com/talks/ramin_hasani_liquid_neural_networks
❤9
Tensorflow(@CVision)
توی ویدیو بالا توضیح میده که در مقایسه با مدلهای دیگه، برای انجام وظیفه ای مثل هدایت خودرو، مدل LTCN تنها به حدود ۱۹ نورون نیاز داره، در حالی که سایر مدل ها برای همون کار به هزاران نورون نیاز دارن. از نکات مهم ارایه شده در این کار میشه به موارد زیراشاره…
مشکلی که توی مقاله قبلی وجود داره، علی رغم نکات بسیار مهم و کاربردی اینه که این مدل باbackpropagation و به صورت آفلاین آموزش دیده، اما نسخه ای از همین مدل شبکه وجود داره که میتونه به صورت آنلاین و در لحظه یاد بگیره، درست مثل مغز انسان!
در واقع این مقاله ترکیبی از کارهای قبلی به همراه شبکه های اسپایکی یا Spiking Neural Networksهست.
در شبکههای عصبی اسپایکی علاوه بر متغیرهای حالت نورونی و سیناپسی، مفهوم زمان نیز در مدل در نظر گرفته میشه. توی شبکههای عصبی معمولی، خروجی هر نورون در هر تکرار محاسبه و به روز رسانی میشه، اما در شبکههای عصبی اسپایکی، هر نورون تنها زمانی اسپایک تولید میکنه که پتانسیل غشای اون از یک حد آستانه بیشتر شده باشه.
شبکهعصبی اسپایکی در واقع نزدیک ترین بازسازی ساختار مغز انسانه.
ادامه دارد...
https://arxiv.org/abs/2112.11231
در واقع این مقاله ترکیبی از کارهای قبلی به همراه شبکه های اسپایکی یا Spiking Neural Networksهست.
در شبکههای عصبی اسپایکی علاوه بر متغیرهای حالت نورونی و سیناپسی، مفهوم زمان نیز در مدل در نظر گرفته میشه. توی شبکههای عصبی معمولی، خروجی هر نورون در هر تکرار محاسبه و به روز رسانی میشه، اما در شبکههای عصبی اسپایکی، هر نورون تنها زمانی اسپایک تولید میکنه که پتانسیل غشای اون از یک حد آستانه بیشتر شده باشه.
شبکهعصبی اسپایکی در واقع نزدیک ترین بازسازی ساختار مغز انسانه.
ادامه دارد...
https://arxiv.org/abs/2112.11231
arXiv.org
Accurate online training of dynamical spiking neural networks...
The event-driven and sparse nature of communication between spiking neurons in the brain holds great promise for flexible and energy-efficient AI. Recent advances in learning algorithms have...
👍7
Tensorflow(@CVision)
مشکلی که توی مقاله قبلی وجود داره، علی رغم نکات بسیار مهم و کاربردی اینه که این مدل باbackpropagation و به صورت آفلاین آموزش دیده، اما نسخه ای از همین مدل شبکه وجود داره که میتونه به صورت آنلاین و در لحظه یاد بگیره، درست مثل مغز انسان! در واقع این مقاله…
البته مقالات متنوعی در همین زمینه وجود داره و همه سعی کردن الگوریتم یادگیری رو طراحی کنن که شگفتی (یا عدم تطابق بین پیش بینی و واقعیت) رو به حداقل برسونه و پیش بینی های دقیقی ارائه بده.
به عبارتی همگی به یه نتیجه واحد میرسن اونم اینه که کم کردن شگفتی، یه اصل اساسی و بنیادین برای همه اتفاقاتیه که در مغز داره رخ میده ، از تفکر کلی گرفته تا رفتار تک تک نورون ها!
به طور خلاصه، ترکیب شبکههای LTCN با قانون یادگیری کاهش شگفتی میتونه به مدلی منجر بشه که نه تنها توانایی یادگیری طبیعی و کارآمدی داره، بلکه ساختارش به عملکرد واقعی مغز نزدیک تره.
اگر هر نورون بتونه شگفتی خودش در هر لحظه رو کاهش بده این رفتار در مقیاس بزرگ تر به الگوهای پیچیده ای از یادگیری و پیش بینی منجر میشه.
https://www.researchgate.net/publication/373262499_Sequence_anticipation_and_spike-timing-dependent_plasticity_emerge_from_a_predictive_learning_rule
https://www.researchgate.net/publication/326690440_Beyond_STDP-towards_diverse_and_functionally_relevant_plasticity_rules
هوش مصنوعی عمومی زمانی ایجاد میشه که مدل در تعامل مداوم با محیط واقعی باشه. تعامل دائمی با محیط واقعی به ما انسانها این امکان را میده که نیاز به پیش بینی در ۹۵٪ مواقع رو حذف کنیم.
به عبارت دیگه، این تعامل مداوم به ما این اجازه رو میده که از روتین های ساده تر استفاده کنیم که هنوز هم میتونن نتایج بسیار دقیقی به همراه داشته باشن.
از طرفی این موارد باعث میشه که در انرژی، محاسبات، و حافظه به طور قابل توجهی صرفه جویی شه. در نتیجه، نیاز به ذخیرهسازی ۹۵٪ از خاطرات و پیش بینیها نیز از بین میره.
به عبارتی همگی به یه نتیجه واحد میرسن اونم اینه که کم کردن شگفتی، یه اصل اساسی و بنیادین برای همه اتفاقاتیه که در مغز داره رخ میده ، از تفکر کلی گرفته تا رفتار تک تک نورون ها!
به طور خلاصه، ترکیب شبکههای LTCN با قانون یادگیری کاهش شگفتی میتونه به مدلی منجر بشه که نه تنها توانایی یادگیری طبیعی و کارآمدی داره، بلکه ساختارش به عملکرد واقعی مغز نزدیک تره.
اگر هر نورون بتونه شگفتی خودش در هر لحظه رو کاهش بده این رفتار در مقیاس بزرگ تر به الگوهای پیچیده ای از یادگیری و پیش بینی منجر میشه.
https://www.researchgate.net/publication/373262499_Sequence_anticipation_and_spike-timing-dependent_plasticity_emerge_from_a_predictive_learning_rule
https://www.researchgate.net/publication/326690440_Beyond_STDP-towards_diverse_and_functionally_relevant_plasticity_rules
هوش مصنوعی عمومی زمانی ایجاد میشه که مدل در تعامل مداوم با محیط واقعی باشه. تعامل دائمی با محیط واقعی به ما انسانها این امکان را میده که نیاز به پیش بینی در ۹۵٪ مواقع رو حذف کنیم.
به عبارت دیگه، این تعامل مداوم به ما این اجازه رو میده که از روتین های ساده تر استفاده کنیم که هنوز هم میتونن نتایج بسیار دقیقی به همراه داشته باشن.
از طرفی این موارد باعث میشه که در انرژی، محاسبات، و حافظه به طور قابل توجهی صرفه جویی شه. در نتیجه، نیاز به ذخیرهسازی ۹۵٪ از خاطرات و پیش بینیها نیز از بین میره.
ResearchGate
(PDF) Sequence anticipation and spike-timing-dependent plasticity emerge from a predictive learning rule
PDF | Intelligent behavior depends on the brain’s ability to anticipate future events. However, the learning rules that enable neurons to predict and... | Find, read and cite all the research you need on ResearchGate
👍8❤1
Tensorflow(@CVision)
البته مقالات متنوعی در همین زمینه وجود داره و همه سعی کردن الگوریتم یادگیری رو طراحی کنن که شگفتی (یا عدم تطابق بین پیش بینی و واقعیت) رو به حداقل برسونه و پیش بینی های دقیقی ارائه بده. به عبارتی همگی به یه نتیجه واحد میرسن اونم اینه که کم کردن شگفتی،…
با یک مثال بحث رو تمام کنیم، فرض کنید میخواین وارد استخر بشین، اما ممکنه آب استخر خیلی سرد باشه.
دو راه برای تصمیم گیری وجود داره:
اول با توجه به اطلاعات قبلی ذهنی پیش بینی میکنی که آب استخر سرد هست یا نه. بعد تصمیم میگیرین که وارد استخر بشی یا نه.
روش دوم اینه که فقط انگشتت رو توی آب بزنی. اگه سرد بود، دیگه وارد استخر نمیشین.
اما چرا روش دوم بهتره؟
در روش دوم، شما در حال تعامل واقعی و لحظه ای با محیط هستی.
به جای اینکه به پیش بینی های پیچیده و حافظه زیادی برای تصمیم گیری تکیه کنی، تنها کافیه که از بازخورد آنی (لمس آب) استفاده کنی تا تصمیم بهینه رو بگیری.
این رویکرد ساده تر، انرژی کمتری مصرف میکنه و به شما این امکان رو میده که در بیشتر مواقع تصمیمات درستی بدون نیاز به ذخیره سازی حجم زیادی از اطلاعات و پیشبینی های پیچیده بگیرین.
برای هوش مصنوعی هم به همین صورته. اگه مدلهای هوش مصنوعی به طور مداوم در حال تعامل با محیط خود باشن، میتونن بدون نیاز به پیش بینیهای پیچیده، تصمیمات بهینه تری بگیرن و عملکرد بهتری داشته باشن.
به عبارت دیگه، هوش مصنوعی در مواجهه با تغییرات لحظه ای محیط میتونه از روتینهای ساده و بازخوردهای فوری برای یادگیری و تصمیم گیری استفاده کنه، بدون اینکه نیاز به محاسبات سنگین یا حافظههای پیچیده داشته باشه. این ویژگیها، به صرفه جویی در منابع محاسباتی و یادگیری کارآمدتر کمک میکنه.
اینکه ۹۵٪ از وظایفی که ما ادما روزانه با اونها مواجه میشیم، به راحتی با روش دوم (استفاده از روتینهای خودکار برای اصلاح خطا و خود اصلاحی) انجام میشه، به این دلیله که اگه انسانها برای هر تصمیم یا اقدام کوچک، از تمام ظرفیت شناختی خود استفاده کنن، مغزشون کاملا تحت فشار قرار میگیره.
مغز انسان نمیتونه همزمان با بروز رسانی لحظه ای و تصمیم گیری پیچیده برای هر میکرو تصمیم به طور مؤثر عمل کنه. به عبارت دیگه، اگر بخوایم برای هر عمل پیش بینی، برنامه ریزی، و تصمیم گیری کنیم، این کار باعث میشه که از سرعت عمل ما کاسته شه و مغز به طور مؤثر قادر به رسیدگی به حجم عظیمی از وظایف و تصمیمات فوری نباشه.
دو راه برای تصمیم گیری وجود داره:
اول با توجه به اطلاعات قبلی ذهنی پیش بینی میکنی که آب استخر سرد هست یا نه. بعد تصمیم میگیرین که وارد استخر بشی یا نه.
روش دوم اینه که فقط انگشتت رو توی آب بزنی. اگه سرد بود، دیگه وارد استخر نمیشین.
اما چرا روش دوم بهتره؟
در روش دوم، شما در حال تعامل واقعی و لحظه ای با محیط هستی.
به جای اینکه به پیش بینی های پیچیده و حافظه زیادی برای تصمیم گیری تکیه کنی، تنها کافیه که از بازخورد آنی (لمس آب) استفاده کنی تا تصمیم بهینه رو بگیری.
این رویکرد ساده تر، انرژی کمتری مصرف میکنه و به شما این امکان رو میده که در بیشتر مواقع تصمیمات درستی بدون نیاز به ذخیره سازی حجم زیادی از اطلاعات و پیشبینی های پیچیده بگیرین.
برای هوش مصنوعی هم به همین صورته. اگه مدلهای هوش مصنوعی به طور مداوم در حال تعامل با محیط خود باشن، میتونن بدون نیاز به پیش بینیهای پیچیده، تصمیمات بهینه تری بگیرن و عملکرد بهتری داشته باشن.
به عبارت دیگه، هوش مصنوعی در مواجهه با تغییرات لحظه ای محیط میتونه از روتینهای ساده و بازخوردهای فوری برای یادگیری و تصمیم گیری استفاده کنه، بدون اینکه نیاز به محاسبات سنگین یا حافظههای پیچیده داشته باشه. این ویژگیها، به صرفه جویی در منابع محاسباتی و یادگیری کارآمدتر کمک میکنه.
اینکه ۹۵٪ از وظایفی که ما ادما روزانه با اونها مواجه میشیم، به راحتی با روش دوم (استفاده از روتینهای خودکار برای اصلاح خطا و خود اصلاحی) انجام میشه، به این دلیله که اگه انسانها برای هر تصمیم یا اقدام کوچک، از تمام ظرفیت شناختی خود استفاده کنن، مغزشون کاملا تحت فشار قرار میگیره.
مغز انسان نمیتونه همزمان با بروز رسانی لحظه ای و تصمیم گیری پیچیده برای هر میکرو تصمیم به طور مؤثر عمل کنه. به عبارت دیگه، اگر بخوایم برای هر عمل پیش بینی، برنامه ریزی، و تصمیم گیری کنیم، این کار باعث میشه که از سرعت عمل ما کاسته شه و مغز به طور مؤثر قادر به رسیدگی به حجم عظیمی از وظایف و تصمیمات فوری نباشه.
🔥11👍8👌3
Tensorflow(@CVision)
با یک مثال بحث رو تمام کنیم، فرض کنید میخواین وارد استخر بشین، اما ممکنه آب استخر خیلی سرد باشه. دو راه برای تصمیم گیری وجود داره: اول با توجه به اطلاعات قبلی ذهنی پیش بینی میکنی که آب استخر سرد هست یا نه. بعد تصمیم میگیرین که وارد استخر بشی یا نه. روش…
چرا این مسئله برای مدلهای زبانی مشکل سازه؟
مدلهای زبانی بزرگ از این قابلیت بهره نمیبرن. اونها از تعامل دائمی و آنی با محیط خود محروم هستن و به همین دلیله برای هر تصمیم کوچیک نیاز به برنامهریزی، پیشبینی و رفتار هدف محور دارن.
این موضوع باعث میشه که مدل های زبانی برای انجام هر کار، حتی کارهای ساده، به استفاده از تمام ظرفیت شناختی خود نیاز داشته باشن.
برخلاف انسانها که میتونن بسیاری از تصمیمات روزانه خود رو از طریق روتینها و تعاملات ساده با محیط انجام بدن، مدل های زبانی مجبورن که همیشه پیش بینی، هدف گذاری، و در نهایت تصمیم بگیرن.
مدل هایی این چنینی که از تعامل با محیط بی بهره هستن، نمیتونن روتین های ساده ای رو برای تصحیح مسیر خوشون و ساده سازی فرایند تصمیمگیری ایجاد کنن.
به همین دلیل، مدلهای زبانی باید برای هر تصمیم کوچک به برنامهریزی و پیش بینی متکی باشن، که در دنیای پیچیده و پویا نمیتونن کارآمد باشن.
ما آدما بسیاری از کارهای خودمون رو با استفاده از عادات و روتینهای خودکار انجام میدیم.
به جای اینکه برای هر تصمیم نیاز به تحلیل و پیشبینی داشته باشیم، از بازخورد های محیطی و الگوهای ساده استفاده میکنیم تا به صورت خودکار و سریع تصمیم بگیریم.
این به ما اجازه میده که به راحتی و بدون فشار زیاد از پس ده ها تصمیم کوچک بربیایم، در حالی که همچنان انرژی شناختی زیادی ذخیره داریم.
از اینکه طولانی شد عذر خواهی میکنم🙏
مدلهای زبانی بزرگ از این قابلیت بهره نمیبرن. اونها از تعامل دائمی و آنی با محیط خود محروم هستن و به همین دلیله برای هر تصمیم کوچیک نیاز به برنامهریزی، پیشبینی و رفتار هدف محور دارن.
این موضوع باعث میشه که مدل های زبانی برای انجام هر کار، حتی کارهای ساده، به استفاده از تمام ظرفیت شناختی خود نیاز داشته باشن.
برخلاف انسانها که میتونن بسیاری از تصمیمات روزانه خود رو از طریق روتینها و تعاملات ساده با محیط انجام بدن، مدل های زبانی مجبورن که همیشه پیش بینی، هدف گذاری، و در نهایت تصمیم بگیرن.
مدل هایی این چنینی که از تعامل با محیط بی بهره هستن، نمیتونن روتین های ساده ای رو برای تصحیح مسیر خوشون و ساده سازی فرایند تصمیمگیری ایجاد کنن.
به همین دلیل، مدلهای زبانی باید برای هر تصمیم کوچک به برنامهریزی و پیش بینی متکی باشن، که در دنیای پیچیده و پویا نمیتونن کارآمد باشن.
ما آدما بسیاری از کارهای خودمون رو با استفاده از عادات و روتینهای خودکار انجام میدیم.
به جای اینکه برای هر تصمیم نیاز به تحلیل و پیشبینی داشته باشیم، از بازخورد های محیطی و الگوهای ساده استفاده میکنیم تا به صورت خودکار و سریع تصمیم بگیریم.
این به ما اجازه میده که به راحتی و بدون فشار زیاد از پس ده ها تصمیم کوچک بربیایم، در حالی که همچنان انرژی شناختی زیادی ذخیره داریم.
از اینکه طولانی شد عذر خواهی میکنم🙏
👍26👏8🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
ReCapture: Generative Video Camera Controls for User-Provided Videos using Masked Video Fine-Tuning
https://generative-video-camera-controls.github.io/
https://generative-video-camera-controls.github.io/
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی ماکروسافت، در مصاحبهای میگوید که در ۳ تا ۵ سال آینده و پیش از سال ۲۰۳۰ شاهد هوش مصنوعی خود بهبوددهنده خواهیم بود.
👀16👍8
Media is too big
VIEW IN TELEGRAM
هوش مصنوعی جایگزینی برای هوش انسانی نیست؛ بلکه ابزاریه برای تقویت خلاقیت و نبوغ بشر.
این فناوری با گسترش مرزهای توانایی فکری و هنری انسان، مانند ابزاری در دست او قرار میگیره تا ایدهها و راهحلهای نوآورانهتری خلق کنه.
Fei-Fei Li
این فناوری با گسترش مرزهای توانایی فکری و هنری انسان، مانند ابزاری در دست او قرار میگیره تا ایدهها و راهحلهای نوآورانهتری خلق کنه.
Fei-Fei Li
👍27❤4👎3🔥1💯1
قبل از ظهور مدل زبانی O1 شرکت OpenAi هدف عمدتا این بود که مدل های زبانی رو به گونه ای آموزش بدن که بتونه مشابه ذهن انسان، به ویژه در فرایند حل مسئله، فکر کنه.
اما مدل های قبلی تنها قادر به تقلید از نمونههای آموزشی بودن، بدین معنا که تنها میتونستند راه حل های از پیش تعیین شده رو باز تولید کنن. این رویکرد، به جای بازنمایی فرآیند پیچیده تفکر، به ارایه پاسخ های کوتاه و گاه بی دلیل بسنده میکرد. انگار جواب ها از یک منبع بیرونی و بدون هیچ گونه استدلال منطقی ارائه شدن.
با ظهور پارادایم جدید، شاهد تحولی شگرف در تولید زنجیرههای تفکر(CoT) هستیم. مدلهای زبانی هم اکنون قادرن زنجیرههای تفکری تولید کنن که به مراتب به تفکر انسانی شباهت دارن.
این زنجیرهها شبیه به مکالمات درونی هستن که در اونها مدل ها نه تنها به پاسخ نهایی میرسن، بلکه مراحل مختلف استدلال و تردید رو نیز به نمایش میگذارن. این امر نشون میده که مدل ها از حالت ساده باز تولید اطلاعات به سمت تولید استدلال های پیچیده و مبتنی بر شواهد در حرکت هستن
اما مدل های قبلی تنها قادر به تقلید از نمونههای آموزشی بودن، بدین معنا که تنها میتونستند راه حل های از پیش تعیین شده رو باز تولید کنن. این رویکرد، به جای بازنمایی فرآیند پیچیده تفکر، به ارایه پاسخ های کوتاه و گاه بی دلیل بسنده میکرد. انگار جواب ها از یک منبع بیرونی و بدون هیچ گونه استدلال منطقی ارائه شدن.
با ظهور پارادایم جدید، شاهد تحولی شگرف در تولید زنجیرههای تفکر(CoT) هستیم. مدلهای زبانی هم اکنون قادرن زنجیرههای تفکری تولید کنن که به مراتب به تفکر انسانی شباهت دارن.
این زنجیرهها شبیه به مکالمات درونی هستن که در اونها مدل ها نه تنها به پاسخ نهایی میرسن، بلکه مراحل مختلف استدلال و تردید رو نیز به نمایش میگذارن. این امر نشون میده که مدل ها از حالت ساده باز تولید اطلاعات به سمت تولید استدلال های پیچیده و مبتنی بر شواهد در حرکت هستن
👍18❤1
Tensorflow(@CVision)
قبل از ظهور مدل زبانی O1 شرکت OpenAi هدف عمدتا این بود که مدل های زبانی رو به گونه ای آموزش بدن که بتونه مشابه ذهن انسان، به ویژه در فرایند حل مسئله، فکر کنه. اما مدل های قبلی تنها قادر به تقلید از نمونههای آموزشی بودن، بدین معنا که تنها میتونستند راه…
در زنجیره های تفکر جدید، اطلاعات به صورت یکپارچه تر توزیع شدن، به این معنی که هر عنصر از زنجیره، در شکل گیری معنا و مفهوم کلی نقش ایفا میکنه و دیگه شاهد ارایه پاسخ هایی نیستیم که در اونا یک کلمه یا عبارت به تنهایی بار معنایی کل جمله رو به دوش بکشه.
این تحول، پرسشهای رو در مورد ماهیت هوش و تفکر مطرح میکنه.
آیا میشه به مدل های زبانی که قادر به تولید زنجیرههای تفکر مشابه انسان هستن، عنوان موجوداتی هوشمند رو اطلاق کرد؟
آیا این مدل ها قادر به داشتن آگاهی و درک از جهان اطراف خود هستن؟
این پرسشها، مرزهای بین هوش مصنوعی و هوش طبیعی رو بار دیگر به چالش میکشه.
"O1"
نشون میده که ما در آستانه ورود به عصر جدیدی از هوش مصنوعی هستیم. عصری که در اون مدلهای زبانی نه تنها ابزارهای قدرتمندی برای پردازش اطلاعات، بلکه قادر به تولید تفکر و خلاقیت نیز هستن.
https://aidantr.github.io/files/AI_innovation.pdf
این تحول، پرسشهای رو در مورد ماهیت هوش و تفکر مطرح میکنه.
آیا میشه به مدل های زبانی که قادر به تولید زنجیرههای تفکر مشابه انسان هستن، عنوان موجوداتی هوشمند رو اطلاق کرد؟
آیا این مدل ها قادر به داشتن آگاهی و درک از جهان اطراف خود هستن؟
این پرسشها، مرزهای بین هوش مصنوعی و هوش طبیعی رو بار دیگر به چالش میکشه.
"O1"
نشون میده که ما در آستانه ورود به عصر جدیدی از هوش مصنوعی هستیم. عصری که در اون مدلهای زبانی نه تنها ابزارهای قدرتمندی برای پردازش اطلاعات، بلکه قادر به تولید تفکر و خلاقیت نیز هستن.
https://aidantr.github.io/files/AI_innovation.pdf
2👍3
Tensorflow(@CVision)
چرا این مسئله برای مدلهای زبانی مشکل سازه؟ مدلهای زبانی بزرگ از این قابلیت بهره نمیبرن. اونها از تعامل دائمی و آنی با محیط خود محروم هستن و به همین دلیله برای هر تصمیم کوچیک نیاز به برنامهریزی، پیشبینی و رفتار هدف محور دارن. این موضوع باعث میشه که…
یکی از مخاطبان محترم این مطلب رو در نقد بحث چند روز پیش فرستادن. چند نکته خدمت شما عزیزان عرض کنم
👍1
Tensorflow(@CVision)
یکی از مخاطبان محترم این مطلب رو در نقد بحث چند روز پیش فرستادن. چند نکته خدمت شما عزیزان عرض کنم
نقدی که من به مدل های زبانی در این پست داشتم اینه که برای ساخت مدل جهانی واقعی، باید فراتر از زبان صرف بریم و به مفاهیم دیگه ای مانند منطق، تجربه فیزیکی، و نشونه های اجتماعی توجه کنیم
به نظر من توانایی استفاده درست و روان از زبان، الزاما به معنای درک عمیق از مفاهیم یا داشتن منطق و عقل سلیم نیست.
مدل های زبانی بیشتر به مدلی از جهان واژگان تکیه می کنن که در اون، معنی از طریق ارتباط میان کلمات شکل میگیره، نه با ارجاع به دنیای واقعی، و به نظر من زبان به تنهایی نمیتونه واقعیت و درک انسانی رو به طور کامل منعکس کنه
حقیقتا برای من مدل های زبانی کنونی بیشتر شبیه غار افلاطون هستن، افرادی که درون غار هستن تنها سایههایی از واقعیت رو میبینن و تصورات خودشون رو بر اساس این سایهها میسازن. مدلهای زبانی بزرگ هم مشابه این افرادن که به جای واقعیت، سایههایی از جهان واژگان رو میبینن و بر اساس اون زبان رو باز تولید میکنن.
این مدلها تنها بازتابهای زبانی از واقعیت رو درک میکنند، نه خود واقعیت
هر چند ما انسانها هم دست کمی از مدل های زبانی نداریم
این مقاله در خور توجهه دوست داشتید مطالعه کنید
https://arxiv.org/abs/2410.21333
به نظر من توانایی استفاده درست و روان از زبان، الزاما به معنای درک عمیق از مفاهیم یا داشتن منطق و عقل سلیم نیست.
مدل های زبانی بیشتر به مدلی از جهان واژگان تکیه می کنن که در اون، معنی از طریق ارتباط میان کلمات شکل میگیره، نه با ارجاع به دنیای واقعی، و به نظر من زبان به تنهایی نمیتونه واقعیت و درک انسانی رو به طور کامل منعکس کنه
حقیقتا برای من مدل های زبانی کنونی بیشتر شبیه غار افلاطون هستن، افرادی که درون غار هستن تنها سایههایی از واقعیت رو میبینن و تصورات خودشون رو بر اساس این سایهها میسازن. مدلهای زبانی بزرگ هم مشابه این افرادن که به جای واقعیت، سایههایی از جهان واژگان رو میبینن و بر اساس اون زبان رو باز تولید میکنن.
این مدلها تنها بازتابهای زبانی از واقعیت رو درک میکنند، نه خود واقعیت
هر چند ما انسانها هم دست کمی از مدل های زبانی نداریم
این مقاله در خور توجهه دوست داشتید مطالعه کنید
https://arxiv.org/abs/2410.21333
arXiv.org
Mind Your Step (by Step): Chain-of-Thought can Reduce Performance...
Chain-of-thought (CoT) prompting has become a widely used strategy for improving large language and multimodal model performance. However, it is still an open question under which settings CoT...
👌15👍8❤1👎1
یه شرکت چینی فقط با ۲۰۰۰ تا GPU مدل رقیب GPT-4 رو آموزش داد.
01.ai
فقط ۳ میلیون دلار خرج کرده، در حالی که OpenAI بین ۸۰ تا ۱۰۰ میلیون دلار هزینه کرد
https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-company-trained-gpt-4-rival-with-just-2-000-gpus-01-ai-spent-usd3m-compared-to-openais-usd80m-to-usd100m
01.ai
فقط ۳ میلیون دلار خرج کرده، در حالی که OpenAI بین ۸۰ تا ۱۰۰ میلیون دلار هزینه کرد
https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-company-trained-gpt-4-rival-with-just-2-000-gpus-01-ai-spent-usd3m-compared-to-openais-usd80m-to-usd100m
Tom's Hardware
Chinese company trained GPT-4 rival with just 2,000 GPUs — 01.ai spent $3M compared to OpenAI's $80M to $100M
With fewer resources, you have to maximize their efficiency.
👍21😁5👌2
This media is not supported in your browser
VIEW IN TELEGRAM
کریس اولا میگه ما شبکههای عصبی رو برنامه نویسی نمیکنیم، بلکه آنها رو پرورش میدیم.
این فرآیند بیشتر شبیه مشاهده و مطالعه ارگانیسم های زیستیه تا یه طراحی مصنوعی صرف. همونطور که در نورولوژی، مسیرهای عصبی از تعامل و تجربه شکل میگیرن، در شبکههای عصبی نیز یادگیری و تحول، نه از پیش تعیین شده، بلکه از درون تعاملات و تطابقها شکل میگیرن. این نگاه، ماهیت شبکههای عصبی رو به پدیدهای زنده و پویا نزدیک تر میکنه تا یه سیستم مهندسی شده خطی.
https://youtu.be/ugvHCXCOmm4?feature=shared
این فرآیند بیشتر شبیه مشاهده و مطالعه ارگانیسم های زیستیه تا یه طراحی مصنوعی صرف. همونطور که در نورولوژی، مسیرهای عصبی از تعامل و تجربه شکل میگیرن، در شبکههای عصبی نیز یادگیری و تحول، نه از پیش تعیین شده، بلکه از درون تعاملات و تطابقها شکل میگیرن. این نگاه، ماهیت شبکههای عصبی رو به پدیدهای زنده و پویا نزدیک تر میکنه تا یه سیستم مهندسی شده خطی.
https://youtu.be/ugvHCXCOmm4?feature=shared
👍29👎4
می شه گفت بیشتر پیشرفت های هوش مصنوعی نتیجه بهبود توان محاسباتی بوده، که بیشترش هم از کاهش دقت عددی برای سرعت بخشیدن به کارها (مثل رفتن از 32 بیت به 16 بیت و بعد 8 بیت) به دست اومده.
اما حالا به نظر می رسه که روند کوانتیزاسیون داره به انتهای خط میرسه، از طرفی وقتی این موضوع رو با محدودیت های فیزیکی (مثل مصرف انرژی) ترکیب کنیم، شرایطی به وجود میاد که انگار دیگه دوران بزرگ تر کردن مدل ها با افزایش قدرت محاسباتی داره به پایان میرسه.
به عبارتی بازدهی رو نمیشه دور زد. اگه کوانتیزاسیون دیگه جواب نده ، پس روشهایی مثل sparsification و سایر مکانیزمهای بهینهسازی هم جواب نخواهد داد و نیاز به یک تغییر پارادایم در این زمینه هستیم.
دیگه نمیشه تنها با افزایش قدرت و داده، کیفیت مدل ها رو بالا ببریم، بلکه باید هوشمندانه تر به موضوع نگاه کنیم و راههایی برای سازگاری با این محدودیتها پیدا کنیم.
برداشت من اینه که هرچه دانش بیشتری در وزن های مدل فشرده شه و این وزن ها بیانگر اطلاعات بیشتری از دادهها باشه، کوچک ترین تغییر یا آشفتگی در اونها میتونه اثرات ویران گر بیشتری داشته باشه. انگار هر چه یه ظرف رو پرتر کنیم، ثبات اون در برابر لرزش ها کمتر میشه، در نتیجه، مرزی وجود دارده که از اون به بعد، افزودن دانش بیشتر نه تنها مفید نیست، بلکه باعث شکنندگی بیشتر میشه.
این مقاله با عنوان Scaling Laws for Precision که به صورت مشترک توسط دانشگاه هاروارد، دانشگاه استنفورد و MIT منتشر شده، برای اولین بار روابط کمی میان دقت، تعداد پارامترها و حجم دادهها در مدل های زبانی بزرگ رو تعیین کرده و راهنمای نظری مهمی برای روندهای فعلی در توسعه مدل ها فراهم کرده.
https://arxiv.org/abs/2411.04330
اما حالا به نظر می رسه که روند کوانتیزاسیون داره به انتهای خط میرسه، از طرفی وقتی این موضوع رو با محدودیت های فیزیکی (مثل مصرف انرژی) ترکیب کنیم، شرایطی به وجود میاد که انگار دیگه دوران بزرگ تر کردن مدل ها با افزایش قدرت محاسباتی داره به پایان میرسه.
به عبارتی بازدهی رو نمیشه دور زد. اگه کوانتیزاسیون دیگه جواب نده ، پس روشهایی مثل sparsification و سایر مکانیزمهای بهینهسازی هم جواب نخواهد داد و نیاز به یک تغییر پارادایم در این زمینه هستیم.
دیگه نمیشه تنها با افزایش قدرت و داده، کیفیت مدل ها رو بالا ببریم، بلکه باید هوشمندانه تر به موضوع نگاه کنیم و راههایی برای سازگاری با این محدودیتها پیدا کنیم.
برداشت من اینه که هرچه دانش بیشتری در وزن های مدل فشرده شه و این وزن ها بیانگر اطلاعات بیشتری از دادهها باشه، کوچک ترین تغییر یا آشفتگی در اونها میتونه اثرات ویران گر بیشتری داشته باشه. انگار هر چه یه ظرف رو پرتر کنیم، ثبات اون در برابر لرزش ها کمتر میشه، در نتیجه، مرزی وجود دارده که از اون به بعد، افزودن دانش بیشتر نه تنها مفید نیست، بلکه باعث شکنندگی بیشتر میشه.
این مقاله با عنوان Scaling Laws for Precision که به صورت مشترک توسط دانشگاه هاروارد، دانشگاه استنفورد و MIT منتشر شده، برای اولین بار روابط کمی میان دقت، تعداد پارامترها و حجم دادهها در مدل های زبانی بزرگ رو تعیین کرده و راهنمای نظری مهمی برای روندهای فعلی در توسعه مدل ها فراهم کرده.
https://arxiv.org/abs/2411.04330
arXiv.org
Scaling Laws for Precision
Low precision training and inference affect both the quality and cost of language models, but current scaling laws do not account for this. In this work, we devise "precision-aware" scaling laws...
❤26🔥8👍6
Tensorflow(@CVision)
در گفتگوی نسبتا طولانی زیر با Leopold Aschenbrenner کارمند سابق OpenAI نقطه نظرات درخور تاملی در باره هوش مصنوعی عمومی AGI رد و بدل میشه این محقق سابق OpenAI می گه رسیدن به هوش مصنوعی عمومی (AGI) تا سال 2027 به طرز چشمگیری محتمل هست. نیازی به باور به داستان…
قبلا در مورد دعوای آمریکا و چین بر سر تایوان به صورت مختصر مطالبی در این پست نوشتم.
از آنجایی که مطالب این کانال الزاما به هوش مصنوعی اختصاص داره، وارد موضوعات کلان سیاسی این جریان نمیشم اما از بعد فناوری، فشار آمریکا برای محفوظ نگه داشتن سهم خوش از شرکت TSMC در راستای کاهش سرعت چین در دستیابی به سخت افزار های قدرتمند جهت توسعه فناوری هوش مصنوعی این کشور هست.
حالا گزارش سال ۲۰۲۴ کمیسیون بررسی اقتصادی و امنیتی آمریکا، که چند روز پیش منتشر شد به تحلیل گسترده ای از روابط پیچیده اقتصادی، امنیتی و فناوری میان ایالات متحده و چین میپردازه. موضوعات بسیار متنوعی بحث میشه اما مواردی که مربوط به هوش مصنوعی هست به شرح زیرهستن:
در این گزارش توصیه کرده که کنگره، طرحی در مقیاس پروژهی منهتن رو بنیانگذاری و تأمین مالی کنه که به طور اختصاصی برای دستیابی به توانمندی در زمینهی هوش عمومی مصنوعی (AGI) به رقابت بپردازه.
هوش عمومی مصنوعی به طور کلی به سامانه هایی گفته میشه که در تمامی حوزههای شناختی، برابر یا فراتر از قابلیت های انسانی عمل کنه. از جمله اقدامات مشخصی که کمیسیون برای کنگره پیشنهاد میکنه عبارتند از:
اعطای اختیار انعقاد قراردادهای بلندمدت به شاخهی اجرایی دولت و تخصیص منابع مالی مرتبط به شرکتهای پیشرو در زمینه هوش مصنوعی، خدمات ابری، مراکز داده و سایر بخشها، به منظور پیشبرد سیاست مذکور با سرعت و مقیاسی متناسب با هدف برتری ایالات متحده در زمینه AGI
هدایت وزیر دفاع ایالات متحده برای تخصیص رتبه بندی "DX" در نظام اولویت ها و تخصیص های دفاعی به موارد مرتبط با اکوسیستم هوش مصنوعی، تا اطمینان حاصل شه که این پروژه در اولویت ملی قرار داره.
در واقع این توصیه ها گواهی بر تلاشی بنیادین برای تصاحب آینده، جایی که مرز میان انسان و ماشین در سایه قدرت شناختی و توانمندیهای بیپایان به پرسش گرفته میشه.
تقریبا تمام کشورهای توسعه یافته بر توسعه هوش عمومی مصنوعی (AGI) تمرکز خواهند کرد و اگر به درستی مدیریت نشه، ممکنه وارد عصر جدیدی از جنگ بشیم. به نظر میرسه که آمریکا قصد داره قدرتمندترین هوش مصنوعی رو برای مهار رقبا هرچه سریع تر توسعه بده.
https://www.uscc.gov/sites/default/files/2024-11/2024_Executive_Summary.pdf
از آنجایی که مطالب این کانال الزاما به هوش مصنوعی اختصاص داره، وارد موضوعات کلان سیاسی این جریان نمیشم اما از بعد فناوری، فشار آمریکا برای محفوظ نگه داشتن سهم خوش از شرکت TSMC در راستای کاهش سرعت چین در دستیابی به سخت افزار های قدرتمند جهت توسعه فناوری هوش مصنوعی این کشور هست.
حالا گزارش سال ۲۰۲۴ کمیسیون بررسی اقتصادی و امنیتی آمریکا، که چند روز پیش منتشر شد به تحلیل گسترده ای از روابط پیچیده اقتصادی، امنیتی و فناوری میان ایالات متحده و چین میپردازه. موضوعات بسیار متنوعی بحث میشه اما مواردی که مربوط به هوش مصنوعی هست به شرح زیرهستن:
در این گزارش توصیه کرده که کنگره، طرحی در مقیاس پروژهی منهتن رو بنیانگذاری و تأمین مالی کنه که به طور اختصاصی برای دستیابی به توانمندی در زمینهی هوش عمومی مصنوعی (AGI) به رقابت بپردازه.
هوش عمومی مصنوعی به طور کلی به سامانه هایی گفته میشه که در تمامی حوزههای شناختی، برابر یا فراتر از قابلیت های انسانی عمل کنه. از جمله اقدامات مشخصی که کمیسیون برای کنگره پیشنهاد میکنه عبارتند از:
اعطای اختیار انعقاد قراردادهای بلندمدت به شاخهی اجرایی دولت و تخصیص منابع مالی مرتبط به شرکتهای پیشرو در زمینه هوش مصنوعی، خدمات ابری، مراکز داده و سایر بخشها، به منظور پیشبرد سیاست مذکور با سرعت و مقیاسی متناسب با هدف برتری ایالات متحده در زمینه AGI
هدایت وزیر دفاع ایالات متحده برای تخصیص رتبه بندی "DX" در نظام اولویت ها و تخصیص های دفاعی به موارد مرتبط با اکوسیستم هوش مصنوعی، تا اطمینان حاصل شه که این پروژه در اولویت ملی قرار داره.
در واقع این توصیه ها گواهی بر تلاشی بنیادین برای تصاحب آینده، جایی که مرز میان انسان و ماشین در سایه قدرت شناختی و توانمندیهای بیپایان به پرسش گرفته میشه.
تقریبا تمام کشورهای توسعه یافته بر توسعه هوش عمومی مصنوعی (AGI) تمرکز خواهند کرد و اگر به درستی مدیریت نشه، ممکنه وارد عصر جدیدی از جنگ بشیم. به نظر میرسه که آمریکا قصد داره قدرتمندترین هوش مصنوعی رو برای مهار رقبا هرچه سریع تر توسعه بده.
https://www.uscc.gov/sites/default/files/2024-11/2024_Executive_Summary.pdf
❤5👍3👀2
Automated-AI-Web-Researcher
یه ابزار زبانی متن بازه که برای اجرای پژوهش های آنلاین طراحی شده. این برنامه با استفاده از مدل های زبانی لوکال مثل Ollama، به شما این امکان رو میده تنها با وارد کردن یک سوال یا موضوع، یک فایل متنی پر از محتوای پژوهشی همراه با لینک منابع و خلاصهای از یافتهها دریافت کنین.
در واقع برنامه به طور خودکار در اینترنت جستجو میکنه، محتوا جمع آوری کرده و یک فایل متنی شامل اطلاعات و لینک منابع به همراه خلاصه ای از یافته ها تولید میکنه. علاوه بر این، امکان پرسیدن سؤالات بیشتر از یافتههای پژوهش نیز وجود داره.
روند کار به این صورت هست که ابتدا پرسش شما رو به چند حوزه پژوهشی تقسیم میکنه (تا ۵ محور اصلی)، بعد اونها رو بر اساس میزان ارتباط اولویت بندی کرده و از مرتبط ترین بخش شروع به جستجو میکنه.
پس از تکمیل جستجو، محتوای یافته ها رو بررسی کرده و حوزههای جدیدی برای تحقیق شناسایی میکنه.
این قابلیت گاهی محورهای جدید و نوآورانه ای ایجاد میکنه که ممکنه به ذهن شما نرسه. در پایان هم برنامه تمامی اطلاعات جمعآوری شده رو خلاصه کرده و پاسخی جامع به سوال اصلی شما ارایه میکنه. حتی میتونید از یافته ها سوالات بیشتری بپرسین.
به عبارتی ویژگیهای کلیدی به شرح زیر هست:
تولید محورهای پژوهشی جدید بر اساس یافتهها.
ذخیره تمامی محتوای یافتهشده به همراه لینک منابع.
تولید خلاصهای جامع از پژوهش و پاسخ به سؤال اولیه.
امکان مکالمه با مدل زبانی برای بررسی جزئیات بیشتر از یافتهها.
قابلیت متوقف کردن یا ادامه دادن پژوهش در هر زمان.
کاملا لوکال و روی سیستم شما اجرا میشه، بدون نیاز به ارسال دادهها به سرور خارجی.
https://github.com/TheBlewish/Automated-AI-Web-Researcher-Ollama
یه ابزار زبانی متن بازه که برای اجرای پژوهش های آنلاین طراحی شده. این برنامه با استفاده از مدل های زبانی لوکال مثل Ollama، به شما این امکان رو میده تنها با وارد کردن یک سوال یا موضوع، یک فایل متنی پر از محتوای پژوهشی همراه با لینک منابع و خلاصهای از یافتهها دریافت کنین.
در واقع برنامه به طور خودکار در اینترنت جستجو میکنه، محتوا جمع آوری کرده و یک فایل متنی شامل اطلاعات و لینک منابع به همراه خلاصه ای از یافته ها تولید میکنه. علاوه بر این، امکان پرسیدن سؤالات بیشتر از یافتههای پژوهش نیز وجود داره.
روند کار به این صورت هست که ابتدا پرسش شما رو به چند حوزه پژوهشی تقسیم میکنه (تا ۵ محور اصلی)، بعد اونها رو بر اساس میزان ارتباط اولویت بندی کرده و از مرتبط ترین بخش شروع به جستجو میکنه.
پس از تکمیل جستجو، محتوای یافته ها رو بررسی کرده و حوزههای جدیدی برای تحقیق شناسایی میکنه.
این قابلیت گاهی محورهای جدید و نوآورانه ای ایجاد میکنه که ممکنه به ذهن شما نرسه. در پایان هم برنامه تمامی اطلاعات جمعآوری شده رو خلاصه کرده و پاسخی جامع به سوال اصلی شما ارایه میکنه. حتی میتونید از یافته ها سوالات بیشتری بپرسین.
به عبارتی ویژگیهای کلیدی به شرح زیر هست:
تولید محورهای پژوهشی جدید بر اساس یافتهها.
ذخیره تمامی محتوای یافتهشده به همراه لینک منابع.
تولید خلاصهای جامع از پژوهش و پاسخ به سؤال اولیه.
امکان مکالمه با مدل زبانی برای بررسی جزئیات بیشتر از یافتهها.
قابلیت متوقف کردن یا ادامه دادن پژوهش در هر زمان.
کاملا لوکال و روی سیستم شما اجرا میشه، بدون نیاز به ارسال دادهها به سرور خارجی.
https://github.com/TheBlewish/Automated-AI-Web-Researcher-Ollama
GitHub
GitHub - TheBlewish/Automated-AI-Web-Researcher-Ollama: A python program that turns an LLM, running on Ollama, into an automated…
A python program that turns an LLM, running on Ollama, into an automated researcher, which will with a single query determine focus areas to investigate, do websearches and scrape content from vari...
👍16
محققین یه رابط مغزی زنده ایجاد کردن که شامل نورون های کنترل شونده با نور هست. این نورون ها با موفقیت در مغز یک موش ادغام شدن و مدارهای عصبی جدیدی رو شکل دادن و با استفاده از نور کنترل میشن. این دستاورد ممکنه روزی امکان ایجاد تجربیات حسی مصنوعی دقیق رو فراهم کنه.
این روش با رابط های سنتی مغز و کامپیوتر تفاوت داره و به جای استفاده از الکترودها یا موادی که مغز اونها رو پس میزنه، نورون های زنده جدیدی به مغز اضافه میکنه که بخشی از خود مغز میشن.
https://science.xyz/news/biohybrid-neural-interfaces/
این روش با رابط های سنتی مغز و کامپیوتر تفاوت داره و به جای استفاده از الکترودها یا موادی که مغز اونها رو پس میزنه، نورون های زنده جدیدی به مغز اضافه میکنه که بخشی از خود مغز میشن.
https://science.xyz/news/biohybrid-neural-interfaces/
Science Corporation
Biohybrid neural interfaces: an old idea enabling a completely new space of possibilities | Science Corporation
Science Corporation is a clinical-stage medical technology company.
👍10🤔1
Forwarded from کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
#تخفیف #opencv
📢 0️⃣5️⃣ درصد تخفیف دوره opencv برای 100 نفر اول:
✅گام نخست: ورود با لینک خرید با تخفیف
✅وارد کردن کد تخفیف 50 درصدی:
📢 0️⃣5️⃣ درصد تخفیف دوره opencv برای 100 نفر اول:
✅گام نخست: ورود با لینک خرید با تخفیف
✅وارد کردن کد تخفیف 50 درصدی:
COUPON-9f654
👌5👎2