Telegram Web Link
Tensorflow(@CVision)
کار دیگه ای که شباهت هایی به مقاله قبلی داره کار آقای رامین حسنی از MIT هست. عنوان مقاله Liquid Time Constant Networks  هست. این مدل در واقع نوعی شبکه عصبی پویا و انعطاف ‌پذیره که برای پردازش اطلاعات در زمان و تصمیم ‌گیری در شرایط پیچیده با الهام از ساختارهای…
توی ویدیو بالا توضیح میده که در مقایسه با مدل‌های دیگه، برای انجام وظیفه‌ ای مثل هدایت خودرو، مدل LTCN تنها به حدود ۱۹ نورون نیاز داره، در حالی که سایر مدل ‌ها برای همون کار به هزاران نورون نیاز دارن.

از نکات مهم ارایه شده در این کار میشه به موارد زیراشاره کرد :

مدل می ‌تونه همون نتایج شبکه‌های عصبی دیگه رو با ۱۰ تا ۲۰ برابر نورون کمتر به دست بیاره

این مدل روابط علی و معلولی دنیای واقعی رو یاد می‌گیره

 توانایی فوق ‌العاده‌ای در تعمیم خارج از محدوده‌ داده‌های آموزشی داره، یعنی میتونه همون وظیفه رو توی شرایط کاملا متفاوت انجام بده

 بدون نیاز به تعیین اهداف مشخص میتونه کار کنه

و در نهایت  توی یادگیری تقلیدی بسیار خوب عمل می ‌کنه

در واقع نوآوری کلیدی این مدل اینه که امکان تغییر سرعت هر نورون رو به صورت متغیر و لحظه‌ ای فراهم میکنه.

همین ویژگی ساده باعث شده که این شبکه‌ها به نتایج فوق‌العاده‌ای برسن. سخنرانی تد رو برای توضیحات بیشتر ببینید. نوشتن در موردش زمان زیادی می‌بره

ادامه دارد ...

https://www.ted.com/talks/ramin_hasani_liquid_neural_networks
9
Tensorflow(@CVision)
توی ویدیو بالا توضیح میده که در مقایسه با مدل‌های دیگه، برای انجام وظیفه‌ ای مثل هدایت خودرو، مدل LTCN تنها به حدود ۱۹ نورون نیاز داره، در حالی که سایر مدل ‌ها برای همون کار به هزاران نورون نیاز دارن. از نکات مهم ارایه شده در این کار میشه به موارد زیراشاره…
مشکلی که توی مقاله قبلی وجود داره، علی رغم نکات بسیار مهم و کاربردی اینه که این مدل  باbackpropagation  و به صورت آفلاین آموزش دیده، اما نسخه ‌ای از همین مدل شبکه وجود داره که میتونه به صورت آنلاین و در لحظه یاد بگیره، درست مثل مغز انسان!

در واقع این مقاله ترکیبی از کارهای قبلی به همراه شبکه های اسپایکی یا Spiking Neural Networksهست. 

در شبکه‌های عصبی اسپایکی علاوه بر متغیرهای حالت نورونی و سیناپسی، مفهوم زمان نیز در مدل در نظر گرفته میشه. توی شبکه‌های عصبی معمولی، خروجی هر نورون در هر تکرار محاسبه و به روز رسانی میشه، اما در شبکه‌های عصبی اسپایکی، هر نورون تنها زمانی اسپایک تولید میکنه که پتانسیل غشای اون از یک حد آستانه بیشتر شده باشه. 

شبکه‌عصبی اسپایکی در واقع نزدیک ترین بازسازی ساختار مغز انسانه.

ادامه دارد...

https://arxiv.org/abs/2112.11231
👍7
Tensorflow(@CVision)
مشکلی که توی مقاله قبلی وجود داره، علی رغم نکات بسیار مهم و کاربردی اینه که این مدل  باbackpropagation  و به صورت آفلاین آموزش دیده، اما نسخه ‌ای از همین مدل شبکه وجود داره که میتونه به صورت آنلاین و در لحظه یاد بگیره، درست مثل مغز انسان! در واقع این مقاله…
البته مقالات متنوعی در همین زمینه وجود داره و همه سعی کردن الگوریتم یادگیری رو طراحی کنن که شگفتی (یا عدم تطابق بین پیش ‌بینی و واقعیت) رو به حداقل برسونه و پیش‌ بینی ‌های دقیقی ارائه بده.

به عبارتی همگی به یه نتیجه واحد میرسن اونم اینه که کم کردن شگفتی، یه اصل اساسی و بنیادین برای همه اتفاقاتیه که در مغز داره رخ میده ، از تفکر کلی گرفته تا رفتار تک‌ تک نورون ‌ها!

 به طور خلاصه، ترکیب شبکه‌های LTCN با قانون یادگیری کاهش شگفتی می‌تونه به مدلی منجر بشه که نه تنها توانایی یادگیری طبیعی و کارآمدی داره، بلکه ساختارش به عملکرد واقعی مغز نزدیک ‌تره. 

اگر هر نورون بتونه شگفتی خودش در هر لحظه رو کاهش بده این رفتار در مقیاس بزرگ ‌تر به الگوهای پیچیده‌ ای از یادگیری و پیش ‌بینی منجر میشه.

https://www.researchgate.net/publication/373262499_Sequence_anticipation_and_spike-timing-dependent_plasticity_emerge_from_a_predictive_learning_rule

https://www.researchgate.net/publication/326690440_Beyond_STDP-towards_diverse_and_functionally_relevant_plasticity_rules
 
هوش مصنوعی عمومی زمانی ایجاد میشه که مدل در تعامل مداوم با محیط واقعی باشه. تعامل دائمی با محیط واقعی به ما انسانها این امکان را میده که نیاز به پیش ‌بینی در ۹۵٪ مواقع رو حذف کنیم.

به عبارت دیگه، این تعامل مداوم به ما این اجازه رو میده که از روتین‌ های ساده ‌تر استفاده کنیم که هنوز هم میتونن نتایج بسیار دقیقی به همراه داشته باشن.

از طرفی این موارد باعث میشه که در انرژی، محاسبات، و حافظه به طور قابل توجهی صرفه ‌جویی شه. در نتیجه، نیاز به ذخیره‌سازی ۹۵٪ از خاطرات و پیش‌ بینی‌ها نیز از بین میره.
👍81
Tensorflow(@CVision)
البته مقالات متنوعی در همین زمینه وجود داره و همه سعی کردن الگوریتم یادگیری رو طراحی کنن که شگفتی (یا عدم تطابق بین پیش ‌بینی و واقعیت) رو به حداقل برسونه و پیش‌ بینی ‌های دقیقی ارائه بده. به عبارتی همگی به یه نتیجه واحد میرسن اونم اینه که کم کردن شگفتی،…
با یک مثال بحث رو تمام کنیم، فرض کنید میخواین وارد استخر بشین، اما ممکنه آب استخر خیلی سرد باشه.

دو راه برای تصمیم ‌گیری وجود داره:

اول با توجه به اطلاعات قبلی ذهنی پیش ‌بینی میکنی که آب استخر سرد هست یا نه. بعد تصمیم میگیرین که وارد استخر بشی یا نه.

روش دوم اینه که فقط انگشتت رو توی آب بزنی. اگه سرد بود، دیگه وارد استخر نمیشین.

اما چرا روش دوم بهتره؟

در روش دوم، شما در حال تعامل واقعی و لحظه ‌ای با محیط هستی.

به جای اینکه به پیش‌ بینی‌ های پیچیده و حافظه‌ زیادی برای تصمیم ‌گیری تکیه کنی، تنها کافیه که از بازخورد آنی (لمس آب) استفاده کنی تا تصمیم بهینه رو بگیری.

این رویکرد ساده تر، انرژی کمتری مصرف میکنه و به شما این امکان رو میده که در بیشتر مواقع تصمیمات درستی بدون نیاز به ذخیره ‌سازی حجم زیادی از اطلاعات و پیش‌بینی ‌های پیچیده بگیرین.

برای هوش مصنوعی هم به همین صورته. اگه مدل‌های هوش مصنوعی به طور مداوم در حال تعامل با محیط خود باشن، میتونن بدون نیاز به پیش ‌بینی‌های پیچیده، تصمیمات بهینه ‌تری بگیرن و عملکرد بهتری داشته باشن.

به عبارت دیگه، هوش مصنوعی در مواجهه با تغییرات لحظه ‌ای محیط میتونه از روتین‌های ساده و بازخوردهای فوری برای یادگیری و تصمیم‌ گیری استفاده کنه، بدون اینکه نیاز به محاسبات سنگین یا حافظه‌های پیچیده داشته باشه. این ویژگی‌ها، به صرفه‌ جویی در منابع محاسباتی و یادگیری کارآمدتر کمک میکنه.

اینکه ۹۵٪ از وظایفی که ما ادما روزانه با اونها مواجه میشیم، به راحتی با روش دوم (استفاده از روتین‌های خودکار برای اصلاح خطا و خود اصلاحی) انجام میشه، به این دلیله که اگه انسان‌ها برای هر تصمیم یا اقدام کوچک، از تمام ظرفیت شناختی خود استفاده کنن، مغزشون کاملا تحت فشار قرار میگیره.

مغز انسان نمیتونه همزمان با بروز رسانی لحظه ‌ای و تصمیم ‌گیری پیچیده برای هر میکرو تصمیم به‌ طور مؤثر عمل کنه. به عبارت دیگه، اگر بخوایم برای هر عمل پیش ‌بینی، برنامه ‌ریزی، و تصمیم ‌گیری کنیم، این کار باعث میشه که از سرعت عمل ما کاسته شه و مغز به ‌طور مؤثر قادر به رسیدگی به حجم عظیمی از وظایف و تصمیمات فوری نباشه.
🔥11👍8👌3
Tensorflow(@CVision)
با یک مثال بحث رو تمام کنیم، فرض کنید میخواین وارد استخر بشین، اما ممکنه آب استخر خیلی سرد باشه. دو راه برای تصمیم ‌گیری وجود داره: اول با توجه به اطلاعات قبلی ذهنی پیش ‌بینی میکنی که آب استخر سرد هست یا نه. بعد تصمیم میگیرین که وارد استخر بشی یا نه. روش…
چرا این مسئله برای مدل‌های زبانی مشکل ‌سازه؟

مدل‌های زبانی بزرگ از این قابلیت بهره نمیبرن. اونها از تعامل دائمی و آنی با محیط خود محروم هستن و به همین دلیله برای هر تصمیم کوچیک نیاز به برنامه‌ریزی، پیش‌بینی و رفتار هدف ‌محور دارن.

این موضوع باعث میشه که مدل‌ های زبانی برای انجام هر کار، حتی کارهای ساده، به استفاده از تمام ظرفیت شناختی خود نیاز داشته باشن.

برخلاف انسان‌ها که میتونن بسیاری از تصمیمات روزانه خود رو از طریق روتین‌ها و تعاملات ساده با محیط انجام بدن، مدل‌ های زبانی مجبورن که همیشه پیش ‌بینی، هدف ‌گذاری، و در نهایت تصمیم بگیرن.

مدل‌ هایی این چنینی که از تعامل با محیط بی ‌بهره هستن، نمیتونن روتین ‌های ساده ‌ای رو برای تصحیح مسیر خوشون و ساده‌ سازی فرایند تصمیم‌گیری ایجاد کنن.

به همین دلیل، مدل‌های زبانی باید برای هر تصمیم کوچک به برنامه‌ریزی و پیش ‌بینی متکی باشن، که در دنیای پیچیده و پویا نمیتونن کارآمد باشن.

ما آدما بسیاری از کارهای خودمون رو با استفاده از عادات و روتین‌های خودکار انجام میدیم.

به جای اینکه برای هر تصمیم نیاز به تحلیل و پیش‌بینی داشته باشیم، از بازخورد های محیطی و الگوهای ساده استفاده میکنیم تا به صورت خودکار و سریع تصمیم بگیریم.

این به ما اجازه میده که به راحتی و بدون فشار زیاد از پس ده‌ ها تصمیم کوچک بربیایم، در حالی که همچنان انرژی شناختی زیادی ذخیره داریم.

از اینکه طولانی شد عذر خواهی میکنم🙏
👍26👏8🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
ReCapture: Generative Video Camera Controls for User-Provided Videos using Masked Video Fine-Tuning

https://generative-video-camera-controls.github.io/
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی ماکروسافت، در مصاحبه‌ای می‌گوید که در ۳ تا ۵ سال آینده و پیش از سال ۲۰۳۰ شاهد هوش مصنوعی خود بهبوددهنده خواهیم بود.
👀16👍8
Media is too big
VIEW IN TELEGRAM
هوش مصنوعی جایگزینی برای هوش انسانی نیست؛ بلکه ابزاریه برای تقویت خلاقیت و نبوغ بشر.

این فناوری با گسترش مرزهای توانایی‌ فکری و هنری انسان، مانند ابزاری در دست او قرار می‌گیره تا ایده‌ها و راه‌حل‌های نوآورانه‌تری خلق کنه.

Fei-Fei Li
👍274👎3🔥1💯1
قبل از ظهور مدل زبانی O1 شرکت OpenAi هدف عمدتا این بود که مدل ‌های زبانی رو به گونه ‌ای آموزش بدن که بتونه مشابه ذهن انسان، به ویژه در فرایند حل مسئله، فکر کنه.

اما مدل‌ های قبلی تنها قادر به تقلید از نمونه‌های آموزشی بودن، بدین معنا که تنها میتونستند راه حل ‌های از پیش تعیین شده رو باز تولید کنن. این رویکرد، به جای بازنمایی فرآیند پیچیده تفکر، به ارایه پاسخ‌ های کوتاه و گاه بی ‌دلیل بسنده می‌کرد. انگار جواب ها از یک منبع بیرونی و بدون هیچ گونه استدلال منطقی ارائه شدن.

با ظهور پارادایم جدید، شاهد تحولی شگرف در تولید زنجیره‌های تفکر(CoT) هستیم. مدل‌های زبانی هم اکنون قادرن زنجیره‌های تفکری تولید کنن که به مراتب به تفکر انسانی شباهت دارن.

این زنجیره‌ها شبیه به مکالمات درونی هستن که در اونها مدل ‌ها نه تنها به پاسخ نهایی میرسن، بلکه مراحل مختلف استدلال و تردید رو نیز به نمایش میگذارن. این امر نشون میده که مدل‌ ها از حالت ساده باز تولید اطلاعات به سمت تولید استدلال‌ های پیچیده و مبتنی بر شواهد در حرکت هستن
👍181
Tensorflow(@CVision)
قبل از ظهور مدل زبانی O1 شرکت OpenAi هدف عمدتا این بود که مدل ‌های زبانی رو به گونه ‌ای آموزش بدن که بتونه مشابه ذهن انسان، به ویژه در فرایند حل مسئله، فکر کنه. اما مدل‌ های قبلی تنها قادر به تقلید از نمونه‌های آموزشی بودن، بدین معنا که تنها میتونستند راه…
در زنجیره‌ های تفکر جدید، اطلاعات به صورت یکپارچه‌ تر توزیع شدن، به این معنی که هر عنصر از زنجیره، در شکل ‌گیری معنا و مفهوم کلی نقش ایفا میکنه و دیگه شاهد ارایه پاسخ ‌هایی نیستیم که در اونا یک کلمه یا عبارت به تنهایی بار معنایی کل جمله رو به دوش بکشه.

این تحول، پرسش‌های رو در مورد ماهیت هوش و تفکر مطرح میکنه.

 آیا میشه به مدل‌ های زبانی که قادر به تولید زنجیره‌های تفکر مشابه انسان هستن، عنوان موجوداتی هوشمند رو اطلاق کرد؟

 آیا این مدل ‌ها قادر به داشتن آگاهی و درک از جهان اطراف خود هستن؟

 این پرسش‌ها، مرزهای بین هوش مصنوعی و هوش طبیعی رو بار دیگر به چالش میکشه.

 "O1"
نشون میده که ما در آستانه ورود به عصر جدیدی از هوش مصنوعی هستیم. عصری که در اون مدل‌های زبانی نه تنها ابزارهای قدرتمندی برای پردازش اطلاعات، بلکه قادر به تولید تفکر و خلاقیت نیز هستن.

https://aidantr.github.io/files/AI_innovation.pdf
2👍3
Tensorflow(@CVision)
یکی از مخاطبان محترم این مطلب رو در نقد بحث چند روز پیش فرستادن. چند نکته خدمت شما عزیزان عرض کنم
نقدی که من به مدل های زبانی در این پست داشتم اینه که برای ساخت مدل جهانی واقعی، باید فراتر از زبان صرف بریم و به مفاهیم دیگه ای مانند منطق، تجربه‌ فیزیکی، و نشونه‌ های اجتماعی توجه کنیم

به نظر من توانایی استفاده‌ درست و روان از زبان، الزاما به معنای درک عمیق از مفاهیم یا داشتن منطق و عقل سلیم نیست.

مدل های زبانی بیشتر به مدلی از جهان واژگان تکیه می‌ کنن که در اون، معنی از طریق ارتباط میان کلمات شکل می‌گیره، نه با ارجاع به دنیای واقعی، و به نظر من زبان به تنهایی نمیتونه واقعیت و درک انسانی رو به‌ طور کامل منعکس کنه

حقیقتا برای من مدل های زبانی کنونی بیشتر شبیه غار افلاطون هستن، افرادی که درون غار هستن تنها سایه‌هایی از واقعیت رو میبینن و تصورات خودشون رو بر اساس این سایه‌ها میسازن. مدل‌های زبانی بزرگ هم مشابه این افرادن که به جای واقعیت، سایه‌هایی از جهان واژگان رو میبینن و بر اساس اون زبان رو باز تولید می‌کنن.

این مدل‌ها تنها بازتاب‌های زبانی از واقعیت رو درک می‌کنند، نه خود واقعیت

هر چند ما انسانها هم دست کمی از مدل های زبانی نداریم
این مقاله در خور توجهه دوست داشتید مطالعه کنید

https://arxiv.org/abs/2410.21333
👌15👍81👎1
یه شرکت چینی فقط با ۲۰۰۰ تا GPU مدل رقیب GPT-4 رو آموزش داد.
 01.ai 
فقط ۳ میلیون دلار خرج کرده، در حالی که OpenAI بین ۸۰ تا ۱۰۰ میلیون دلار هزینه کرد

https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-company-trained-gpt-4-rival-with-just-2-000-gpus-01-ai-spent-usd3m-compared-to-openais-usd80m-to-usd100m
👍21😁5👌2
This media is not supported in your browser
VIEW IN TELEGRAM
کریس اولا میگه ما شبکه‌های عصبی رو برنامه‌ نویسی نمی‌کنیم، بلکه آن‌ها رو پرورش میدیم.

این فرآیند بیشتر شبیه مشاهده و مطالعه ارگانیسم‌ های زیستیه تا یه طراحی مصنوعی صرف. همونطور که در نورولوژی، مسیرهای عصبی از تعامل و تجربه شکل می‌گیرن، در شبکه‌های عصبی نیز یادگیری و تحول، نه از پیش‌ تعیین‌ شده، بلکه از درون تعاملات و تطابق‌ها شکل میگیرن. این نگاه، ماهیت شبکه‌های عصبی رو به پدیده‌ای زنده و پویا نزدیک‌ تر می‌کنه تا یه سیستم مهندسی‌ شده خطی.

https://youtu.be/ugvHCXCOmm4?feature=shared
👍29👎4
می‌ شه گفت بیشتر پیشرفت‌ های هوش مصنوعی نتیجه بهبود توان محاسباتی بوده، که بیشترش هم از کاهش دقت عددی برای سرعت بخشیدن به کارها (مثل رفتن از 32 بیت به 16 بیت و بعد 8 بیت) به دست اومده. 

اما حالا به نظر می‌ رسه که روند کوانتیزاسیون داره به انتهای خط میرسه، از طرفی وقتی این موضوع رو با محدودیت‌ های فیزیکی (مثل مصرف انرژی) ترکیب کنیم، شرایطی به وجود میاد که انگار دیگه دوران بزرگ‌ تر کردن مدل‌ ها با افزایش قدرت محاسباتی داره به پایان میرسه.

به عبارتی بازدهی رو نمیشه دور زد. اگه کوانتیزاسیون دیگه جواب نده ، پس روش‌هایی مثل sparsification و سایر مکانیزم‌های بهینه‌سازی هم جواب نخواهد داد و نیاز به یک تغییر پارادایم در این زمینه هستیم. 

دیگه نمیشه تنها با افزایش قدرت و داده، کیفیت مدل‌ ها رو بالا ببریم، بلکه باید هوشمندانه‌ تر به موضوع نگاه کنیم و راه‌هایی برای سازگاری با این محدودیت‌ها پیدا کنیم.

برداشت من اینه که هرچه دانش بیشتری در وزن‌ های مدل فشرده شه و این وزن‌ ها بیانگر اطلاعات بیشتری از داده‌ها باشه، کوچک‌ ترین تغییر یا آشفتگی در اونها میتونه اثرات ویران‌ گر بیشتری داشته باشه. انگار هر چه یه ظرف رو پرتر کنیم، ثبات اون در برابر لرزش‌ ها کمتر می‌شه، در نتیجه، مرزی وجود دارده که از اون به بعد، افزودن دانش بیشتر نه تنها مفید نیست، بلکه باعث شکنندگی بیشتر میشه.

این مقاله با عنوان Scaling Laws for Precision که به صورت مشترک توسط دانشگاه هاروارد، دانشگاه استنفورد و MIT منتشر شده، برای اولین بار روابط کمی میان دقت، تعداد پارامترها و حجم داده‌ها در مدل‌ های زبانی بزرگ رو تعیین کرده و راهنمای نظری مهمی برای روندهای فعلی در توسعه مدل‌ ها فراهم کرده.

https://arxiv.org/abs/2411.04330
26🔥8👍6
Tensorflow(@CVision)
در گفتگوی نسبتا طولانی زیر با Leopold Aschenbrenner کارمند سابق OpenAI نقطه نظرات درخور تاملی در باره هوش مصنوعی عمومی AGI رد و بدل میشه این محقق سابق OpenAI می گه رسیدن به هوش مصنوعی عمومی (AGI) تا سال 2027 به طرز چشمگیری محتمل هست. نیازی به باور به داستان…
قبلا در مورد دعوای آمریکا و چین بر سر تایوان به صورت مختصر مطالبی در این پست نوشتم.

از آنجایی که مطالب این کانال الزاما به هوش مصنوعی اختصاص داره، وارد موضوعات کلان سیاسی این جریان نمیشم اما از بعد فناوری، فشار آمریکا برای محفوظ نگه داشتن سهم خوش از شرکت TSMC در راستای کاهش سرعت چین در دستیابی به سخت افزار های قدرتمند جهت توسعه فناوری هوش مصنوعی این کشور هست.

حالا گزارش سال ۲۰۲۴ کمیسیون بررسی اقتصادی و امنیتی آمریکا، که چند روز پیش منتشر شد به تحلیل گسترده ‌ای از روابط پیچیده اقتصادی، امنیتی و فناوری میان ایالات متحده و چین می‌پردازه. موضوعات بسیار متنوعی بحث میشه اما مواردی که مربوط به هوش مصنوعی هست به شرح زیرهستن:

در این گزارش توصیه کرده که کنگره، طرحی در مقیاس پروژه‌ی منهتن رو بنیانگذاری و تأمین مالی کنه که به طور اختصاصی برای دستیابی به توانمندی در زمینه‌ی هوش عمومی مصنوعی (AGI) به رقابت بپردازه.

هوش عمومی مصنوعی به ‌طور کلی به سامانه ‌هایی گفته میشه که در تمامی حوزه‌های شناختی، برابر یا فراتر از قابلیت‌ های انسانی عمل کنه. از جمله اقدامات مشخصی که کمیسیون برای کنگره پیشنهاد میکنه عبارتند از:

اعطای اختیار انعقاد قراردادهای بلندمدت به شاخه‌ی اجرایی دولت و تخصیص منابع مالی مرتبط به شرکت‌های پیشرو در زمینه هوش مصنوعی، خدمات ابری، مراکز داده و سایر بخش‌ها، به‌ منظور پیشبرد سیاست مذکور با سرعت و مقیاسی متناسب با هدف برتری ایالات متحده در زمینه AGI

هدایت وزیر دفاع ایالات متحده برای تخصیص رتبه‌ بندی "DX" در نظام اولویت‌ ها و تخصیص‌ های دفاعی به موارد مرتبط با اکوسیستم هوش مصنوعی، تا اطمینان حاصل شه که این پروژه در اولویت ملی قرار داره.
 
در واقع این توصیه ها گواهی بر تلاشی بنیادین برای تصاحب آینده، جایی که مرز میان انسان و ماشین در سایه قدرت شناختی و توانمندی‌های بی‌پایان به پرسش گرفته میشه.

تقریبا تمام کشورهای توسعه‌ یافته بر توسعه هوش عمومی مصنوعی (AGI) تمرکز خواهند کرد و اگر به درستی مدیریت نشه، ممکنه وارد عصر جدیدی از جنگ بشیم. به نظر میرسه که آمریکا قصد داره قدرتمندترین هوش مصنوعی رو برای مهار رقبا هرچه سریع ‌تر توسعه بده.
 
https://www.uscc.gov/sites/default/files/2024-11/2024_Executive_Summary.pdf
5👍3👀2
Automated-AI-Web-Researcher

 یه ابزار زبانی متن بازه که برای اجرای پژوهش‌ های آنلاین طراحی شده. این برنامه با استفاده از مدل‌ های زبانی لوکال مثل  Ollama، به شما این امکان رو میده تنها با وارد کردن یک سوال یا موضوع، یک فایل متنی پر از محتوای پژوهشی همراه با لینک منابع و خلاصه‌ای از یافته‌ها دریافت کنین.

در واقع برنامه به طور خودکار در اینترنت جستجو میکنه، محتوا جمع‌ آوری کرده و یک فایل متنی شامل اطلاعات و لینک منابع به همراه خلاصه ‌ای از یافته‌ ها تولید میکنه. علاوه بر این، امکان پرسیدن سؤالات بیشتر از یافته‌های پژوهش نیز وجود داره.

روند کار به این صورت هست که ابتدا پرسش شما رو به چند حوزه پژوهشی تقسیم میکنه (تا ۵ محور اصلی)، بعد اونها رو بر اساس میزان ارتباط اولویت ‌بندی کرده و از مرتبط ‌ترین بخش شروع به جستجو میکنه. 

پس از تکمیل جستجو، محتوای یافته ‌ها رو بررسی کرده و حوزه‌های جدیدی برای تحقیق شناسایی میکنه.

 این قابلیت گاهی محورهای جدید و نوآورانه ‌ای ایجاد میکنه که ممکنه به ذهن شما نرسه. در پایان هم برنامه تمامی اطلاعات جمع‌آوری ‌شده رو خلاصه کرده و پاسخی جامع به سوال اصلی شما ارایه میکنه. حتی میتونید از یافته ‌ها سوالات بیشتری بپرسین.

به عبارتی ویژگی‌های کلیدی به شرح زیر هست:

تولید محورهای پژوهشی جدید بر اساس یافته‌ها.
ذخیره تمامی محتوای یافته‌شده به همراه لینک منابع.
تولید خلاصه‌ای جامع از پژوهش و پاسخ به سؤال اولیه.

امکان مکالمه با مدل زبانی برای بررسی جزئیات بیشتر از یافته‌ها.

قابلیت متوقف کردن یا ادامه دادن پژوهش در هر زمان.
کاملا لوکال و روی سیستم شما اجرا میشه، بدون نیاز به ارسال داده‌ها به سرور خارجی.

https://github.com/TheBlewish/Automated-AI-Web-Researcher-Ollama
 
👍16
محققین یه رابط مغزی زنده ایجاد کردن که شامل نورون‌ های کنترل‌ شونده با نور هست. این نورون‌ ها با موفقیت در مغز یک موش ادغام شدن و مدارهای عصبی جدیدی رو شکل دادن و با استفاده از نور کنترل میشن. این دستاورد ممکنه روزی امکان ایجاد تجربیات حسی مصنوعی دقیق رو فراهم کنه.

این روش با رابط‌ های سنتی مغز و کامپیوتر تفاوت داره و به جای استفاده از الکترودها یا موادی که مغز اونها رو پس می‌زنه، نورون‌ های زنده جدیدی به مغز اضافه میکنه که بخشی از خود مغز میشن.

https://science.xyz/news/biohybrid-neural-interfaces/
👍10🤔1
#تخفیف #opencv
📢 0️⃣5️⃣ درصد تخفیف دوره opencv برای 100 نفر اول:

گام نخست: ورود با لینک خرید با تخفیف
وارد کردن کد تخفیف 50 درصدی: COUPON-9f654
👌5👎2
2025/07/11 18:34:11
Back to Top
HTML Embed Code: