Telegram Web Link
Onlinebme
نقشه راه یادگیری عمیق @onlinebme
نقشه راه پردازش سیگنال مغزی EEG
PDF

@Onlinebme
Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی
🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود.

💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد.

@Onlinebme
Onlinebme
تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی 🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود. 💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد. @Onlinebme
💡راهنمای کلی در مورد تنظیم و تعیین هاپیرپارامترهای شبکه های عصبی

نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد می‌شود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
 
تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا می‌کنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص می‌کند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.  
 
تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف می‌شود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین می‌شود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting  بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.

💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
 
تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال می‌کند. 
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
 
روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری می‌کند.
🔷 مقدار بیش از  حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از  حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
 
تعداد تکه ها (batch size): مشخص می‌کند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا می‎کند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض:  32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
 
 🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
چندتا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI

@Onlinebme
Onlinebme
چندتا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI @Onlinebme
The best of ChatGPT Images.pdf
23.3 MB
15 تا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI
💡برای برخی تصاویر Prompt هم قرار داده شده.

@Onlinebme
Onlinebme
💡ساختار یک نورون @Onlinebme
Please open Telegram to view this post
VIEW IN TELEGRAM
Onlinebme
🔷 وقتی یک نورون فعال میشه، یک فعالیت الکتریکی از طریق آکسون ها ارسال شده و باعث آزادسازی نوروترنسمیترها در فضای سیناپسی (synaptic gap) میشه!

🔷 این مولکلها به گیرنده های نورونهای همسایه متصل میشن و باعث ایجاد یک پاسخ در نورون همسایه شده و در نتیجه آن سیگنال تولید شده به نورونهای دیگر منتقل میشه.

🔷 در طول زمان، این ارتباطات مداوم بین نورنها باعث تقویت اتصالات سیناپسی بین نورونها میشه، فرایندی که به آن انعطاف‌پذیری سیناپسی گفته میشه.

🔷 این روند برای یادگیری، شکل گیری حافظه، توانایی مغز در سازگاری با اطلاعات جدید یا بهبود بعد از یک آسیب بسیار حیاتی هست.

💡 شکل گیری یک سیناپس جدید، نه تنها باعث رهاسازی نوروترنسمیترها میشه، بلکه باعث رشد فیزیکی و شاخه دار شدن (ایجاد دندریت ها و آکسون جدید) در ساختار نورونها میشه.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
مهمترین و پرکاربردترین فرمول‌هایی که هر فردی باید بلد باشه...
فقط آخریش 😅
@Onlinebme
Please open Telegram to view this post
VIEW IN TELEGRAM
Onlinebme
نکات جالبی که در مقاله بهشون اشاره شده

💡 رایج‌ترین خطایی که بین شرکت‌کنندگان انسانی دیده می‌شه، ناتوانی در پیدا کردن راه‌حل درسته. ولی نکته جالب اینه که انسان‌ها معمولاً خودشون می‌دونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه حل میکردند با از اطمینان ادعا میکردند که مسئله رو حل کرده اند! یعنی حتی توانایی درک درست یا غلط بودن راه حل خودشون رو هم ندارند!
اینو من در دوره پایتورچ که برای اثبات برخی روابط بهینه سازی از ChatGPT کمک میگرفتم خیلی میدیدم. جالبیش اینجا بود که وقتی بهش میگفتم اشتباه اثبات کردی ازم تشکر میکرد و دوباره همون مسیر اشتباه رو میرفت 😁

⚠️مقاله در ادامه ذکر میکنه که این تفاوت (بین مدلها و انسانها) یه چالش بزرگ برای استفاده از مدلها در زمینه های ریاضیات ایجاد میکنه، چرا که نمیتونیم به جوابهای مدلها اعتماد کنیم! مگر اینکه توسط یک انسان دقیق بررسی بشوند.

💡نکته بعدی اینه که نویسندگان مقاله در آزمایشات مشاهده کرده اند این بود که مدلها مشکل اساسی در خلاقیت دارند، بیشتر مدلها فقط یک روش که اونم معمولا اشتباه بوده رو بارها امتحان میکردن و اصلا سراغ روش دیگه ای نمیرفتند!

@Onlinebme
Onlinebme
نکات جالبی که در مقاله بهشون اشاره شده 💡 رایج‌ترین خطایی که بین شرکت‌کنندگان انسانی دیده می‌شه، ناتوانی در پیدا کردن راه‌حل درسته. ولی نکته جالب اینه که انسان‌ها معمولاً خودشون می‌دونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه…
رایج ترین خطایی هم که مدلها داشتند، logic یا خطای منطقی بوده، یعنی مدلها ادر اثبات روابط از استدلال اشتباه یا ناقص استفاده میکردند، یا دلایل غلط میاوردند و یا اثباتهای قبلی رو اشتباه تفسیر میکردند.

💡کمترین خطا رو هم برای حل روابط جبری و حسابی داشتند.👌

@Onlinebme
Onlinebme
پاهای بیونیک مجهز به سنسورهای پیشرفته و هوش مصنوعی است که باعث میشه تا در مکانهای مختلف منعطف عمل کند و به افراد قابلیت حرکت طبیعی و پایدار بدهد. این پاها به افراد این توانایی رو میدهند که بدون استفاده از عصا حرکت کنند.  @Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
💡 «حس مصنوعی برای دست‌های بیونیکی کنترل‌شونده با مغز»

🔹 تیم Neural Bionics Lab موفق شده یه سیستم BCI طراحی کنه که به افراد حس لمس اشیاء رو منتقل می‌کنه!
🔹 با استفاده از فناوری تحریک میکروکورتیال (ICMS)، کاربران دست‌های بیونیکی می‌تونن لبه‌ها، حرکت و شکل اجسام رو احساس کنن!

🦾 یعنی یه جهش فوق‌العاده در دنیای واسط‌های مغز-کامپیوتر!

تا امروز، تمرکز بیشتر پژوهش‌ها روی رمزگشایی افکار بوده؛
اما توی این مطالعه، حس واقعی بودن بازوی مصنوعی به کاربر القا میشه، انگار بازوی مصنوعی بخشی از بدن کاربر هست.
@Onlinebme
Media is too big
VIEW IN TELEGRAM
مطالعه‌ی تاریخی هابل و ویزل

دیوید هابل و تورستن ویزل در آزمایشی از نورون‌های قشر بینایی گربه‌ها سیگنال ثبت کرده و تونستن میدان‌های گیرنده‌شون رو ترسیم کنند.

📢 صدای تق‌تق‌ هم که می شنوید، در واقع فعالیت الکتریکی نورون‌هاست که از طریق سیستم صوتی پخش می‌شه.
@Onlinebme
2025/07/06 07:07:33
Back to Top
HTML Embed Code: