Onlinebme
نقشه راه پردازش سیگنال مغزی EEG PDF @Onlinebme
✅نقشه راه به همراه توضیحات در وبسایت👇
https://onlinebme.com/roadmap-for-onlinebme-courses/
@Onlinebme
https://onlinebme.com/roadmap-for-onlinebme-courses/
@Onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
نقشه راه برای یادگیری ماشین، یادگیری عمیق و پردازش سیگنال مغزی - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
در این پست سعی کرده ام نقشه راه برای یادگیری ماشین، یادگیری عمیق و پردازش سیگنال مغزی ارائه بدهم تا یک دید کلی از مسیر هر حوزه بدست بیارید و اگه خواستید با دوره های ما این مباحث رو یاد بگیرید بدونید که چه دوره هایی و با چه ترتیبی ببینید.
Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
✅ تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی
🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود.
💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد.
@Onlinebme
🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود.
💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد.
@Onlinebme
Onlinebme
✅ تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی 🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود. 💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد. @Onlinebme
💡راهنمای کلی در مورد تنظیم و تعیین هاپیرپارامترهای شبکه های عصبی
✅ نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد میشود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
✅ تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا میکنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص میکند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.
✅ تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف میشود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین میشود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.
💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
✅ تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال میکند.
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
✅ روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری میکند.
🔷 مقدار بیش از حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
✅ تعداد تکه ها (batch size): مشخص میکند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا میکند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض: 32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد میشود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
✅ تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا میکنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص میکند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.
✅ تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف میشود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین میشود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.
💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
✅ تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال میکند.
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
✅ روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری میکند.
🔷 مقدار بیش از حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
✅ تعداد تکه ها (batch size): مشخص میکند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا میکند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض: 32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Onlinebme
چندتا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI @Onlinebme
The best of ChatGPT Images.pdf
23.3 MB
✅ 15 تا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI
💡برای برخی تصاویر Prompt هم قرار داده شده.
@Onlinebme
💡برای برخی تصاویر Prompt هم قرار داده شده.
@Onlinebme
Onlinebme
💡ساختار یک نورون @Onlinebme
Please open Telegram to view this post
VIEW IN TELEGRAM
Onlinebme
🔷 وقتی یک نورون فعال میشه، یک فعالیت الکتریکی از طریق آکسون ها ارسال شده و باعث آزادسازی نوروترنسمیترها در فضای سیناپسی (synaptic gap) میشه!
🔷 این مولکلها به گیرنده های نورونهای همسایه متصل میشن و باعث ایجاد یک پاسخ در نورون همسایه شده و در نتیجه آن سیگنال تولید شده به نورونهای دیگر منتقل میشه.
🔷 در طول زمان، این ارتباطات مداوم بین نورنها باعث تقویت اتصالات سیناپسی بین نورونها میشه، فرایندی که به آن انعطافپذیری سیناپسی گفته میشه.
🔷 این روند برای یادگیری، شکل گیری حافظه، توانایی مغز در سازگاری با اطلاعات جدید یا بهبود بعد از یک آسیب بسیار حیاتی هست.
💡 شکل گیری یک سیناپس جدید، نه تنها باعث رهاسازی نوروترنسمیترها میشه، بلکه باعث رشد فیزیکی و شاخه دار شدن (ایجاد دندریت ها و آکسون جدید) در ساختار نورونها میشه.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🔷 این مولکلها به گیرنده های نورونهای همسایه متصل میشن و باعث ایجاد یک پاسخ در نورون همسایه شده و در نتیجه آن سیگنال تولید شده به نورونهای دیگر منتقل میشه.
🔷 در طول زمان، این ارتباطات مداوم بین نورنها باعث تقویت اتصالات سیناپسی بین نورونها میشه، فرایندی که به آن انعطافپذیری سیناپسی گفته میشه.
🔷 این روند برای یادگیری، شکل گیری حافظه، توانایی مغز در سازگاری با اطلاعات جدید یا بهبود بعد از یک آسیب بسیار حیاتی هست.
💡 شکل گیری یک سیناپس جدید، نه تنها باعث رهاسازی نوروترنسمیترها میشه، بلکه باعث رشد فیزیکی و شاخه دار شدن (ایجاد دندریت ها و آکسون جدید) در ساختار نورونها میشه.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Onlinebme
✅ نکات جالبی که در مقاله بهشون اشاره شده
💡 رایجترین خطایی که بین شرکتکنندگان انسانی دیده میشه، ناتوانی در پیدا کردن راهحل درسته. ولی نکته جالب اینه که انسانها معمولاً خودشون میدونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه حل میکردند با از اطمینان ادعا میکردند که مسئله رو حل کرده اند! یعنی حتی توانایی درک درست یا غلط بودن راه حل خودشون رو هم ندارند!
⚠️مقاله در ادامه ذکر میکنه که این تفاوت (بین مدلها و انسانها) یه چالش بزرگ برای استفاده از مدلها در زمینه های ریاضیات ایجاد میکنه، چرا که نمیتونیم به جوابهای مدلها اعتماد کنیم! مگر اینکه توسط یک انسان دقیق بررسی بشوند.
💡نکته بعدی اینه که نویسندگان مقاله در آزمایشات مشاهده کرده اند این بود که مدلها مشکل اساسی در خلاقیت دارند، بیشتر مدلها فقط یک روش که اونم معمولا اشتباه بوده رو بارها امتحان میکردن و اصلا سراغ روش دیگه ای نمیرفتند!
@Onlinebme
💡 رایجترین خطایی که بین شرکتکنندگان انسانی دیده میشه، ناتوانی در پیدا کردن راهحل درسته. ولی نکته جالب اینه که انسانها معمولاً خودشون میدونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه حل میکردند با از اطمینان ادعا میکردند که مسئله رو حل کرده اند! یعنی حتی توانایی درک درست یا غلط بودن راه حل خودشون رو هم ندارند!
اینو من در دوره پایتورچ که برای اثبات برخی روابط بهینه سازی از ChatGPT کمک میگرفتم خیلی میدیدم. جالبیش اینجا بود که وقتی بهش میگفتم اشتباه اثبات کردی ازم تشکر میکرد و دوباره همون مسیر اشتباه رو میرفت 😁
⚠️مقاله در ادامه ذکر میکنه که این تفاوت (بین مدلها و انسانها) یه چالش بزرگ برای استفاده از مدلها در زمینه های ریاضیات ایجاد میکنه، چرا که نمیتونیم به جوابهای مدلها اعتماد کنیم! مگر اینکه توسط یک انسان دقیق بررسی بشوند.
💡نکته بعدی اینه که نویسندگان مقاله در آزمایشات مشاهده کرده اند این بود که مدلها مشکل اساسی در خلاقیت دارند، بیشتر مدلها فقط یک روش که اونم معمولا اشتباه بوده رو بارها امتحان میکردن و اصلا سراغ روش دیگه ای نمیرفتند!
@Onlinebme
Onlinebme
✅ نکات جالبی که در مقاله بهشون اشاره شده 💡 رایجترین خطایی که بین شرکتکنندگان انسانی دیده میشه، ناتوانی در پیدا کردن راهحل درسته. ولی نکته جالب اینه که انسانها معمولاً خودشون میدونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه…
رایج ترین خطایی هم که مدلها داشتند، logic یا خطای منطقی بوده، یعنی مدلها ادر اثبات روابط از استدلال اشتباه یا ناقص استفاده میکردند، یا دلایل غلط میاوردند و یا اثباتهای قبلی رو اشتباه تفسیر میکردند.
💡کمترین خطا رو هم برای حل روابط جبری و حسابی داشتند.👌
@Onlinebme
💡کمترین خطا رو هم برای حل روابط جبری و حسابی داشتند.👌
@Onlinebme
Onlinebme
پاهای بیونیک مجهز به سنسورهای پیشرفته و هوش مصنوعی است که باعث میشه تا در مکانهای مختلف منعطف عمل کند و به افراد قابلیت حرکت طبیعی و پایدار بدهد. این پاها به افراد این توانایی رو میدهند که بدون استفاده از عصا حرکت کنند. @Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
💡 «حس مصنوعی برای دستهای بیونیکی کنترلشونده با مغز»
🔹 تیم Neural Bionics Lab موفق شده یه سیستم BCI طراحی کنه که به افراد حس لمس اشیاء رو منتقل میکنه!
🔹 با استفاده از فناوری تحریک میکروکورتیال (ICMS)، کاربران دستهای بیونیکی میتونن لبهها، حرکت و شکل اجسام رو احساس کنن!
🦾 یعنی یه جهش فوقالعاده در دنیای واسطهای مغز-کامپیوتر!
تا امروز، تمرکز بیشتر پژوهشها روی رمزگشایی افکار بوده؛
اما توی این مطالعه، حس واقعی بودن بازوی مصنوعی به کاربر القا میشه، انگار بازوی مصنوعی بخشی از بدن کاربر هست.
@Onlinebme
🔹 تیم Neural Bionics Lab موفق شده یه سیستم BCI طراحی کنه که به افراد حس لمس اشیاء رو منتقل میکنه!
🔹 با استفاده از فناوری تحریک میکروکورتیال (ICMS)، کاربران دستهای بیونیکی میتونن لبهها، حرکت و شکل اجسام رو احساس کنن!
🦾 یعنی یه جهش فوقالعاده در دنیای واسطهای مغز-کامپیوتر!
تا امروز، تمرکز بیشتر پژوهشها روی رمزگشایی افکار بوده؛
اما توی این مطالعه، حس واقعی بودن بازوی مصنوعی به کاربر القا میشه، انگار بازوی مصنوعی بخشی از بدن کاربر هست.
@Onlinebme
Onlinebme
🌐 درمان اختلال وسواس با استفاده از ایده دست جعلی نویسنده: پریسا ایلون ✍ برای درمان برخی افکار مخل در بیماریهای اختلال وسواس، رویکرد جدیدی وجود دارد که الهام گرفته از توهم فریبنده کلاسیک است. این رویکرد درمانی، استرس کمتری را در مقایسه با روشهای حال حاضر…
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✅ مطالعهی تاریخی هابل و ویزل
دیوید هابل و تورستن ویزل در آزمایشی از نورونهای قشر بینایی گربهها سیگنال ثبت کرده و تونستن میدانهای گیرندهشون رو ترسیم کنند.
📢 صدای تقتق هم که می شنوید، در واقع فعالیت الکتریکی نورونهاست که از طریق سیستم صوتی پخش میشه.
@Onlinebme
دیوید هابل و تورستن ویزل در آزمایشی از نورونهای قشر بینایی گربهها سیگنال ثبت کرده و تونستن میدانهای گیرندهشون رو ترسیم کنند.
📢 صدای تقتق هم که می شنوید، در واقع فعالیت الکتریکی نورونهاست که از طریق سیستم صوتی پخش میشه.
@Onlinebme