Onlinebme
نقشه راه پردازش سیگنال مغزی EEG PDF @Onlinebme
✅نقشه راه به همراه توضیحات در وبسایت👇
https://onlinebme.com/roadmap-for-onlinebme-courses/
@Onlinebme
https://onlinebme.com/roadmap-for-onlinebme-courses/
@Onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
نقشه راه برای یادگیری ماشین، یادگیری عمیق و پردازش سیگنال مغزی - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
در این پست سعی کرده ام نقشه راه برای یادگیری ماشین، یادگیری عمیق و پردازش سیگنال مغزی ارائه بدهم تا یک دید کلی از مسیر هر حوزه بدست بیارید و اگه خواستید با دوره های ما این مباحث رو یاد بگیرید بدونید که چه دوره هایی و با چه ترتیبی ببینید.
❤4
Onlinebme
✅ مفهوم Dropout در یادگیری عمیق 👩💻نویسنده: فاطمه بذری یکی از موانع بزرگ در الگوریتم های یادگیری عمیق، Overfitting است که برای مقابله با این پدیده، راهکارهای متعددی تاکنون توسط محققان ارائه شده است که در قالب تکنیکهای Generalization معرفی و در مقالات مورد…
This media is not supported in your browser
VIEW IN TELEGRAM
✅ تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی
🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود.
💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد.
@Onlinebme
🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود.
💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد.
@Onlinebme
👍9
Onlinebme
✅ تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی 🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود. 💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد. @Onlinebme
💡راهنمای کلی در مورد تنظیم و تعیین هاپیرپارامترهای شبکه های عصبی
✅ نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد میشود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
✅ تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا میکنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص میکند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.
✅ تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف میشود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین میشود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.
💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
✅ تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال میکند.
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
✅ روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری میکند.
🔷 مقدار بیش از حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
✅ تعداد تکه ها (batch size): مشخص میکند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا میکند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض: 32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد میشود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
✅ تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا میکنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص میکند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.
✅ تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف میشود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین میشود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.
💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
✅ تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال میکند.
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
✅ روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری میکند.
🔷 مقدار بیش از حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
✅ تعداد تکه ها (batch size): مشخص میکند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا میکند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض: 32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍8
Onlinebme
چندتا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI @Onlinebme
The best of ChatGPT Images.pdf
23.3 MB
✅ 15 تا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI
💡برای برخی تصاویر Prompt هم قرار داده شده.
@Onlinebme
💡برای برخی تصاویر Prompt هم قرار داده شده.
@Onlinebme
🔥3
Onlinebme
💡ساختار یک نورون @Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
این ویدیو فقط بخشی از فرآیند پیچیده و شگفتانگیز رو نشون میده که مغز ما چطور بهطور مداوم ارتباطات بین نورون را در پاسخ به تجربه های ما بازسازی میکند.
💡به قول دکتر Lara Boyd *هر شب که میخوابیم، فرداش یک شخص جدید هستیم، چرا که مغز ما ساختارش رو تغییر داده و ما دیگر آن فرد سابق نیستیم!
*
@Onlinebme
💡به قول دکتر Lara Boyd *هر شب که میخوابیم، فرداش یک شخص جدید هستیم، چرا که مغز ما ساختارش رو تغییر داده و ما دیگر آن فرد سابق نیستیم!
*
Neuroscientist at the University of British Columbia
@Onlinebme
👍5🤩1
Onlinebme
این ویدیو فقط بخشی از فرآیند پیچیده و شگفتانگیز رو نشون میده که مغز ما چطور بهطور مداوم ارتباطات بین نورون را در پاسخ به تجربه های ما بازسازی میکند. 💡به قول دکتر Lara Boyd *هر شب که میخوابیم، فرداش یک شخص جدید هستیم، چرا که مغز ما ساختارش رو تغییر داده…
🔷 وقتی یک نورون فعال میشه، یک فعالیت الکتریکی از طریق آکسون ها ارسال شده و باعث آزادسازی نوروترنسمیترها در فضای سیناپسی (synaptic gap) میشه!
🔷 این مولکلها به گیرنده های نورونهای همسایه متصل میشن و باعث ایجاد یک پاسخ در نورون همسایه شده و در نتیجه آن سیگنال تولید شده به نورونهای دیگر منتقل میشه.
🔷 در طول زمان، این ارتباطات مداوم بین نورنها باعث تقویت اتصالات سیناپسی بین نورونها میشه، فرایندی که به آن انعطافپذیری سیناپسی گفته میشه.
🔷 این روند برای یادگیری، شکل گیری حافظه، توانایی مغز در سازگاری با اطلاعات جدید یا بهبود بعد از یک آسیب بسیار حیاتی هست.
💡 شکل گیری یک سیناپس جدید، نه تنها باعث رهاسازی نوروترنسمیترها میشه، بلکه باعث رشد فیزیکی و شاخه دار شدن (ایجاد دندریت ها و آکسون جدید) در ساختار نورونها میشه.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🔷 این مولکلها به گیرنده های نورونهای همسایه متصل میشن و باعث ایجاد یک پاسخ در نورون همسایه شده و در نتیجه آن سیگنال تولید شده به نورونهای دیگر منتقل میشه.
🔷 در طول زمان، این ارتباطات مداوم بین نورنها باعث تقویت اتصالات سیناپسی بین نورونها میشه، فرایندی که به آن انعطافپذیری سیناپسی گفته میشه.
🔷 این روند برای یادگیری، شکل گیری حافظه، توانایی مغز در سازگاری با اطلاعات جدید یا بهبود بعد از یک آسیب بسیار حیاتی هست.
💡 شکل گیری یک سیناپس جدید، نه تنها باعث رهاسازی نوروترنسمیترها میشه، بلکه باعث رشد فیزیکی و شاخه دار شدن (ایجاد دندریت ها و آکسون جدید) در ساختار نورونها میشه.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🔘 ناکارآمدی هوش مصنوعی در ریاضیات🧐
💡همانطور که یان لیکان* باور دارد ، مدلهای زبانی بزرگ (LLMها) فعلا نمیتونند المپیاد جدید ریاضی رو شکست بدهند.
🔷 یه مطالعه جدید به اسم «اثبات یا بلوف؟ بررسی عملکرد LLMها در المپیاد ریاضی آمریکا ۲۰۲۵» نشون میده که حتی بهترین مدلهای هوش مصنوعی توی سوالات جدید المپیاد کمتر از %5 نمره گرفتن ( با اینکه توی سوالات قدیمی که قبلاً "دیده بودن" یا روشون آموزش دیده بودن، عملکرد خوبی داشتند).
💡نتیجه چیه؟ این مدلها بیشتر به حفظ کردن تکیه دارن تا استدلال واقعی. برای کارهای تکراری یا آشنا خوبن، ولی هنوز نباید بهشون لقب "ابرهوشمند" بدیم. انگار این مدلها فعلا بیشتر برای شناسایی الگو خوب هستند تا درک واقعی و استدلال
*
https://arxiv.org/abs/2503.21934
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡همانطور که یان لیکان* باور دارد ، مدلهای زبانی بزرگ (LLMها) فعلا نمیتونند المپیاد جدید ریاضی رو شکست بدهند.
🔷 یه مطالعه جدید به اسم «اثبات یا بلوف؟ بررسی عملکرد LLMها در المپیاد ریاضی آمریکا ۲۰۲۵» نشون میده که حتی بهترین مدلهای هوش مصنوعی توی سوالات جدید المپیاد کمتر از %5 نمره گرفتن ( با اینکه توی سوالات قدیمی که قبلاً "دیده بودن" یا روشون آموزش دیده بودن، عملکرد خوبی داشتند).
💡نتیجه چیه؟ این مدلها بیشتر به حفظ کردن تکیه دارن تا استدلال واقعی. برای کارهای تکراری یا آشنا خوبن، ولی هنوز نباید بهشون لقب "ابرهوشمند" بدیم. انگار این مدلها فعلا بیشتر برای شناسایی الگو خوب هستند تا درک واقعی و استدلال
*
لیکان کسی هست که شبکههای عصبی کانولوشنی یا همون CNNها رو به دنیا معرفی کرد (یه مدل انقلابی که مغز کامپیوترها رو به چشمی هوشمند تبدیل کرد!). الان هم استاد دانشگاه نیویورک و مدیر ارشد هوش مصنوعی توی شرکت متا (فیسبوک سابق) هست.🔘لینک مقاله
https://arxiv.org/abs/2503.21934
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
arXiv.org
Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad
Recent math benchmarks for large language models (LLMs) such as MathArena indicate that state-of-the-art reasoning models achieve impressive performance on mathematical competitions like AIME,...
👍5👌2
Onlinebme
🔘 ناکارآمدی هوش مصنوعی در ریاضیات🧐 💡همانطور که یان لیکان* باور دارد ، مدلهای زبانی بزرگ (LLMها) فعلا نمیتونند المپیاد جدید ریاضی رو شکست بدهند. 🔷 یه مطالعه جدید به اسم «اثبات یا بلوف؟ بررسی عملکرد LLMها در المپیاد ریاضی آمریکا ۲۰۲۵» نشون میده که حتی بهترین…
✅ نکات جالبی که در مقاله بهشون اشاره شده
💡 رایجترین خطایی که بین شرکتکنندگان انسانی دیده میشه، ناتوانی در پیدا کردن راهحل درسته. ولی نکته جالب اینه که انسانها معمولاً خودشون میدونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه حل میکردند با از اطمینان ادعا میکردند که مسئله رو حل کرده اند! یعنی حتی توانایی درک درست یا غلط بودن راه حل خودشون رو هم ندارند!
⚠️مقاله در ادامه ذکر میکنه که این تفاوت (بین مدلها و انسانها) یه چالش بزرگ برای استفاده از مدلها در زمینه های ریاضیات ایجاد میکنه، چرا که نمیتونیم به جوابهای مدلها اعتماد کنیم! مگر اینکه توسط یک انسان دقیق بررسی بشوند.
💡نکته بعدی اینه که نویسندگان مقاله در آزمایشات مشاهده کرده اند این بود که مدلها مشکل اساسی در خلاقیت دارند، بیشتر مدلها فقط یک روش که اونم معمولا اشتباه بوده رو بارها امتحان میکردن و اصلا سراغ روش دیگه ای نمیرفتند!
@Onlinebme
💡 رایجترین خطایی که بین شرکتکنندگان انسانی دیده میشه، ناتوانی در پیدا کردن راهحل درسته. ولی نکته جالب اینه که انسانها معمولاً خودشون میدونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه حل میکردند با از اطمینان ادعا میکردند که مسئله رو حل کرده اند! یعنی حتی توانایی درک درست یا غلط بودن راه حل خودشون رو هم ندارند!
اینو من در دوره پایتورچ که برای اثبات برخی روابط بهینه سازی از ChatGPT کمک میگرفتم خیلی میدیدم. جالبیش اینجا بود که وقتی بهش میگفتم اشتباه اثبات کردی ازم تشکر میکرد و دوباره همون مسیر اشتباه رو میرفت 😁
⚠️مقاله در ادامه ذکر میکنه که این تفاوت (بین مدلها و انسانها) یه چالش بزرگ برای استفاده از مدلها در زمینه های ریاضیات ایجاد میکنه، چرا که نمیتونیم به جوابهای مدلها اعتماد کنیم! مگر اینکه توسط یک انسان دقیق بررسی بشوند.
💡نکته بعدی اینه که نویسندگان مقاله در آزمایشات مشاهده کرده اند این بود که مدلها مشکل اساسی در خلاقیت دارند، بیشتر مدلها فقط یک روش که اونم معمولا اشتباه بوده رو بارها امتحان میکردن و اصلا سراغ روش دیگه ای نمیرفتند!
@Onlinebme
👍3👌1
Onlinebme
✅ نکات جالبی که در مقاله بهشون اشاره شده 💡 رایجترین خطایی که بین شرکتکنندگان انسانی دیده میشه، ناتوانی در پیدا کردن راهحل درسته. ولی نکته جالب اینه که انسانها معمولاً خودشون میدونن که جوابشون درسته یا نه. ولی همه مدلهای زبانی حتی وقتی مسئله رو اشتباه…
رایج ترین خطایی هم که مدلها داشتند، logic یا خطای منطقی بوده، یعنی مدلها ادر اثبات روابط از استدلال اشتباه یا ناقص استفاده میکردند، یا دلایل غلط میاوردند و یا اثباتهای قبلی رو اشتباه تفسیر میکردند.
💡کمترین خطا رو هم برای حل روابط جبری و حسابی داشتند.👌
@Onlinebme
💡کمترین خطا رو هم برای حل روابط جبری و حسابی داشتند.👌
@Onlinebme
Onlinebme
پاهای بیونیک مجهز به سنسورهای پیشرفته و هوش مصنوعی است که باعث میشه تا در مکانهای مختلف منعطف عمل کند و به افراد قابلیت حرکت طبیعی و پایدار بدهد. این پاها به افراد این توانایی رو میدهند که بدون استفاده از عصا حرکت کنند. @Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
💡 «حس مصنوعی برای دستهای بیونیکی کنترلشونده با مغز»
🔹 تیم Neural Bionics Lab موفق شده یه سیستم BCI طراحی کنه که به افراد حس لمس اشیاء رو منتقل میکنه!
🔹 با استفاده از فناوری تحریک میکروکورتیال (ICMS)، کاربران دستهای بیونیکی میتونن لبهها، حرکت و شکل اجسام رو احساس کنن!
🦾 یعنی یه جهش فوقالعاده در دنیای واسطهای مغز-کامپیوتر!
تا امروز، تمرکز بیشتر پژوهشها روی رمزگشایی افکار بوده؛
اما توی این مطالعه، حس واقعی بودن بازوی مصنوعی به کاربر القا میشه، انگار بازوی مصنوعی بخشی از بدن کاربر هست.
@Onlinebme
🔹 تیم Neural Bionics Lab موفق شده یه سیستم BCI طراحی کنه که به افراد حس لمس اشیاء رو منتقل میکنه!
🔹 با استفاده از فناوری تحریک میکروکورتیال (ICMS)، کاربران دستهای بیونیکی میتونن لبهها، حرکت و شکل اجسام رو احساس کنن!
🦾 یعنی یه جهش فوقالعاده در دنیای واسطهای مغز-کامپیوتر!
تا امروز، تمرکز بیشتر پژوهشها روی رمزگشایی افکار بوده؛
اما توی این مطالعه، حس واقعی بودن بازوی مصنوعی به کاربر القا میشه، انگار بازوی مصنوعی بخشی از بدن کاربر هست.
@Onlinebme
👍8🥰3🔥2👌1
Onlinebme
🌐 درمان اختلال وسواس با استفاده از ایده دست جعلی نویسنده: پریسا ایلون ✍ برای درمان برخی افکار مخل در بیماریهای اختلال وسواس، رویکرد جدیدی وجود دارد که الهام گرفته از توهم فریبنده کلاسیک است. این رویکرد درمانی، استرس کمتری را در مقایسه با روشهای حال حاضر…
⚠️همیشه درک ما با واقعیت همسو نیست!
نور نقش مهمی در درک رنگها داره، اما این فقط مربوط به رنگ نیست. این پدیده شامل تأثیر متقابل میدانهای گیرندهی نورونها (receptive fields) روی یکدیگر و همچنین سازگاری (adaptation) در سطح نورونهاست.
🔍 توهمات بصری چیزهای زیادی دربارهی عملکرد شبکیهی عصبی و سیستم بینایی به ما یاد دادند و کمک زیادی به درک نحوهی پردازش اطلاعات تصویری در مغز کردند.
Andrew Huberman
💡هر دو بخش یک رنگ هستند، انگشتتون رو روی خط وسط قرار بدید و مجدد بررسی کنید.
@Onlinebme
نور نقش مهمی در درک رنگها داره، اما این فقط مربوط به رنگ نیست. این پدیده شامل تأثیر متقابل میدانهای گیرندهی نورونها (receptive fields) روی یکدیگر و همچنین سازگاری (adaptation) در سطح نورونهاست.
🔍 توهمات بصری چیزهای زیادی دربارهی عملکرد شبکیهی عصبی و سیستم بینایی به ما یاد دادند و کمک زیادی به درک نحوهی پردازش اطلاعات تصویری در مغز کردند.
Andrew Huberman
💡هر دو بخش یک رنگ هستند، انگشتتون رو روی خط وسط قرار بدید و مجدد بررسی کنید.
میدان گیرنده (Receptive Field) چیه؟
میدان گیرندهی یک نورون، ناحیهای از فضاست که محرکهای بینایی در اون میتونن نرخ شلیک نورون (firing rate) رو تحت تأثیر قرار بدن.
حساسیت نورونها به حرکت، بستگی زیادی به ویژگیهای فضایی receptive field شون داره؛ مثل اندازه، شکل و نواحی فرعی RF
@Onlinebme
👍3
Media is too big
VIEW IN TELEGRAM
✅ مطالعهی تاریخی هابل و ویزل
دیوید هابل و تورستن ویزل در آزمایشی از نورونهای قشر بینایی گربهها سیگنال ثبت کرده و تونستن میدانهای گیرندهشون رو ترسیم کنند.
📢 صدای تقتق هم که می شنوید، در واقع فعالیت الکتریکی نورونهاست که از طریق سیستم صوتی پخش میشه.
@Onlinebme
دیوید هابل و تورستن ویزل در آزمایشی از نورونهای قشر بینایی گربهها سیگنال ثبت کرده و تونستن میدانهای گیرندهشون رو ترسیم کنند.
📢 صدای تقتق هم که می شنوید، در واقع فعالیت الکتریکی نورونهاست که از طریق سیستم صوتی پخش میشه.
@Onlinebme
🤩2