Onlinebme
💡نقشه راه و چالش ۱۰ هفتهای یادگیری پایتون با Onlinebme #چالش_10_هفتهای 🔥 اگه میخوای پایتون یاد بگیری ولی نمیدونی از کجا و کی شروع کنی، این چالش برای توئه! @Onlinebme
💡 نقشه راه و چالش 10 هفتهای یادگیری پایتون با Onlinebme
✅ بخش اول: شروع از صفر - یادگیری اصول پایه برنامه نویسی در پایتون
1⃣ هفته اول: پایتون مقدماتی
🔺نصب، متغیرها، if-else، try-except، حلقهها، توابع
2⃣ هفته دوم: ساختارهای داده
🔺لیست، دیکشنری، تاپل، رشتهها، فایلها
✅ بخش دوم: پایتون پیشرفته + کتابخانههای کاربردی
3⃣ هفته سوم: کار با آرایه های NumPy
4⃣ هفته چهارم: رسم نمودار با Matplotlib
5⃣ هفته پنجم: برنامهنویسی شیء گرایی در پایتون
6⃣ هفته ششم: کار با Pandas برای تحلیل داده
7⃣ هفته هفتم: یادگیری ماشین با scikit-learn
✅ بخش سوم: شروع یادگیری عمیق با PyTorch
8⃣ هفته هشتم: کار با تنسورها در PyTorch
9⃣ هفته نهم: ساخت دیتاست سفارشی در PyTorch
🔟 هفته دهم: طراحی شبکه عصبی در PyTorch
📌 جزییات نقشه راه
💡 هر هفته تمرینات مرتبط در کانال تلگرام منتشر میشه و شما میتونید تمرینها رو انجام داده و برای ما بفرستید.
✅ تمرینها بررسی شده و فیدبک اختصاصی دریافت میکنید.
🎯 هدف چالش
هدف اصلی این چالش ۱۰ هفتهای اینه که فرصتی برای یادگیری منظم باشه؛ مسیری که ما رو متعهد کنه هر هفته بخشی از اون رو همراه با دیگران پیش ببریم و از یادگیری مون لذت ببریم!
📍 از شما دعوت میکنیم به چالش ۱۰ هفتهای بپیوندید و با یادگیری پایتون، وارد دنیای تحلیل داده و هوش مصنوعی شوید😉
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ بخش اول: شروع از صفر - یادگیری اصول پایه برنامه نویسی در پایتون
1⃣ هفته اول: پایتون مقدماتی
🔺نصب، متغیرها، if-else، try-except، حلقهها، توابع
2⃣ هفته دوم: ساختارهای داده
🔺لیست، دیکشنری، تاپل، رشتهها، فایلها
✅ بخش دوم: پایتون پیشرفته + کتابخانههای کاربردی
3⃣ هفته سوم: کار با آرایه های NumPy
4⃣ هفته چهارم: رسم نمودار با Matplotlib
5⃣ هفته پنجم: برنامهنویسی شیء گرایی در پایتون
6⃣ هفته ششم: کار با Pandas برای تحلیل داده
7⃣ هفته هفتم: یادگیری ماشین با scikit-learn
✅ بخش سوم: شروع یادگیری عمیق با PyTorch
8⃣ هفته هشتم: کار با تنسورها در PyTorch
9⃣ هفته نهم: ساخت دیتاست سفارشی در PyTorch
🔟 هفته دهم: طراحی شبکه عصبی در PyTorch
📌 جزییات نقشه راه
💡 هر هفته تمرینات مرتبط در کانال تلگرام منتشر میشه و شما میتونید تمرینها رو انجام داده و برای ما بفرستید.
✅ تمرینها بررسی شده و فیدبک اختصاصی دریافت میکنید.
🎯 هدف چالش
هدف اصلی این چالش ۱۰ هفتهای اینه که فرصتی برای یادگیری منظم باشه؛ مسیری که ما رو متعهد کنه هر هفته بخشی از اون رو همراه با دیگران پیش ببریم و از یادگیری مون لذت ببریم!
📍 از شما دعوت میکنیم به چالش ۱۰ هفتهای بپیوندید و با یادگیری پایتون، وارد دنیای تحلیل داده و هوش مصنوعی شوید😉
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Forwarded from amin
✅️ روش RCCSSP برای طبقه بندی سیگنال EEG اجرای حرکت
✍ روش RCCSSP از یک تکنیک به نام SS-CCA استفاده میکند. این روش با اضافه کردن تأخیر زمانی به سیگنالهای EEG، اطلاعات زمانی را وارد فرآیند استخراج ویژگی میکند. یعنی دادهها بهگونهای بازسازی میشوند که شامل نسخهای از سیگنال با کمی تأخیر زمانی نیز باشند. در ادامه، از همبستگی بین کلاسها با کمک (SS-CCA) استفاده میشود تا مشخص شود کدام کانالها بیشتر با کلاس هدف مرتبط هستند. این همبستگی به صورت ضریبهایی محاسبه میشود و کانالهایی که همبستگی زمانی ضعیفتری دارند، وزن بیشتری میگیرند، چون اطلاعات تمایز بیشتری بین کلاسها دارند. وزندهی به کانالها باعث میشود فیلترهای مکانی به شکلی بهینه طراحی شوند تا بیشترین جداسازی بین کلاسها را داشته باشند. در نهایت، این فیلترها روی سیگنال EEG اعمال میشوند تا ویژگیهایی استخراج شود که برای طبقهبندی دقیقتر مناسبتر هستند.
✍ روش RCCSSP از یک تکنیک به نام SS-CCA استفاده میکند. این روش با اضافه کردن تأخیر زمانی به سیگنالهای EEG، اطلاعات زمانی را وارد فرآیند استخراج ویژگی میکند. یعنی دادهها بهگونهای بازسازی میشوند که شامل نسخهای از سیگنال با کمی تأخیر زمانی نیز باشند. در ادامه، از همبستگی بین کلاسها با کمک (SS-CCA) استفاده میشود تا مشخص شود کدام کانالها بیشتر با کلاس هدف مرتبط هستند. این همبستگی به صورت ضریبهایی محاسبه میشود و کانالهایی که همبستگی زمانی ضعیفتری دارند، وزن بیشتری میگیرند، چون اطلاعات تمایز بیشتری بین کلاسها دارند. وزندهی به کانالها باعث میشود فیلترهای مکانی به شکلی بهینه طراحی شوند تا بیشترین جداسازی بین کلاسها را داشته باشند. در نهایت، این فیلترها روی سیگنال EEG اعمال میشوند تا ویژگیهایی استخراج شود که برای طبقهبندی دقیقتر مناسبتر هستند.
Onlinebme
💡 نقشه راه و چالش 10 هفتهای یادگیری پایتون با Onlinebme ✅ بخش اول: شروع از صفر - یادگیری اصول پایه برنامه نویسی در پایتون 1⃣ هفته اول: پایتون مقدماتی 🔺نصب، متغیرها، if-else، try-except، حلقهها، توابع 2⃣ هفته دوم: ساختارهای داده 🔺لیست، دیکشنری، تاپل،…
Python-Challenge-week01.pdf
813.9 KB
🔥 چالش 10 هفته ای یادگیری پایتون: هفته اول
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته اول
◾️نصب و راه اندازی پایتون
◾️کار با متغیرها و data types
◾️توابع تعاملی پایتون (input, pritnt, …)
◾️دستورات شرطی (if-elif-else)
◾️حلقه ها (for-while)
◾️تابع نویسی (def-call)
◾️آشنایی با try-except
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته اول
◾️نصب و راه اندازی پایتون
◾️کار با متغیرها و data types
◾️توابع تعاملی پایتون (input, pritnt, …)
◾️دستورات شرطی (if-elif-else)
◾️حلقه ها (for-while)
◾️تابع نویسی (def-call)
◾️آشنایی با try-except
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
𝟭. 𝗮𝗽𝗽𝗲𝗻𝗱( )
یک آیتم به انتهای لیست اضافه میکنه
𝟮. 𝗰𝗼𝘂𝗻𝘁( )
تعداد یک آیتم خاص در لیست رو بر میگردونه
𝟯. 𝗰𝗼𝗽𝘆( )
یک نمونه مستقل از لیست میسازه
𝟰. 𝗶𝗻𝗱𝗲𝘅( )
موقعیت آیتم رو برمیگردونه.
𝟱. 𝗶𝗻𝘀𝗲𝗿𝘁(𝟭, )
یک آیتم در آدرس مشخص شده در لیست قرار میده
𝟲. 𝗿𝗲𝘃𝗲𝗿𝘀𝗲( )
ترتیب آیتمها در لیست رو برعکس میکنه
𝟳. 𝗽𝗼𝗽( )
آیتم آخر رو از لیست حذف کرده و در خروجی قرار میده
𝟴. 𝗰𝗹𝗲𝗮𝗿( )
تمام آیتمهای داخل لیست رو حذف میکنه
𝟵. 𝗽𝗼𝗽(𝟭)
نمونه مشخص شده رو از لیست حذف و در خروجی قرار میده
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
یک آیتم به انتهای لیست اضافه میکنه
𝟮. 𝗰𝗼𝘂𝗻𝘁( )
تعداد یک آیتم خاص در لیست رو بر میگردونه
𝟯. 𝗰𝗼𝗽𝘆( )
یک نمونه مستقل از لیست میسازه
𝟰. 𝗶𝗻𝗱𝗲𝘅( )
موقعیت آیتم رو برمیگردونه.
𝟱. 𝗶𝗻𝘀𝗲𝗿𝘁(𝟭, )
یک آیتم در آدرس مشخص شده در لیست قرار میده
𝟲. 𝗿𝗲𝘃𝗲𝗿𝘀𝗲( )
ترتیب آیتمها در لیست رو برعکس میکنه
𝟳. 𝗽𝗼𝗽( )
آیتم آخر رو از لیست حذف کرده و در خروجی قرار میده
𝟴. 𝗰𝗹𝗲𝗮𝗿( )
تمام آیتمهای داخل لیست رو حذف میکنه
𝟵. 𝗽𝗼𝗽(𝟭)
نمونه مشخص شده رو از لیست حذف و در خروجی قرار میده
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Onlinebme
✅نحوه ایجاد virtual environment در VsCode 1⃣ مرحله اول: اطمینان از نصب بودن پایتون در سیستم برای اینکار در ترمینال vscode یا CMD سیستم دستور زیر رو اجرا کنید. python --version اگر پایتون نصب باشه، نسخه آن نمایش داده میشه، در غیراینصورت خطای میده که باید…
✅ آموزش نصب و نحوه استفاده از GitHub Copilot در VsCode
💡اخیرا VsCode یک افزونه ای به نام GitHub Copilot معرفی کرده که روند کدنویسی رو بسیار بهینه و تسهیل کرده که با استفاده از اون، تنها با یک prompt مناسب، میتونید در عرض چند ثانیه کد پروژه مدنظرتون رو تولید کنید. داشتن همچین افزونه ای مثل این میمونه که یک دستیار هوشمند در کنارتون دارید و هرچی بخواهید ازش سریع براتون انجام میده.
🔷 افزونه GitHub Copilot به عنوان یکی از پیشرفته ترین ابزارهای برنامه نویسی مبتنی بر هوش مصنوعی، میتونه فرآیند نوشتن کد را بسیار سریعتر و هوشمندتر بکنه. این ابزار با ارائه ی پیشنهادهای کدنویسی در لحظه، به افراد کمک میکنه تا در زمان کمتر، کدهای بهتر و استانداردتری بنویسند.
🤷چرا GitHub Copilot رو نصب کنیم؟
◾️صرفهجویی در زمان کدنویسی
◾️کمک به یادگیری بهتر ساختارهای کدنویسی
◾️افزایش دقت در کدنویسی الگوریتمها
◾️دریافت پیشنهادهای خلاقانه
◾️ ویرایش لحظه ای کد
در یک ویدیویی روال نصب و کار با این ابزار رو توضیح دادم.
⭕️ جزییات بیشتر 👇👇
https://onlinebme.com/github-copilot-in-vscode/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡اخیرا VsCode یک افزونه ای به نام GitHub Copilot معرفی کرده که روند کدنویسی رو بسیار بهینه و تسهیل کرده که با استفاده از اون، تنها با یک prompt مناسب، میتونید در عرض چند ثانیه کد پروژه مدنظرتون رو تولید کنید. داشتن همچین افزونه ای مثل این میمونه که یک دستیار هوشمند در کنارتون دارید و هرچی بخواهید ازش سریع براتون انجام میده.
🔷 افزونه GitHub Copilot به عنوان یکی از پیشرفته ترین ابزارهای برنامه نویسی مبتنی بر هوش مصنوعی، میتونه فرآیند نوشتن کد را بسیار سریعتر و هوشمندتر بکنه. این ابزار با ارائه ی پیشنهادهای کدنویسی در لحظه، به افراد کمک میکنه تا در زمان کمتر، کدهای بهتر و استانداردتری بنویسند.
🤷چرا GitHub Copilot رو نصب کنیم؟
◾️صرفهجویی در زمان کدنویسی
◾️کمک به یادگیری بهتر ساختارهای کدنویسی
◾️افزایش دقت در کدنویسی الگوریتمها
◾️دریافت پیشنهادهای خلاقانه
◾️ ویرایش لحظه ای کد
در یک ویدیویی روال نصب و کار با این ابزار رو توضیح دادم.
⭕️ جزییات بیشتر 👇👇
https://onlinebme.com/github-copilot-in-vscode/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
معرفی و نصب GitHub Copilot در VsCode - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
اگر به دنبال افزایش سرعت و کیفیت کد نویسی خود هستید، افزونهی GitHub Copilot در VSCode ابزاری بسیار کاربردی برای شما خواهد بود. این افزونه با استفاده از هوش مصنوعی، کدهای پیشنهادی دقیق و قابل استفاده ارائه میدهد.
Onlinebme
🎁پکیج جامع فصل های اول تا چهارم پترن و یادگیری ماشین ( از بیزین تا SVM) ✅ این پکیج شامل تمام مباحث آموزش داده شده در 4 فصل دوره شناسایی الگو و یادگیری ماشین است. فصل اول: مقدمه ای بر شناسایی الگو و یادگیری ماشین فصل دوم: کلاسبندهای پارامتری 🔹بیزین 🔸ماکزیمم…
Media is too big
VIEW IN TELEGRAM
Onlinebme
✅تایم لپس کوتاه از توضیح ریاضیات SVMs @Onlinebme
✅ ماشین بردار پشتیبان SVMs
✍ماشین بردار پشتیبان یکی از مهمترین روشهای یادگیری با ناظر است که هم برای مسائل طبقهبندی و هم رگرسیون به کار میرود (البته مدل طبقهبندی آن محبوبیت بیشتری بین محققین دارد!). تابع هزینه این الگوریتم طوری طراحی شده که به الگوریتم کمک میکند بهینه ترین مرز تصمیم گیری را پیدا کند.این روش توسط آقای Vapnik معرفی شده و به طور گستردهای در پروژهها و مطالعات مختلف استفاده میشود.
💡دو مزیت اصلی SVM
◾️تابع هزینه محدب: «همیشه در مینیمم اصلی همگرا میشود!»
◽️کارایی بالا در ابعاد بالا: «از آنجا که SVM به ابعاد حساس نیست و براساس بردارهای پشتیبان کار میکند.»
🔷 مرز بهینه (Optimum hyperplane)
در مسائل طبقه بندی، بهینه ترین مرز، مرزی هست که علاوه بر حداقل خطای تصمیم گیری، حاشیه امنیت بیشتری داشته باشه. یعنی مرزی پیدا کنه که بیشترین فاصله رو از گروهها داشته باشه، تا در شرایط جدید که تغییرات اجتناب ناپذیر هست، باز مدل بتونه تصمیم گیری بهتری داشته باشد.
مثل ایستادن بین دو دریاست. باید تا جایی که میشود از دو طرف آب فاصله بگیریم تا در هنگام جزر و مد کمتر خیس شویم!
💡تفاوت رویکرد Vapnik و Wiener
◾️ ایده Wiener در Wiener-Hopf: آقای وینر دنبال مدلهایی بود که خروجی رو بر اساس حداقل کردن خطا بهینه سازی کنند. مثلا در فیلتر وینر هدف پیدا کردن بهترین تقریب خطی برای داده ها هست و در این رابطه به صورت صریح ماکزیمم کردن فاصله بین کلاسها بیان نشده است. برای همین مدل لزوما به بهینه ترین مرز نمی رسد.
◾️ ایده Vapnik در SVMs: وپنیک هدف رو فراتر برده است! یعنی علاوه بر کاهش خطا، پیدا کردن مرزی با بیشترین حاشیهی امن بین کلاسها را هم به تابع هزینه اضافه کرد و همین رویکرد ضمانت میکنه که مدل به بهینه ترین مرز ممکن برسه (البته اگر چنین مرزی وجود داشته باشد!)
☑️ الگوریتم SVM در مقایسه با شبکه های عصبی
🔺همگرایی: تابع هزینه SVM محدب است و مدل حتما در مینمم اصلی همگرا میشود. برای همین اگر مسئله جواب داشته باشد، SVM حتما به بهترین مرز ممکن میرسد. اما تابع هزینه برای شبکه های عصبی غیر محدب است و احتمال اینکه مدل به جای مینیمم اصلی در مینیمم محلی گیر کند وجود دارد و همین باعث میشه شبکه های عصبی لزوما بهترین جواب ممکن برای مسئله را پیدا نکنند!
🔺 پیچیدگی محاسباتی: شبکه های عصبی پیچیدگی محاسباتی کمتری دارند! چرا که در آموزش نیاز به کل داده به صورت یکجا ندارند! و همین باعث میشه راحتتر (از لحاظ سخت افزاری) پیاده سازی کرد. اما در SVM نیازه که ماتریس کل داده رو برای حل مسئله Quadratic Programming بسازیم. این یعنی در حین یادگیری به کل دادهی آموزشی نیاز است، به همین دلیل آموزش SVM (مخصوصا در مسائل رگرسیون) روی دیتاست های بزرگ کند و سنگین میشه! و در برخی موارد در کامپیوترهای شخصی عملا نمیتوان از SVM برای حل مسئله استفاده کرد.
💡البته stochastic SVM هم برای حل این مسئله ارائه شده که آپدیت پارامترها به صورت تدریجی و تقریبی انجام میشه، ولی در این نوع SVM تابع هزینه از حالت محدب در میاد و دیگه مدل لزوما به بهینه ترین مرز تصمیم گیری نمیرسد.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✍ماشین بردار پشتیبان یکی از مهمترین روشهای یادگیری با ناظر است که هم برای مسائل طبقهبندی و هم رگرسیون به کار میرود (البته مدل طبقهبندی آن محبوبیت بیشتری بین محققین دارد!). تابع هزینه این الگوریتم طوری طراحی شده که به الگوریتم کمک میکند بهینه ترین مرز تصمیم گیری را پیدا کند.این روش توسط آقای Vapnik معرفی شده و به طور گستردهای در پروژهها و مطالعات مختلف استفاده میشود.
💡دو مزیت اصلی SVM
◾️تابع هزینه محدب: «همیشه در مینیمم اصلی همگرا میشود!»
◽️کارایی بالا در ابعاد بالا: «از آنجا که SVM به ابعاد حساس نیست و براساس بردارهای پشتیبان کار میکند.»
🔷 مرز بهینه (Optimum hyperplane)
در مسائل طبقه بندی، بهینه ترین مرز، مرزی هست که علاوه بر حداقل خطای تصمیم گیری، حاشیه امنیت بیشتری داشته باشه. یعنی مرزی پیدا کنه که بیشترین فاصله رو از گروهها داشته باشه، تا در شرایط جدید که تغییرات اجتناب ناپذیر هست، باز مدل بتونه تصمیم گیری بهتری داشته باشد.
مثل ایستادن بین دو دریاست. باید تا جایی که میشود از دو طرف آب فاصله بگیریم تا در هنگام جزر و مد کمتر خیس شویم!
💡تفاوت رویکرد Vapnik و Wiener
◾️ ایده Wiener در Wiener-Hopf: آقای وینر دنبال مدلهایی بود که خروجی رو بر اساس حداقل کردن خطا بهینه سازی کنند. مثلا در فیلتر وینر هدف پیدا کردن بهترین تقریب خطی برای داده ها هست و در این رابطه به صورت صریح ماکزیمم کردن فاصله بین کلاسها بیان نشده است. برای همین مدل لزوما به بهینه ترین مرز نمی رسد.
◾️ ایده Vapnik در SVMs: وپنیک هدف رو فراتر برده است! یعنی علاوه بر کاهش خطا، پیدا کردن مرزی با بیشترین حاشیهی امن بین کلاسها را هم به تابع هزینه اضافه کرد و همین رویکرد ضمانت میکنه که مدل به بهینه ترین مرز ممکن برسه (البته اگر چنین مرزی وجود داشته باشد!)
☑️ الگوریتم SVM در مقایسه با شبکه های عصبی
🔺همگرایی: تابع هزینه SVM محدب است و مدل حتما در مینمم اصلی همگرا میشود. برای همین اگر مسئله جواب داشته باشد، SVM حتما به بهترین مرز ممکن میرسد. اما تابع هزینه برای شبکه های عصبی غیر محدب است و احتمال اینکه مدل به جای مینیمم اصلی در مینیمم محلی گیر کند وجود دارد و همین باعث میشه شبکه های عصبی لزوما بهترین جواب ممکن برای مسئله را پیدا نکنند!
🔺 پیچیدگی محاسباتی: شبکه های عصبی پیچیدگی محاسباتی کمتری دارند! چرا که در آموزش نیاز به کل داده به صورت یکجا ندارند! و همین باعث میشه راحتتر (از لحاظ سخت افزاری) پیاده سازی کرد. اما در SVM نیازه که ماتریس کل داده رو برای حل مسئله Quadratic Programming بسازیم. این یعنی در حین یادگیری به کل دادهی آموزشی نیاز است، به همین دلیل آموزش SVM (مخصوصا در مسائل رگرسیون) روی دیتاست های بزرگ کند و سنگین میشه! و در برخی موارد در کامپیوترهای شخصی عملا نمیتوان از SVM برای حل مسئله استفاده کرد.
💡البته stochastic SVM هم برای حل این مسئله ارائه شده که آپدیت پارامترها به صورت تدریجی و تقریبی انجام میشه، ولی در این نوع SVM تابع هزینه از حالت محدب در میاد و دیگه مدل لزوما به بهینه ترین مرز تصمیم گیری نمیرسد.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Onlinebme
Python-Challenge-week01.pdf
Python-Challenge-week02.pdf
706.6 KB
🔥 چالش 10 هفته ای یادگیری پایتون: هفته دوم
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته دوم
◾️ آشنایی با لیست و متدهای آن
◾️آشنایی با رشته و متدهای آن
◾️ آشنایی با تاپل و متدهای آن
◾️آشنایی با دیکشنری و متدهای آن
◾️ آشنایی با فایل و متدهای آن
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته دوم
◾️ آشنایی با لیست و متدهای آن
◾️آشنایی با رشته و متدهای آن
◾️ آشنایی با تاپل و متدهای آن
◾️آشنایی با دیکشنری و متدهای آن
◾️ آشنایی با فایل و متدهای آن
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ آموزش نصب تولباکس EEGLAB و تصویرسازی سیگنال EEG
✍ تولباکس EEGLAB یک ابزار بسیار قوی در محیط متلب برای پیش پردازش و تحلیل سیگنال های مغزی (EEG) هست. این تولباکس یک رابط گرافیکی تعاملی فراهم میکند که کار با داده های EEG را بسیار ساده تر میکند. با کمک ابزار متنوعی که در EEGLAB تعبیه شده افراد میتوانند به راحتی سیگنالهای مغزی را بارگذاری، پیش پردازش، تصویرسازی و در حوزههای زمان و فرکانس تحلیل کنند.
💡در این ویدیو ابتدا با نحوه اضافه کردن تولباکس EEGLAB به متلب آشنا می شویم، سپس یک نمونه تصویرسازی EEG انجام میدهیم.
💡در این ویدیو مباحث زیر آموزش داده میشود:
☑️دانلود EEGLAB
☑️نصب EEGLAB
☑️خواندن سیگنال EEG
☑️آشنایی با اطلاعات مرتبط با EEG
☑️نمایش سیگنال EEG در حوزه زمان
☑️نمایش موقعیت کانالها
☑️نمایش سیگنال EEG در حوزه فرکانس (توپوگرافی و اسپکتروگرام)
⭕️جزییات بیشتر 👇👇
📷 Video 🔘Website
Next: EEG Preprocessing Pipeline in EEGlab
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✍ تولباکس EEGLAB یک ابزار بسیار قوی در محیط متلب برای پیش پردازش و تحلیل سیگنال های مغزی (EEG) هست. این تولباکس یک رابط گرافیکی تعاملی فراهم میکند که کار با داده های EEG را بسیار ساده تر میکند. با کمک ابزار متنوعی که در EEGLAB تعبیه شده افراد میتوانند به راحتی سیگنالهای مغزی را بارگذاری، پیش پردازش، تصویرسازی و در حوزههای زمان و فرکانس تحلیل کنند.
💡در این ویدیو ابتدا با نحوه اضافه کردن تولباکس EEGLAB به متلب آشنا می شویم، سپس یک نمونه تصویرسازی EEG انجام میدهیم.
💡در این ویدیو مباحث زیر آموزش داده میشود:
☑️دانلود EEGLAB
☑️نصب EEGLAB
☑️خواندن سیگنال EEG
☑️آشنایی با اطلاعات مرتبط با EEG
☑️نمایش سیگنال EEG در حوزه زمان
☑️نمایش موقعیت کانالها
☑️نمایش سیگنال EEG در حوزه فرکانس (توپوگرافی و اسپکتروگرام)
⭕️جزییات بیشتر 👇👇
📷 Video 🔘Website
Next: EEG Preprocessing Pipeline in EEGlab
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Forwarded from Onlinebme
⬛️◼️◾️ پکیجهای آموزشی Onlinebme ◾️◼️⬛️
🔆 اولین گروه آموزشیِ تخصصی و پروژه محور 🔆
〰〰〰 برنامهنویسی متلب 〰〰〰
🔲 اصول برنامهنویسی در متلب (رایگان)
▪️مدت دوره: 11 ساعت
🔘 Link
〰〰〰 برنامهنویسی پایتون 〰〰〰
⚪️ فصل 1: اصول برنامهنویسی پایتون
◽️مدت دوره: 32 ساعت
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
◽️مدت دوره: 14 ساعت 30 دقیقه
🔘 Link
〰〰 شناسایی الگو و یادگیری ماشین 〰〰
⚠️ 140 ساعت ویدیوی آموزشی
🔹آموزش تئوری و مباحث ریاضیاتی طبق مراجع معتبر
🔹پیادهسازی مرحله به مرحله الگوریتمها
🔹انجام پروژه های عملی و تخصصی
🔹پیاده سازی گام به گام مقالات تخصصی
⚪️فصل 1 تا 4: از بیزین تا SVM
◽️مدت دوره: 75 ساعت
🔘 Link
⚪️فصل 5: یادگیری جمعی
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️فصل 6: الگوریتمهای کاهش بعد
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️فصل 7: الگوریتمهای انتخاب ویژگی
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️فصل 8: الگوریتمهای خوشهبندی
◽️مدت دوره: 13 ساعت
🔘 Link
〰〰〰〰 شبکههای عصبی 〰〰〰〰
⚪️ پیاده سازی گام به گام شبکه های عصبی
◽️مدت دوره: 25 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی کانولوشنی (CNN)
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی بازگشتی (RNN)
◽️مدت دوره: 13 ساعت
🔘 Link
⚪️دوره پروژه محور کاربرد شبکههای عمیق در بینایی ماشین
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️ دوره پیادهسازی شبکههای عصبی با PyTorch
◽️مدت دوره: 70 ساعت
🔘 Link
〰〰〰 پردازش سیگنال مغزی 〰〰〰
⚪️ دوره جامع پردازش سیگنال مغزی(EEG)
◽️مدت دوره: 50 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر P300
◽️مدت دوره: 28 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر SSVEP
◽️ مدت دوره: 33 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر تصور حرکتی
◽️مدت دوره: 21 ساعت
🔘 Link
⚪️ پیادهسازی مقاله CSSP (BCI مبتنی بر MI)
◽️مدت دوره: 7 ساعت و 30 دقیقه
🔘 Link
⚪️پیادهسازی مقاله RCSP (BCI مبتنی بر MI)
◽️مدت دوره: 5 ساعت
🔘 Link
⚪️دوره تبدیل فوریه زمان کوتاه در پردازش سیگنال مغزی
◽️مدت دوره: 8 ساعت
🔘 Link
⚪️دوره پردازش سیگنال مغزی با کتابخانه MNE پایتون
◽️مدت دوره: 33 ساعت
🔘 Link
〰〰〰〰 دوره جامع پردازش تصویر 〰〰〰〰
⚪️فصل 1: آستانه گذاری تصویر، تبدیلات شدت روشنایی و هندسی
◽️مدت دوره: 30 ساعت
🔘 Link
⚪️فصل 2: پردازش هیستوگرام تصویر
◽️مدت دوره: 6 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 3: فیلترهای مکانی
◽️مدت دوره: 15 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 4: عملیات مورفورلوژی
◽️مدت دوره: 6 ساعت
🔘 Link
〰〰〰〰〰 پردازش سیگنال قلبی 〰〰〰〰
⚪️ دوره پردازش سیگنال ECG
◽️مدت زمان دوره: 37 ساعت و 45 دقیقه
🔘 Link
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
🔆 اولین گروه آموزشیِ تخصصی و پروژه محور 🔆
〰〰〰 برنامهنویسی متلب 〰〰〰
🔲 اصول برنامهنویسی در متلب (رایگان)
▪️مدت دوره: 11 ساعت
🔘 Link
〰〰〰 برنامهنویسی پایتون 〰〰〰
⚪️ فصل 1: اصول برنامهنویسی پایتون
◽️مدت دوره: 32 ساعت
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
◽️مدت دوره: 14 ساعت 30 دقیقه
🔘 Link
〰〰 شناسایی الگو و یادگیری ماشین 〰〰
⚠️ 140 ساعت ویدیوی آموزشی
🔹آموزش تئوری و مباحث ریاضیاتی طبق مراجع معتبر
🔹پیادهسازی مرحله به مرحله الگوریتمها
🔹انجام پروژه های عملی و تخصصی
🔹پیاده سازی گام به گام مقالات تخصصی
⚪️فصل 1 تا 4: از بیزین تا SVM
◽️مدت دوره: 75 ساعت
🔘 Link
⚪️فصل 5: یادگیری جمعی
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️فصل 6: الگوریتمهای کاهش بعد
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️فصل 7: الگوریتمهای انتخاب ویژگی
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️فصل 8: الگوریتمهای خوشهبندی
◽️مدت دوره: 13 ساعت
🔘 Link
〰〰〰〰 شبکههای عصبی 〰〰〰〰
⚪️ پیاده سازی گام به گام شبکه های عصبی
◽️مدت دوره: 25 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی کانولوشنی (CNN)
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی بازگشتی (RNN)
◽️مدت دوره: 13 ساعت
🔘 Link
⚪️دوره پروژه محور کاربرد شبکههای عمیق در بینایی ماشین
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️ دوره پیادهسازی شبکههای عصبی با PyTorch
◽️مدت دوره: 70 ساعت
🔘 Link
〰〰〰 پردازش سیگنال مغزی 〰〰〰
⚪️ دوره جامع پردازش سیگنال مغزی(EEG)
◽️مدت دوره: 50 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر P300
◽️مدت دوره: 28 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر SSVEP
◽️ مدت دوره: 33 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر تصور حرکتی
◽️مدت دوره: 21 ساعت
🔘 Link
⚪️ پیادهسازی مقاله CSSP (BCI مبتنی بر MI)
◽️مدت دوره: 7 ساعت و 30 دقیقه
🔘 Link
⚪️پیادهسازی مقاله RCSP (BCI مبتنی بر MI)
◽️مدت دوره: 5 ساعت
🔘 Link
⚪️دوره تبدیل فوریه زمان کوتاه در پردازش سیگنال مغزی
◽️مدت دوره: 8 ساعت
🔘 Link
⚪️دوره پردازش سیگنال مغزی با کتابخانه MNE پایتون
◽️مدت دوره: 33 ساعت
🔘 Link
〰〰〰〰 دوره جامع پردازش تصویر 〰〰〰〰
⚪️فصل 1: آستانه گذاری تصویر، تبدیلات شدت روشنایی و هندسی
◽️مدت دوره: 30 ساعت
🔘 Link
⚪️فصل 2: پردازش هیستوگرام تصویر
◽️مدت دوره: 6 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 3: فیلترهای مکانی
◽️مدت دوره: 15 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 4: عملیات مورفورلوژی
◽️مدت دوره: 6 ساعت
🔘 Link
〰〰〰〰〰 پردازش سیگنال قلبی 〰〰〰〰
⚪️ دوره پردازش سیگنال ECG
◽️مدت زمان دوره: 37 ساعت و 45 دقیقه
🔘 Link
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
Onlinebme
Python-Challenge-week02.pdf
Python-Challenge-week03.pdf
4.5 MB
🔥 چالش 10 هفته ای یادگیری پایتون: هفته سوم
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته سوم
◾️ آشنایی با آرایه های NumPy
◾️آشنایی ویژگی های آرایه ها
☑️ vectorization
☑️ Broadcasting
◾️ آشنایی با آدرس دهی آرایه ها
◾️ آشنایی با متدهای آرایه ها
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته سوم
◾️ آشنایی با آرایه های NumPy
◾️آشنایی ویژگی های آرایه ها
☑️ vectorization
☑️ Broadcasting
◾️ آشنایی با آدرس دهی آرایه ها
◾️ آشنایی با متدهای آرایه ها
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Forwarded from Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
قدرت در اتحاد است، اما اتحادی هدفمند و ساختار یافته!
@onlinebme
@onlinebme
Onlinebme
قدرت در اتحاد است، اما اتحادی هدفمند و ساختار یافته! @onlinebme
🌀یادگیری جمعی (ensemble learning): فلسفه اصلی یادگیری جمعی این است که به جای اتکا به یک مدل منفرد، چندین مدل در کنار هم برای حل یک مسئله به کار گرفته شوند. این رویکرد با ترکیب خروجی مدلهای مختلف، عملکرد کلی را بهبود میدهد و در بسیاری از موارد، خطای تعمیم (Generalization Error) را نسبت به یک مدل تکی کاهش میدهد. به عبارت دیگر، یادگیری جمعی احتمال بروز underfitting و overfitting را کاهش میدهد. اما نکته مهم در اینجا، روش ترکیب و هماهنگی بین مدلها است.
به طور کلی تکنیکهای یادگیری جمعی به چهار دسته تقسیم می شوند که در ادامه هر کدام را به صورت مختصر بررسی میکنیم.
1️⃣روش Voting: ساده ترین روش یادگیری جمعی. چندین مدل با ساختار متفاوت یا مشابه آموزش میبینند و تصمیم نهایی با رأی گیری از مدلها انجام میشود.
در مسائل طبقه بندی: هر مدل یک لیبل برای داده ورودی پیش بینی میکند، و مقداری که بیشترین رأی را بیاورد، خروجی نهایی خواهد بود.
در رگرسیون: خروجی نهایی از میانگینِ خروجی مدلها محاسبه میشود.
🔹 مزیت: تصمیم گیری جمعی و کاهش بایاس مدل.
🔸 ایراد: رأی همه مدلها یکسان در نظر گرفته می شود، حتی اگر دقت برخی مدلها باهوش تر باشند!
2️⃣روش Stacking: مشابه Voting است، اما به جای رأیگیری ساده، از یک مدل یادگیرنده (معمولاً رگرسیون یا طبقه بندی خطی) استفاده میشود که یاد میگیرد چگونه خروجی مدلهای قبلی را وزندهی کند.
🔹 مزیت: رای گیری وزندار و منعطف تر از voting
🔸 ایراد: پیچیدگی بیشتر و نیاز به تنظیم دقیق. همچنین مثل voting، از استراتژی خاصی برای بهبود عملکرد مدل پایه استفاده نمیکند.
3️⃣روش Bagging (Bootstrap Aggregating): برای کاهش overfitting طراحی شده است. مدل پایه (معمولاً مدلی با واریانس بالا مانند درخت تصمیم) روی نمونههای تصادفی مختلف از دادهها آموزش داده میشود.
در پروسه تصمیم گیری هر مدل خروجی جداگانه میدهد و خروجی نهایی از ترکیب آنها (مثلاً رأی گیری یا میانگین گیری) به دست میآید.
🔹 مزیت: مناسب برای دادههایی با احتمال overfitting یا تعداد داده کم.
🔸 ایراد: نیاز به تعداد زیادی مدل دارد و اگر داده overfitting نداشته باشد، مزیت چندانی ندارد.
4️⃣روش Boosting: برخلاف Bagging که مدلها به صورت مستقل آموزش میبینند، در Boosting مدلها به صورت ترتیبی و با تمرکز بر اصلاح خطاهای مدل قبلی آموزش داده میشوند: Adaboost یکی از روشهای مشهور در این گروه است.
🔹 مزیت: مناسب برای حل مسائل سخت و بهبود چشمگیر دقت در بسیاری از موارد.
🔸 ایراد: مستعد overfitting است و مدل پایه باید ضعیف باشد (یعنی کمی بهتر از تصادفی عمل کند- برای مثال حدودا 55-65 درصد برای مسائل دو کلاسه)، وگرنه باعث افت دقت میشود.
نتیجهگیری:
تکنیکهایEnsemble Learning نه تنها یک ترفند ساده، بلکه یک استراتژی قدرتمند برای ساخت مدلهای پایدار و دقیق در مسائل یادگیری ماشین هستند. انتخاب روش مناسب بستگی به نوع داده، مدل پایه، و هدف شما از آموزش دارد.
💡کد متلب و پایتون روشهای یادگیری جمعی
https://onlinebme.com/ensemble-learning-matlab-and-python-codes/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
به طور کلی تکنیکهای یادگیری جمعی به چهار دسته تقسیم می شوند که در ادامه هر کدام را به صورت مختصر بررسی میکنیم.
1️⃣روش Voting: ساده ترین روش یادگیری جمعی. چندین مدل با ساختار متفاوت یا مشابه آموزش میبینند و تصمیم نهایی با رأی گیری از مدلها انجام میشود.
در مسائل طبقه بندی: هر مدل یک لیبل برای داده ورودی پیش بینی میکند، و مقداری که بیشترین رأی را بیاورد، خروجی نهایی خواهد بود.
در رگرسیون: خروجی نهایی از میانگینِ خروجی مدلها محاسبه میشود.
🔹 مزیت: تصمیم گیری جمعی و کاهش بایاس مدل.
🔸 ایراد: رأی همه مدلها یکسان در نظر گرفته می شود، حتی اگر دقت برخی مدلها باهوش تر باشند!
2️⃣روش Stacking: مشابه Voting است، اما به جای رأیگیری ساده، از یک مدل یادگیرنده (معمولاً رگرسیون یا طبقه بندی خطی) استفاده میشود که یاد میگیرد چگونه خروجی مدلهای قبلی را وزندهی کند.
🔹 مزیت: رای گیری وزندار و منعطف تر از voting
🔸 ایراد: پیچیدگی بیشتر و نیاز به تنظیم دقیق. همچنین مثل voting، از استراتژی خاصی برای بهبود عملکرد مدل پایه استفاده نمیکند.
3️⃣روش Bagging (Bootstrap Aggregating): برای کاهش overfitting طراحی شده است. مدل پایه (معمولاً مدلی با واریانس بالا مانند درخت تصمیم) روی نمونههای تصادفی مختلف از دادهها آموزش داده میشود.
در پروسه تصمیم گیری هر مدل خروجی جداگانه میدهد و خروجی نهایی از ترکیب آنها (مثلاً رأی گیری یا میانگین گیری) به دست میآید.
🔹 مزیت: مناسب برای دادههایی با احتمال overfitting یا تعداد داده کم.
🔸 ایراد: نیاز به تعداد زیادی مدل دارد و اگر داده overfitting نداشته باشد، مزیت چندانی ندارد.
4️⃣روش Boosting: برخلاف Bagging که مدلها به صورت مستقل آموزش میبینند، در Boosting مدلها به صورت ترتیبی و با تمرکز بر اصلاح خطاهای مدل قبلی آموزش داده میشوند: Adaboost یکی از روشهای مشهور در این گروه است.
🔹 مزیت: مناسب برای حل مسائل سخت و بهبود چشمگیر دقت در بسیاری از موارد.
🔸 ایراد: مستعد overfitting است و مدل پایه باید ضعیف باشد (یعنی کمی بهتر از تصادفی عمل کند- برای مثال حدودا 55-65 درصد برای مسائل دو کلاسه)، وگرنه باعث افت دقت میشود.
نتیجهگیری:
تکنیکهایEnsemble Learning نه تنها یک ترفند ساده، بلکه یک استراتژی قدرتمند برای ساخت مدلهای پایدار و دقیق در مسائل یادگیری ماشین هستند. انتخاب روش مناسب بستگی به نوع داده، مدل پایه، و هدف شما از آموزش دارد.
💡کد متلب و پایتون روشهای یادگیری جمعی
https://onlinebme.com/ensemble-learning-matlab-and-python-codes/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
من وقتی فقط 4 تا سوال رایگان میتونم از ChatGPT بپرسم!
@Onlinebme
@Onlinebme
Onlinebme
Python-Challenge-week03.pdf
Python-Challenge-week04.pdf
399.1 KB
🔥 چالش 10 هفته ای یادگیری پایتون: هفته چهارم
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته چهارم
◾️ آشنایی با Matplotlib
◾️آشنایی متدهای نمودارها
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
💡مهارتهای مورد نیاز برای انجام تمرینات و پروژه های هفته چهارم
◾️ آشنایی با Matplotlib
◾️آشنایی متدهای نمودارها
☑️ لطفا، تمرینات رو به صورت فایل زیپ شده ایمیل کنید. بعد از بررسی در همان ایمیل فیدبک لازم داده خواهد شد.
مهلت ارسال: 7 روز
موفق باشید
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 رکورد جهانی گینس شکسته شد: حل مکعب روبیک در ٠.١ ثانیه توسط ربات!
تیمی از دانشجویان مدرسه مهندسی برق و کامپیوتر در دانشگاه پردو آمریکا موفق شدند با طراحی رباتی به نام «Purdubik’s Cube» مکعب روبیک 3x3 را فقط در ۰.۱۰۳ ثانیه حل کنند.
آنها با موفقیت خود رکورد جدیدی ثبت کردهاند که رکورد قبلی گینس را با فاصلهای چشمگیر شکسته است.
رکورد قبلی با ۰.۳۰۵ ثانیه در اختیار شرکت «میتسوبیشی الکتریک» بود و کمتر از یک سال دوام آورد اما ربات تیم دانشگاه پردو با حل روبیک در زمانی کمتر از یکسوم رکورد پیشین، جهش بزرگی در این حوزه رقم زده است. این زمان حتی از یک پلکزدن نیز سریعتر میتواند روبیک را حل کند؛ زیرا پلکزدن انسان بین ۲۰۰ تا ۳۰۰ میلیثانیه طول میکشد.
Digiato
@Onlinebme
تیمی از دانشجویان مدرسه مهندسی برق و کامپیوتر در دانشگاه پردو آمریکا موفق شدند با طراحی رباتی به نام «Purdubik’s Cube» مکعب روبیک 3x3 را فقط در ۰.۱۰۳ ثانیه حل کنند.
آنها با موفقیت خود رکورد جدیدی ثبت کردهاند که رکورد قبلی گینس را با فاصلهای چشمگیر شکسته است.
رکورد قبلی با ۰.۳۰۵ ثانیه در اختیار شرکت «میتسوبیشی الکتریک» بود و کمتر از یک سال دوام آورد اما ربات تیم دانشگاه پردو با حل روبیک در زمانی کمتر از یکسوم رکورد پیشین، جهش بزرگی در این حوزه رقم زده است. این زمان حتی از یک پلکزدن نیز سریعتر میتواند روبیک را حل کند؛ زیرا پلکزدن انسان بین ۲۰۰ تا ۳۰۰ میلیثانیه طول میکشد.
Digiato
@Onlinebme
Onlinebme
✅ آموزش نصب تولباکس EEGLAB و تصویرسازی سیگنال EEG ✍ تولباکس EEGLAB یک ابزار بسیار قوی در محیط متلب برای پیش پردازش و تحلیل سیگنال های مغزی (EEG) هست. این تولباکس یک رابط گرافیکی تعاملی فراهم میکند که کار با داده های EEG را بسیار ساده تر میکند. با کمک ابزار…
This media is not supported in your browser
VIEW IN TELEGRAM
✅ الگوریتم ICA در مثال cocktail party برای جدا کردن صداهای مستقل
💡همین مفهوم در بحث پردازش سیگنال های مغزی استفاده می شود.
@Onlinebme
💡همین مفهوم در بحث پردازش سیگنال های مغزی استفاده می شود.
@Onlinebme
Onlinebme
هوش مصنوعی جایگزین پزشکها نخواهد شد، اما قطعا پزشکهایی که از هوش مصنوعی استفاده میکنند جایگزینشون خواهند شد!!👌 @Onlinebme
This media is not supported in your browser
VIEW IN TELEGRAM
☑️پزشک متخصصی که میگه شغلش رو از دست خواهد داد!
💡 یک متخصص ریه با ۲۰ سال تجربه میگه: الان هوش مصنوعی سریعتر و دقیقتر از من میتونه عکسهای X-ray رو تحلیل کنه!
میگه قبلاً خودش خیلی سریع میتونست ذاتالریه رو تشخیص بده، ولی حالا هوش مصنوعی این کارو توی چند ثانیه انجام میده!
واقعاً شگفتانگیزه!
@Onlinebme
💡 یک متخصص ریه با ۲۰ سال تجربه میگه: الان هوش مصنوعی سریعتر و دقیقتر از من میتونه عکسهای X-ray رو تحلیل کنه!
میگه قبلاً خودش خیلی سریع میتونست ذاتالریه رو تشخیص بده، ولی حالا هوش مصنوعی این کارو توی چند ثانیه انجام میده!
واقعاً شگفتانگیزه!
@Onlinebme