چالشها و مسائل موجود در یادگیری ماشین برای صنعت و پژوهش متفاوته و افراد باید با روش کارکرد هر کدوم از اینا آشنا باشن تا بتونن انتخاب آگاهانه ای داشته باشن. تو این پست اینستاگرامی در مورد تفاوتهای یادگیری ماشین تو محیط آکادمی و صنعت رو توضیح دادیم:
https://www.instagram.com/p/C7HLWd4iyd5/?igsh=cWVycGppYmh3dWRs
https://www.instagram.com/p/C7HLWd4iyd5/?igsh=cWVycGppYmh3dWRs
با این ابزار کاربردی کلیپهای #یوتیوب رو بصورت رایگان به جزوه و یاداشت تبدیل کن
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
این ویدیو کوتاه نشون میده که تو دنیای امروز، هوش مصنوعی، برنامه ریزی و تحقیق بعنوان یه ابزار هوشمند میتونن شمارو به هدفتون برسونن
@silicon_brain I از هوش مصنوعی عقب نمانید
@silicon_brain I از هوش مصنوعی عقب نمانید
مصاحبه جدید جفری هینتون
تو این مصاحیه #جفری_هینتون میگه که اول دنبال فهمیدن کارکرد مغز بود ولی از یافتههای #نوروساینس ناامید شد و میخواست یه مسیر جدید رو امتحان کنه
برای همین به یادگیری با الگوریتم جدید بیشتر علاقه پیدا کرد و سراغ هوش مصنوعی رفت. تو مصاحبه درباره همکاری با افراد دیگه تو این زمینه صحبت میکنه.
در ادامه میگه که فکر میکنه مدلهای زبان بزرگ #LLM کارشون این نیست که فقط کلمه بعدی رو حدس بزنن بلکه معنی کل جمله رو به خوبی درک میکنن. به این اشاره میکنه که این مدلها شاید حتی از فهم انسان هم فراتر برن.
روش فعلی آموزش هوش مصنوعی با حجم زیادی از اطلاعات رو تایید میکنه ولی میگه شاید الگوریتمهای یادگیری دیگری هم باشن که با حجم کمتری از دیتا موفق باشن.
در آخر، باحالترین دستاورد پژوهشی خودش رو کارش با Sejnowski میدونه.
ویدئو یوتوب
@silicon_brain | از هوش مصنوعی عقب نمانید
تو این مصاحیه #جفری_هینتون میگه که اول دنبال فهمیدن کارکرد مغز بود ولی از یافتههای #نوروساینس ناامید شد و میخواست یه مسیر جدید رو امتحان کنه
برای همین به یادگیری با الگوریتم جدید بیشتر علاقه پیدا کرد و سراغ هوش مصنوعی رفت. تو مصاحبه درباره همکاری با افراد دیگه تو این زمینه صحبت میکنه.
در ادامه میگه که فکر میکنه مدلهای زبان بزرگ #LLM کارشون این نیست که فقط کلمه بعدی رو حدس بزنن بلکه معنی کل جمله رو به خوبی درک میکنن. به این اشاره میکنه که این مدلها شاید حتی از فهم انسان هم فراتر برن.
روش فعلی آموزش هوش مصنوعی با حجم زیادی از اطلاعات رو تایید میکنه ولی میگه شاید الگوریتمهای یادگیری دیگری هم باشن که با حجم کمتری از دیتا موفق باشن.
در آخر، باحالترین دستاورد پژوهشی خودش رو کارش با Sejnowski میدونه.
ویدئو یوتوب
@silicon_brain | از هوش مصنوعی عقب نمانید
YouTube
Geoffrey Hinton | On working with Ilya, choosing problems, and the power of intuition
This conversation between Geoffrey Hinton and Joel Hellermark was recorded in April 2024 at the Royal Institute of Great Britain in London. An edited version was premiered at Sana AI Summit on May 15 2024 in Stockholm, Sweden.
Geoffrey Hinton has been called…
Geoffrey Hinton has been called…
مدلهای زبانی قدرتمند که اخیرا منتشر شدن
حتما اطلاع دارین که هفته پیش مدل GPT-4o
معرفی شد و عملکرد فوق العادهی این مدل موضوع بحث خیلی جاها بود (میتونین به این مدل از طریق داشبود openai دسترسی داشته باشین. چند ریکوئست اولش رایگانه)
اما در ادامه چندتا از مدلهای مهم که زیر این حجم مارکتینگ ممکنه از دست داده باشید رو بصورت خلاصه معرفی کنیم:
مدل Yi-1.5
بخصوص روی تسکهای مربوط به کد زدن؛ بسیار عملکرد خوبی داره طبق بنچمارکها عملکرد بهتری نسبت به #llama3 داره
مدل Falcon2.0
مدل 11B که خروجی خوبی داره و مثل متا درحالی که مدل اصلی رو داره توسعه میده قرار هست مدلهای کوچکتر رو release کنن
مدل IBM
این شرکت هم مدل خودشو منتشر کرده که تعداد پارامترهای زیادی داره
@silicon_brain I از هوش مصنوعی عقب نمانید
حتما اطلاع دارین که هفته پیش مدل GPT-4o
معرفی شد و عملکرد فوق العادهی این مدل موضوع بحث خیلی جاها بود (میتونین به این مدل از طریق داشبود openai دسترسی داشته باشین. چند ریکوئست اولش رایگانه)
اما در ادامه چندتا از مدلهای مهم که زیر این حجم مارکتینگ ممکنه از دست داده باشید رو بصورت خلاصه معرفی کنیم:
مدل Yi-1.5
بخصوص روی تسکهای مربوط به کد زدن؛ بسیار عملکرد خوبی داره طبق بنچمارکها عملکرد بهتری نسبت به #llama3 داره
مدل Falcon2.0
مدل 11B که خروجی خوبی داره و مثل متا درحالی که مدل اصلی رو داره توسعه میده قرار هست مدلهای کوچکتر رو release کنن
مدل IBM
این شرکت هم مدل خودشو منتشر کرده که تعداد پارامترهای زیادی داره
@silicon_brain I از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
افزایش سرعت پردازش Pandas تا 150 !
باز هم Nvidia و کارای خفن! NVIDIA با انتشار نسخه جدید cuDF، سرعت پانداس رو تا 150 برابر افزایش داده. استفاده از cuDF، پردازش بیگدیتا در پانداس به طور قابل توجهی سریعتر میشه و به شما این امکانو میده که تو زمان صرفهجویی کنید و تمرکزتونو روی مسائل مهم تر مثل تحلیل داده بزارید.
یکی از مزایای کلیدی #cuDF اینه که نیازی به تغییر کدهای قبلی نداری cuDF به طور خودکار عملیات پانداس رو به GPU منتقل میکنه
میتونی به طور مستقیم در Google #Colab استفاده کنی بدون نیاز به نصب یا کانفیگ
بلاگ Nvidia
استفاده در Colab
#pandas #Nvidia
@silicon_brain | از هوش مصنوعی عقب نمانید
باز هم Nvidia و کارای خفن! NVIDIA با انتشار نسخه جدید cuDF، سرعت پانداس رو تا 150 برابر افزایش داده. استفاده از cuDF، پردازش بیگدیتا در پانداس به طور قابل توجهی سریعتر میشه و به شما این امکانو میده که تو زمان صرفهجویی کنید و تمرکزتونو روی مسائل مهم تر مثل تحلیل داده بزارید.
یکی از مزایای کلیدی #cuDF اینه که نیازی به تغییر کدهای قبلی نداری cuDF به طور خودکار عملیات پانداس رو به GPU منتقل میکنه
میتونی به طور مستقیم در Google #Colab استفاده کنی بدون نیاز به نصب یا کانفیگ
بلاگ Nvidia
استفاده در Colab
#pandas #Nvidia
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
مدل دیفیوژن Images that Sound
پژوهشگران دانشگاه میشیگان، یک Diffusion Model معرفی کردهاند که با دریافت یک پرامپت متنی برای صوت (در کنار تصویر)، صدا نیز تولید میکند.
رویکرد خیلی جالبی برای ساخت این مدل داشتن و اون اینه که این مدل در واقع به صدا نیز به شکل تصویر نگاه میکنه (spectrograms) و میسازه
مقاله | گیتهاب
#diffusion
@silicon_brain | از هوش مصنوعی عقب نمانید
پژوهشگران دانشگاه میشیگان، یک Diffusion Model معرفی کردهاند که با دریافت یک پرامپت متنی برای صوت (در کنار تصویر)، صدا نیز تولید میکند.
رویکرد خیلی جالبی برای ساخت این مدل داشتن و اون اینه که این مدل در واقع به صدا نیز به شکل تصویر نگاه میکنه (spectrograms) و میسازه
مقاله | گیتهاب
#diffusion
@silicon_brain | از هوش مصنوعی عقب نمانید
تنظیم هایپرپارمترها با افزایش Batch Size
شاید شنیده باشید که در هنگام آموزش شبکههای عصبی، وقتی اندازهی #batch ها را x برابر میکنید، بهترست نرخ آموزش را نیز x برابر (اگر الگوریتم آموزش #SGD است) و یا x√ برابر (اگر الگوریتم آموزش #Adam است) کنید.
مثلا در #LLM ها که بیشتر از الگوریتم آموزشی Adam استفاده میشود، اندازهی batch ها را تا حدی که #GPU شما خطای Out_Of_Memory نمیدهد (به صورت توانی از ۲) افزایش دهید. هر بار که اندازه batch را ۲ برابر میکنید، نرخ آموزش را ۱/۴ برابر کنید.
این مقالهی جالب از دانشگاه پرینستون، به کمک معادلات دیفرانسیل تصادفی، الگوی کارایی برای تغییر هایپرپارامترها (مثل learning rate) با افزایش #batch_size ارائه میدهد.
لینک
معمولا در عمل، نرخ آموزش هرچقدر هم که باشد، در طی #epoch ها، ابتدا از 0.1 نرخ آموزش شروع کرده و در ده درصد ابتدایی مسیر آموزش، این نرخ را بهصورت خطی زیاد کرده تا وقتی ده درصد epoch ها طی شد، به نرخ اصلی رسیده باشیم. از آنجا به بعد (۹۰ درصد باقی epoch ها) نرخ آموزش بهصورت کسینوسی کم میشود.
@silicon_brain | از هوش مصنوعی عقب نمانید
شاید شنیده باشید که در هنگام آموزش شبکههای عصبی، وقتی اندازهی #batch ها را x برابر میکنید، بهترست نرخ آموزش را نیز x برابر (اگر الگوریتم آموزش #SGD است) و یا x√ برابر (اگر الگوریتم آموزش #Adam است) کنید.
مثلا در #LLM ها که بیشتر از الگوریتم آموزشی Adam استفاده میشود، اندازهی batch ها را تا حدی که #GPU شما خطای Out_Of_Memory نمیدهد (به صورت توانی از ۲) افزایش دهید. هر بار که اندازه batch را ۲ برابر میکنید، نرخ آموزش را ۱/۴ برابر کنید.
این مقالهی جالب از دانشگاه پرینستون، به کمک معادلات دیفرانسیل تصادفی، الگوی کارایی برای تغییر هایپرپارامترها (مثل learning rate) با افزایش #batch_size ارائه میدهد.
لینک
معمولا در عمل، نرخ آموزش هرچقدر هم که باشد، در طی #epoch ها، ابتدا از 0.1 نرخ آموزش شروع کرده و در ده درصد ابتدایی مسیر آموزش، این نرخ را بهصورت خطی زیاد کرده تا وقتی ده درصد epoch ها طی شد، به نرخ اصلی رسیده باشیم. از آنجا به بعد (۹۰ درصد باقی epoch ها) نرخ آموزش بهصورت کسینوسی کم میشود.
@silicon_brain | از هوش مصنوعی عقب نمانید
تا حالا به امنیت هر نوع داده ساختار و متغیر ها فکر کردی؟
برای زبان #پایتون امنیت دادهها رو میشه از جنبه های مختلف بررسی کرد، از جمله امنیت تغییرناپذیری (immutability)
رشتهها (Strings): رشتهها در پایتون تغییرناپذیر هستن. پس از ایجاد یک رشته، نمیشه محتواشو تغییر داد. این ویژگی باعث میشود که رشتهها در برابر تغییرات ناخواسته محافظت بشن.
تاپلها (Tuples): تاپلها هم تغییرناپذیرن. بنابراین، پس از ایجاد یک تاپل، نمیشه المانهاشو تغییر داد.
لیستها (Lists): لیستها تغییرپذیرن. بنابراین، میشه المانهای اونارو تغییر داد، افزود یا حذف کرد. این ویژگی ممکنه باعث مشکلات امنیتی بشه اگه لیستها بدون کنترل مناسب تغییر کنند.
مجموعهها (Sets) و دیکشنری (Dictionaries): این دو ساختمان داده نیز تغییرپذیر هستند. بنابراین، میشه المانها رو بهشون افزود یا حذف کرد.
@silicon_brain | از هوش مصنوعی عقب نمانید
برای زبان #پایتون امنیت دادهها رو میشه از جنبه های مختلف بررسی کرد، از جمله امنیت تغییرناپذیری (immutability)
رشتهها (Strings): رشتهها در پایتون تغییرناپذیر هستن. پس از ایجاد یک رشته، نمیشه محتواشو تغییر داد. این ویژگی باعث میشود که رشتهها در برابر تغییرات ناخواسته محافظت بشن.
s = "Hello"
s[0] = 'h' # این خط خطا میده چون رشتهها تغییرناپذیر هستن
تاپلها (Tuples): تاپلها هم تغییرناپذیرن. بنابراین، پس از ایجاد یک تاپل، نمیشه المانهاشو تغییر داد.
t = (1, 2, 3)
t[0] = 10 # این خط خطا میده چون تاپلها تغییرناپذیر هستن
لیستها (Lists): لیستها تغییرپذیرن. بنابراین، میشه المانهای اونارو تغییر داد، افزود یا حذف کرد. این ویژگی ممکنه باعث مشکلات امنیتی بشه اگه لیستها بدون کنترل مناسب تغییر کنند.
lst = [1, 2, 3]
lst[0] = 10 # این خط درسته چون لیستها تغییرپذیر هستن
مجموعهها (Sets) و دیکشنری (Dictionaries): این دو ساختمان داده نیز تغییرپذیر هستند. بنابراین، میشه المانها رو بهشون افزود یا حذف کرد.
my_set = {1, 2, 3}
my_set.add(4) # افزودن یک المان به مجموعه
my_dict = {'a': 1, 'b': 2}
my_dict['c'] = 3 # افزودن یک جفت کلید-مقدار به دیکشنری
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
لایبرری PyGWalker،برای تحلیل اکتشافی داده (EDA)
توی #اصطلاحات_ما EDA دنبال استخراج اطلاعات و پیدا کردن الگوهای مهم از دل دیتاست هستیم. برای EDA، معمولا از #Pandas #matplotlib و یکسری کتابخونههای دیگه استفاده میشه. اما، شما با ابزاری مثل PyGWalker میتونید در ژوپیتر نوتبوک، از طریق یک رابط گرافیکی EDA انجام بدید.
گیتهاب | نوتبوک نمونه در کولب | کگل
@ silicon_brain | از هوش مصنوعی عقب نمانید
توی #اصطلاحات_ما EDA دنبال استخراج اطلاعات و پیدا کردن الگوهای مهم از دل دیتاست هستیم. برای EDA، معمولا از #Pandas #matplotlib و یکسری کتابخونههای دیگه استفاده میشه. اما، شما با ابزاری مثل PyGWalker میتونید در ژوپیتر نوتبوک، از طریق یک رابط گرافیکی EDA انجام بدید.
گیتهاب | نوتبوک نمونه در کولب | کگل
@ silicon_brain | از هوش مصنوعی عقب نمانید
مدل YOLO v10 هم منتشر شد!
نیاز به توضیح بیشتری نداره (چه زود نسخه های جدید #yolo میاد /: )
گیتهاب | مقاله
مدل YOLO v9 | مدل YOLO v8
@silicon_brain | از هوش مصنوعی عقب نمانید
نیاز به توضیح بیشتری نداره (چه زود نسخه های جدید #yolo میاد /: )
گیتهاب | مقاله
مدل YOLO v9 | مدل YOLO v8
@silicon_brain | از هوش مصنوعی عقب نمانید
Forwarded from Silicon Brain | جامعه هوش مصنوعی
احتمالا میدونید که #کتاب یادگیری عمیق گودفلو از اصلی ترین مراجع یادگیری عمیق هستش. تیم سیلیکون برین با کمک اعضای متخصص، اقدام به ترجمه و خلاصه سازی این کتاب در قالب 20 سری کرده و شما میتونید به صورت رایگان و داخل همین کانال این داکیومنت با ارزشو مطالعه کنید.
▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️
لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم
#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید
▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️
لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم
#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید
Telegram
Silicon Brain | جامعه هوش مصنوعی
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
Large Language Models and The End of Programming - CS50 Tech Talk with Dr. Matt Welsh
نظر استاد سابق دانشگاه هاروارد در مورد آینده برنامه نویسی و تغییر جهت به سمت آموزش #llm ها برای یادگیری مهارتهای مختلف از جمله برنامه نویسی رو توضیح میده.
رویکردی که برای آینده داره به این شکله که شما با استفاده از llm ها میتونین به ابزارها و API های مختلف وصل بشین و تسک مورد نظرتونو انجام بدین در نهایت نتیجه به دست اومده رو در قالب یک دیتابیس vector داشته باشین و استفاده بکنین
لینک کامل ویدیو
@silicon_brain | از هوش مصنوعی عقب نمانید
نظر استاد سابق دانشگاه هاروارد در مورد آینده برنامه نویسی و تغییر جهت به سمت آموزش #llm ها برای یادگیری مهارتهای مختلف از جمله برنامه نویسی رو توضیح میده.
رویکردی که برای آینده داره به این شکله که شما با استفاده از llm ها میتونین به ابزارها و API های مختلف وصل بشین و تسک مورد نظرتونو انجام بدین در نهایت نتیجه به دست اومده رو در قالب یک دیتابیس vector داشته باشین و استفاده بکنین
لینک کامل ویدیو
@silicon_brain | از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
مدل YOLO v10 هم منتشر شد! نیاز به توضیح بیشتری نداره (چه زود نسخه های جدید #yolo میاد /: ) گیتهاب | مقاله مدل YOLO v9 | مدل YOLO v8 @silicon_brain | از هوش مصنوعی عقب نمانید
جزئیات بیشتر مدل YOLOv10
این مدل در ۶ سایز معرفی شده:
نانو (n): ۲/۳ میلیون پارامتر
کوچک (s): ۷/۲ میلیون پارامتر
متوسط (m): ۱۵/۴ میلیون پارامتر
بزرگ (b): ۱۹/۱ میلیون پارامتر
بزرگ (l): ۲۴/۴ میلیون پارامتر
خیلی بزرگ (x): ۲۹/۵ میلیون پارامتر
این مدل دقت (mAP) بهتری روی مجموعهدادهی COCO داشته و بهخاطر عدم استفاده از NMS به مراتب سریعتره. طوری که کوچکترین سایز، هر تصویر رو تو ۱ میلیثانیه پردازش میکنه (1000fps) و به راحتی میشه گفت بهترین مدل برای پردازش Real-Time ویدئوها روی دستگاههای edge devices هستش
کد این مدل رو روی فریمورک Ultralytics هستش بنابراین به کمک پکیج ultralytics بهسادگی قابل استفادهست.
نکتهی قابل توجه این که، این مدل تحت مجوز GNU GPL v3.0 منتشر شده، یعنی فقط تو پروژههای اوپن-سورس قابل استفادهست و نمیشه از آن در محصولات close-source استفاده کرد.
مقاله | گیتهاب | فاینتیون مدل | دمو
#yolo
@silicon_brain I از هوش مصنوعی عقب نمانید
این مدل در ۶ سایز معرفی شده:
نانو (n): ۲/۳ میلیون پارامتر
کوچک (s): ۷/۲ میلیون پارامتر
متوسط (m): ۱۵/۴ میلیون پارامتر
بزرگ (b): ۱۹/۱ میلیون پارامتر
بزرگ (l): ۲۴/۴ میلیون پارامتر
خیلی بزرگ (x): ۲۹/۵ میلیون پارامتر
این مدل دقت (mAP) بهتری روی مجموعهدادهی COCO داشته و بهخاطر عدم استفاده از NMS به مراتب سریعتره. طوری که کوچکترین سایز، هر تصویر رو تو ۱ میلیثانیه پردازش میکنه (1000fps) و به راحتی میشه گفت بهترین مدل برای پردازش Real-Time ویدئوها روی دستگاههای edge devices هستش
کد این مدل رو روی فریمورک Ultralytics هستش بنابراین به کمک پکیج ultralytics بهسادگی قابل استفادهست.
نکتهی قابل توجه این که، این مدل تحت مجوز GNU GPL v3.0 منتشر شده، یعنی فقط تو پروژههای اوپن-سورس قابل استفادهست و نمیشه از آن در محصولات close-source استفاده کرد.
مقاله | گیتهاب | فاینتیون مدل | دمو
#yolo
@silicon_brain I از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
افزایش سرعت پردازش Pandas تا 150 ! باز هم Nvidia و کارای خفن! NVIDIA با انتشار نسخه جدید cuDF، سرعت پانداس رو تا 150 برابر افزایش داده. استفاده از cuDF، پردازش بیگدیتا در پانداس به طور قابل توجهی سریعتر میشه و به شما این امکانو میده که تو زمان صرفهجویی…
This media is not supported in your browser
VIEW IN TELEGRAM
قبلا تو این پست در مورد افزایش سرعت چشمگیر با استفاده از #cudf شرکت #nvidia صحبت کردیم.
تو این ویدئو هم میشه راحت سرعتشو مقایسه کرد.
این کتابخونه به طور خودکار متوجه میشه که شما روی GPU کار میکنین یا CPU و سرعت پردازش شما رو افزایش میده.
اصلا هم لازم نیس کدتون رو تغییر بدین، فقط کافیه بنویسین:
@silicon_brain I از هوش مصنوعی عقب نمانید
تو این ویدئو هم میشه راحت سرعتشو مقایسه کرد.
این کتابخونه به طور خودکار متوجه میشه که شما روی GPU کار میکنین یا CPU و سرعت پردازش شما رو افزایش میده.
اصلا هم لازم نیس کدتون رو تغییر بدین، فقط کافیه بنویسین:
%load_ext cudf.pandas
import pandas as pd
@silicon_brain I از هوش مصنوعی عقب نمانید
سازمان هوشمصنوعی؟!
یکی از اساتید دانشگاه، پیشنهاد تاسیس سازمان هوش مصنوعی رو داده و بعضی هم از این موضوع حمایت کردن و حتی در دولت قبلی هم گویا اقدام به تاسیس همچین سازمانی کردن!
اینجا یک اما وجود داره
کشوری مثل آمریکا مگه ستاد و سازمان هوش مصنوعی داره که اینطور پیشرفت کرده؟! خیر! آمریکا اقتصاد را کاملا باز گذاشته و شرکتهای بزرگ آمریکایی مثل گوگل، مایکروسافت، OpenAI و Nvidia و DeepMind و هزاران استارتاپ دیگه هستند که تو هوش مصنوعی انقلاب کردند! علاوه بر این موضوع ایجاد ستاد و سازمانی با عنوان هوش مصنوعی مساویست با بزرگتر شدن دولت این یعنی تضاد با اقتصاد بازار آزاد... و هزاران عامل دیگه!
):
@silicon_brain I از هوش مصنوعی عقب نمانید
یکی از اساتید دانشگاه، پیشنهاد تاسیس سازمان هوش مصنوعی رو داده و بعضی هم از این موضوع حمایت کردن و حتی در دولت قبلی هم گویا اقدام به تاسیس همچین سازمانی کردن!
اینجا یک اما وجود داره
کشوری مثل آمریکا مگه ستاد و سازمان هوش مصنوعی داره که اینطور پیشرفت کرده؟! خیر! آمریکا اقتصاد را کاملا باز گذاشته و شرکتهای بزرگ آمریکایی مثل گوگل، مایکروسافت، OpenAI و Nvidia و DeepMind و هزاران استارتاپ دیگه هستند که تو هوش مصنوعی انقلاب کردند! علاوه بر این موضوع ایجاد ستاد و سازمانی با عنوان هوش مصنوعی مساویست با بزرگتر شدن دولت این یعنی تضاد با اقتصاد بازار آزاد... و هزاران عامل دیگه!
):
@silicon_brain I از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
مصورسازی فوق العاده از روند یادگیری شبکه عصبی در روابط غیرخطی و پیچیده
تئوری تقریب جهانی (Universal Approximation Theory) میگه که شبکههای عصبی مصنوعی با یک لایه پنهان، میتونن هر تابع پیوستهای رو با دقت دلخواه تقریب بزنن. این تئوری خیلی تو یادگیری ماشین مهمه، چون نشون میده شبکههای عصبی میتونن انواع مختلف دادهها و روابط پیچیده غیرخطی رو مدلسازی کنن. البته تعداد نورونهای لایه پنهان ممکنه خیلی زیاد بشه تا به دقت مورد نظر برسیم.
یوتوب
#شبکه_عصبی
@silicon_brain | از هوش مصنوعی عقب نمانید
تئوری تقریب جهانی (Universal Approximation Theory) میگه که شبکههای عصبی مصنوعی با یک لایه پنهان، میتونن هر تابع پیوستهای رو با دقت دلخواه تقریب بزنن. این تئوری خیلی تو یادگیری ماشین مهمه، چون نشون میده شبکههای عصبی میتونن انواع مختلف دادهها و روابط پیچیده غیرخطی رو مدلسازی کنن. البته تعداد نورونهای لایه پنهان ممکنه خیلی زیاد بشه تا به دقت مورد نظر برسیم.
یوتوب
#شبکه_عصبی
@silicon_brain | از هوش مصنوعی عقب نمانید