Telegram Web Link
چالش‌ها و مسائل موجود در یادگیری ماشین برای صنعت و پژوهش متفاوته و افراد باید با روش کارکرد هر کدوم از اینا آشنا باشن تا بتونن انتخاب آگاهانه ای داشته باشن. تو این پست اینستاگرامی در مورد تفاوت‌های یادگیری ماشین تو محیط آکادمی و صنعت رو توضیح دادیم:

https://www.instagram.com/p/C7HLWd4iyd5/?igsh=cWVycGppYmh3dWRs
با این ابزار کاربردی کلیپ‌های #یوتیوب رو بصورت رایگان به جزوه و یاداشت تبدیل کن
لینک

@silicon_brain I از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
این ویدیو کوتاه نشون میده که تو دنیای امروز، هوش مصنوعی، برنامه ریزی و تحقیق بعنوان یه ابزار هوشمند میتونن شمارو به هدفتون برسونن

@silicon_brain I از هوش مصنوعی عقب نمانید
مصاحبه جدید جفری هینتون

تو این مصاحیه #جفری_هینتون میگه که اول دنبال فهمیدن کارکرد مغز بود ولی از یافته‌های #نوروساینس ناامید شد و میخواست یه مسیر جدید رو امتحان کنه
برای همین به یادگیری با الگوریتم جدید بیشتر علاقه پیدا کرد و سراغ هوش مصنوعی رفت. تو مصاحبه درباره همکاری با افراد دیگه تو این زمینه صحبت میکنه.
در ادامه میگه که فکر میکنه مدل‌های زبان بزرگ #LLM کارشون این نیست که فقط کلمه بعدی رو حدس بزنن بلکه معنی کل جمله رو به خوبی درک میکنن. به این اشاره میکنه که این مدل‌ها شاید حتی از فهم انسان هم فراتر برن.

روش فعلی آموزش هوش مصنوعی با حجم زیادی از اطلاعات رو تایید میکنه ولی میگه شاید الگوریتم‌های یادگیری دیگری هم باشن که با حجم کمتری از دیتا موفق باشن.
در آخر، باحال‌ترین دستاورد پژوهشی خودش رو کارش با Sejnowski میدونه.
ویدئو یوتوب

@silicon_brain | از هوش مصنوعی عقب نمانید
مدل‌های زبانی قدرتمند که اخیرا منتشر شدن

حتما اطلاع دارین که هفته پیش مدل GPT-4o
معرفی شد و عملکرد فوق العاده‌ی این مدل موضوع بحث خیلی جاها بود (میتونین به این مدل از طریق داشبود openai دسترسی داشته باشین. چند ریکوئست اولش رایگانه)
اما در ادامه چندتا از مدل‌های مهم که زیر این حجم مارکتینگ ممکنه از دست داده باشید رو بصورت خلاصه معرفی کنیم:

مدل Yi-1.5
بخصوص روی تسک‌های مربوط به کد زدن؛ بسیار عملکرد خوبی داره طبق بنچمارک‌ها عملکرد بهتری نسبت به #llama3 داره

مدل Falcon2.0
مدل 11B که خروجی خوبی داره و مثل متا درحالی که مدل اصلی رو داره توسعه می‌ده قرار هست مدل‌های کوچکتر رو release کنن

مدل IBM
این شرکت هم مدل خودشو منتشر کرده که تعداد پارامتر‌های زیادی داره


@silicon_brain I از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
افزایش سرعت پردازش Pandas تا 150 !

باز هم Nvidia و کارای خفن! NVIDIA با انتشار نسخه جدید cuDF، سرعت پانداس رو تا 150 برابر افزایش داده. استفاده از cuDF، پردازش بیگ‌دیتا در پانداس به طور قابل توجهی سریع‌تر میشه و به شما این امکانو می‌ده که تو زمان صرفه‌جویی کنید و تمرکزتونو روی مسائل مهم تر مثل تحلیل داده بزارید.

یکی از مزایای کلیدی #cuDF اینه که نیازی به تغییر کدهای قبلی نداری cuDF به طور خودکار عملیات پانداس رو به GPU منتقل میکنه

میتونی به طور مستقیم در Google #Colab استفاده کنی بدون نیاز به نصب یا کانفیگ

بلاگ Nvidia
استفاده در Colab
#pandas #Nvidia
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
مدل دیفیوژن Images that Sound

پژوهش‌گران دانشگاه میشیگان، یک Diffusion Model معرفی کرده‌اند که با دریافت یک پرامپت متنی برای صوت (در کنار تصویر)، صدا نیز تولید می‌کند.

رویکرد خیلی جالبی برای ساخت این مدل داشتن و اون اینه که این مدل در واقع به صدا نیز به شکل تصویر نگاه میکنه (spectrograms) و میسازه

مقاله | گیتهاب
#diffusion
@silicon_brain | از هوش مصنوعی عقب نمانید
تنظیم هایپرپارمترها با افزایش Batch Size

شاید شنیده باشید که در هنگام آموزش شبکه‌های عصبی، وقتی اندازه‌ی #batch ها را x برابر می‌کنید، به‌تر‌ست نرخ آموزش را نیز x برابر (اگر الگوریتم آموزش #SGD است) و یا x√ برابر (اگر الگوریتم آموزش #Adam است) کنید.

مثلا در #LLM ها که بیش‌تر از الگوریتم آموزشی Adam استفاده می‌شود، اندازه‌ی batch ها را تا حدی که #GPU شما خطای Out_Of_Memory نمی‌دهد (به صورت توانی از ۲) افزایش دهید. هر بار که اندازه batch را ۲ برابر می‌کنید، نرخ آموزش را ۱/۴ برابر کنید.

این مقاله‌ی جالب از دانشگاه پرینستون، به کمک معادلات دیفرانسیل تصادفی، الگوی کارایی برای تغییر هایپرپارامترها (مثل learning rate) با افزایش #batch_size ارائه می‌دهد.
لینک

معمولا در عمل، نرخ آموزش هرچقدر هم که باشد، در طی #epoch ها، ابتدا از 0.1 نرخ آموزش شروع کرده و در ده درصد ابتدایی مسیر آموزش، این نرخ را به‌صورت خطی زیاد کرده تا وقتی ده درصد epoch ها طی شد، به نرخ اصلی رسیده باشیم. از آن‌جا به بعد (۹۰ درصد باقی epoch ها) نرخ آموزش به‌صورت کسینوسی کم می‌شود.

@silicon_brain | از هوش مصنوعی عقب نمانید
تا حالا به امنیت هر نوع داده ساختار و متغیر ها فکر کردی؟

برای زبان #پایتون امنیت داده‌ها رو میشه از جنبه های مختلف بررسی کرد، از جمله امنیت تغییرناپذیری (immutability)

رشته‌ها (Strings): رشته‌ها در پایتون تغییرناپذیر هستن. پس از ایجاد یک رشته، نمیشه محتواشو تغییر داد. این ویژگی باعث می‌شود که رشته‌ها در برابر تغییرات ناخواسته محافظت بشن.

s = "Hello"
s[0] = 'h' # این خط خطا می‌ده چون رشته‌ها تغییرناپذیر هستن


تاپل‌ها (Tuples): تاپل‌ها هم تغییرناپذیرن. بنابراین، پس از ایجاد یک تاپل، نمیشه المان‌هاشو تغییر داد.
t = (1, 2, 3)
t[0] = 10 # این خط خطا میده چون تاپل‌ها تغییرناپذیر هستن



لیست‌ها (Lists): لیست‌ها تغییرپذیرن. بنابراین، میشه المان‌های اونارو تغییر داد، افزود یا حذف کرد. این ویژگی ممکنه باعث مشکلات امنیتی بشه اگه لیست‌ها بدون کنترل مناسب تغییر کنند.

lst = [1, 2, 3]
lst[0] = 10 # این خط درسته چون لیست‌ها تغییرپذیر هستن


مجموعه‌ها (Sets) و دیکشنری (Dictionaries): این دو ساختمان داده نیز تغییرپذیر هستند. بنابراین، میشه المان‌ها رو بهشون افزود یا حذف کرد.

my_set = {1, 2, 3}
my_set.add(4) # افزودن یک المان به مجموعه

my_dict = {'a': 1, 'b': 2}
my_dict['c'] = 3 # افزودن یک جفت کلید-مقدار به دیکشنری


@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
لایبرری PyGWalker،برای تحلیل اکتشافی داده (EDA)

توی #اصطلاحات_ما EDA دنبال استخراج اطلاعات و پیدا کردن الگوهای مهم از دل دیتاست هستیم. برای EDA، معمولا از #Pandas #matplotlib و یکسری کتابخونه‌های دیگه استفاده میشه. اما، شما با ابزاری مثل PyGWalker می‌تونید در ژوپیتر نوتبوک، از طریق یک رابط گرافیکی EDA انجام بدید.

گیتهاب | نوتبوک نمونه در کولب | کگل

@ silicon_brain | از هوش مصنوعی عقب نمانید
مدل YOLO v10 هم منتشر شد!
نیاز به توضیح بیشتری نداره (چه زود نسخه های جدید #yolo میاد /: )
گیتهاب | مقاله
مدل YOLO v9 | مدل YOLO v8
@silicon_brain | از هوش مصنوعی عقب نمانید
احتمالا میدونید که #کتاب یادگیری عمیق گودفلو از اصلی ترین مراجع یادگیری عمیق هستش. تیم سیلیکون برین با کمک اعضای متخصص، اقدام به ترجمه و خلاصه سازی این کتاب در قالب 20 سری کرده و شما میتونید به صورت رایگان و داخل همین کانال این داکیومنت با ارزشو مطالعه کنید.

▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️

لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم

#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
Large Language Models and The End of Programming - CS50 Tech Talk with Dr. Matt Welsh

نظر استاد سابق دانشگاه هاروارد در مورد آینده برنامه نویسی و تغییر جهت به سمت آموزش #llm ها برای یادگیری مهارتهای مختلف از جمله برنامه نویسی رو توضیح میده.

رویکردی که برای آینده داره به این شکله که شما با استفاده از llm ها میتونین به ابزارها و API های مختلف وصل بشین و تسک مورد نظرتونو انجام بدین در نهایت نتیجه به دست اومده رو در قالب یک دیتابیس vector داشته باشین و استفاده بکنین
لینک کامل ویدیو
@silicon_brain | از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
مدل YOLO v10 هم منتشر شد! نیاز به توضیح بیشتری نداره (چه زود نسخه های جدید #yolo میاد /: ) گیتهاب | مقاله مدل YOLO v9 | مدل YOLO v8 @silicon_brain | از هوش مصنوعی عقب نمانید
جزئیات بیشتر مدل YOLOv10

این مدل در ۶ سایز معرفی شده:
نانو (n): ۲/۳ میلیون پارامتر
کوچک (s): ۷/۲ میلیون پارامتر
متوسط (m): ۱۵/۴ میلیون پارامتر
بزرگ (b): ۱۹/۱ میلیون پارامتر
بزرگ (l): ۲۴/۴ میلیون پارامتر
خیلی بزرگ (x): ۲۹/۵ میلیون پارامتر

این مدل دقت (mAP) بهتری روی مجموعه‌داده‌ی COCO داشته و به‌خاطر عدم استفاده از NMS به مراتب سریع‌تره. طوری که کوچک‌ترین سایز، هر تصویر رو تو ۱ میلی‌ثانیه پردازش می‌کنه (1000fps) و به راحتی میشه گفت بهترین مدل برای پردازش Real-Time ویدئو‌ها روی دستگاه‌های edge devices هستش

کد این مدل رو روی فریم‌ورک Ultralytics هستش بنابراین به کمک پکیج ultralytics به‌سادگی قابل استفاده‌ست.

نکته‌ی قابل توجه این که، این مدل تحت مجوز GNU GPL v3.0 منتشر شده، یعنی فقط تو پروژه‌های اوپن-سورس قابل استفاده‌ست و نمیشه از آن در محصولات close-source استفاده کرد.

مقاله | گیت‌هاب | فاین‌تیون مدل | دمو
#yolo
@silicon_brain I از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
افزایش سرعت پردازش Pandas تا 150 ! باز هم Nvidia و کارای خفن! NVIDIA با انتشار نسخه جدید cuDF، سرعت پانداس رو تا 150 برابر افزایش داده. استفاده از cuDF، پردازش بیگ‌دیتا در پانداس به طور قابل توجهی سریع‌تر میشه و به شما این امکانو می‌ده که تو زمان صرفه‌جویی…
This media is not supported in your browser
VIEW IN TELEGRAM
قبلا تو این پست در مورد افزایش سرعت چشمگیر با استفاده از #cudf شرکت #nvidia صحبت کردیم.
تو این ویدئو هم میشه راحت سرعتشو مقایسه کرد.

این کتابخونه به‌ طور خودکار متوجه میشه که شما روی GPU کار می‌کنین یا CPU و سرعت پردازش شما رو افزایش میده.

اصلا هم لازم نیس کدتون رو تغییر بدین، فقط کافیه بنویسین:
%load_ext cudf.pandas
import pandas as pd

@silicon_brain I از هوش مصنوعی عقب نمانید
سازمان هوش‌مصنوعی؟!

یکی از اساتید دانشگاه، پیشنهاد تاسیس سازمان هوش مصنوعی رو داده و بعضی هم از این موضوع حمایت کردن و حتی در دولت قبلی هم گویا اقدام به تاسیس همچین سازمانی کردن!

اینجا یک اما وجود داره

کشوری مثل آمریکا مگه ستاد و سازمان هوش مصنوعی داره که اینطور پیشرفت کرده؟! خیر! آمریکا اقتصاد را کاملا باز گذاشته و شرکت‌های بزرگ آمریکایی مثل گوگل، مایکروسافت، OpenAI و Nvidia و DeepMind و هزاران استارتاپ دیگه هستند که تو هوش مصنوعی انقلاب کردند! علاوه بر این موضوع ایجاد ستاد و سازمانی با عنوان هوش مصنوعی مساوی‌ست با بزرگ‌تر شدن دولت این یعنی تضاد با اقتصاد بازار آزاد... و هزاران عامل دیگه!
):

@silicon_brain I از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
مصورسازی فوق العاده از روند یادگیری شبکه عصبی در روابط غیرخطی و پیچیده

تئوری تقریب جهانی (Universal Approximation Theory) میگه که شبکه‌های عصبی مصنوعی با یک لایه پنهان، می‌تونن هر تابع پیوسته‌ای رو با دقت دلخواه تقریب بزنن. این تئوری خیلی تو یادگیری ماشین مهمه، چون نشون میده شبکه‌های عصبی می‌تونن انواع مختلف داده‌ها و روابط پیچیده غیرخطی رو مدل‌سازی کنن. البته تعداد نورون‌های لایه پنهان ممکنه خیلی زیاد بشه تا به دقت مورد نظر برسیم.

یوتوب
#شبکه_عصبی
@silicon_brain | از هوش مصنوعی عقب نمانید
2025/07/05 14:47:56
Back to Top
HTML Embed Code: