Telegram Web Link
Please open Telegram to view this post
VIEW IN TELEGRAM
طبق گزارش پلتفرم جاب ویژن میانگین #حقوق درخواستی برای سال 1403برای عنوان شغلی علوم داده / هوش مصنوعی در شهر تهران برای سه سطح به این صورته:
کارشناس: 21.6 MT
کارشناس ارشد: 36.0 MT
مدیر: 53.3 MT

برای عنوان شغلی Python Developer در شهر تهران برای سه سطح:
Junior: 16.9 MT
Mid-Level: 26.4 MT
Senior: 39.0 MT

نظرتون در مورد این اعداد چیه؟
@silicon_brain | از هوش مصنوعی عقب نمانید
Media is too big
VIEW IN TELEGRAM
به جای استفاده از ChatGPT برای نوشتن مقاله از ابزار مفید Researchpal استفاده کن

احتمالا اخیرا در مورد مقالات فیکی که هر روز منتشر و ریجکت میشن شنیدین. استفاده از #ChatGPT و دیگر #LLM ها باعث تولید استنادهای جعلی به مقالاتی که حتی وجود ندارن میشه.

ولی هوش مصنوعی میتونه به یه شکل دیگه در نگارش و تحقیقات علمی به کمکتون بیاد. میتونید از #ResearchPal استفاده کنید - پلتفرمی که برای پژوهش های آکادمیک طراحی شده و یه موتور جستجوی داخلی هم داره که می تونید مقالاتو جستجو و استفاده کنید و یا اطلاعات کلیدی هر مقاله رو استخراج کنید.

آپشن هایی که این پلتفرم داره اینا هستن:
1. Literature Review
2. Reference Generator
3. Rewrite in Any Tone
4. In-Text Citations
5. Paper Insights

لینک

@silicon_brain | از هوش مصنوعی عقب نمانید
Data-Science-Glossary.pdf
192.2 KB
Data Science Glossary

🔍 فرهنگ واژگان تخصصی علم داده
این داکیومنت شامل اصلی‌ترین کلیدواژه‌هایه که فعالان علوم داده باید بلد باشن
#data_science
#cheatsheet
@silicon_brain | از هوش مصنوعی عقب نمانید
نیازمندی های مورد نیاز امروز عناوین شغلی مرتبط با هوش مصنوعی

قطعا به مرور زمان تقاضا برای برخی نیازمندی ها مثل #chatgpt و #langchain بیشتر خواهد شد.

@silicon_brain | از هوش مصنوعی عقب نمانید
یک راه‌کار ساده و کارا برای کمبود GPU RAM


کم بودن GPU RAM میتونه شما رو در انتخاب سایز شبکه عصبی و همچنین بچ‌ساز #batch_size محدود کنه. اما راه‌کارهای مختلفی وجود داره که شما از همان #RAM کم نهایت استفاده رو ببری. یکی از راه‌کارها آموزش مدل با Float16 هست!

به‌صورت پیش‌فرض، در پایتورچ داده‌ها و مدل‌ها بر پایه Float32 هستن. اما با تغییراتی کمی تو کد، میشه داده‌ها و مدل‌ها رو بر پایه Float16 تعریف کرد و تا 50 درصد از مصرف RAM صرفه‌جویی کرد.
این راه‌کار هم مصرف RAM رو کاهش میده و هم در بسیاری از مسائل افت قابل توجهی در عملکرد (مثلا دقت) ایجاد نمیکنه. حالا که مصرف RAM کمتر شده، میتونید هم مدل بزرگتری داشته باشی و هم بچ‌سایز رو بزرگتر کنی.

این داکیومنت از #pytorch رو حتما بخون
لینک داکیومنت
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
اگر حال نوشتن نداری، حرف بزنید تا هوش مصنوعی براتون بنویسه

سایت SpeechTexter برای گفتار به متن بصورت چندزبانه و رایگانه که میتونه برای نوشتن یادداشت اسناد، کتاب، گزارش یا پست های وبلاگ خیلی مفید باشه. این سایت دستورات صوتی قابل تنظیم هم که داره که به کاربر اجاز میده تا علائم نگارشی، عبارات پرکاربرد و برخی شرایط کاستوم در نگارش رو اضافه کنه

این سایت از تشخیص گفتار Google برای تبدیل گفتار به متن بصورت real-time استفاده می کنه و برای مرورگر کروم (برای دسکتاپ) و مرورگرهای سیستم عامل اندروید پشتیبانی میشه.

فارسی هم ساپورت میکنه (;

لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
ابزاری برای بهینه‌سازی پارامترها در یادگیری ماشین و شبکه‌های عصبی

اگه دنبال راهی برای بهینه‌سازی پارامترها با کمترین زمان و تلاش هستین، #Optuna رو از دست ندین.

آپشنایی که #Optuna میده:
- بهینه‌سازی هایپرپارامترها
- بهبود عملکرد مدل‌های پیش‌بینی
- امکان جستجو در فضای پارامترهای پیچیده

این ابزار رو میتونین با کتابحونه های مختلف مثل #PyTorch و #Tensorflow و #Keras استفاده کنین.
لینک

برای درک کاربرد های بهینه سازی این پستو بخونید

@silicon_brain | از هوش مصنوعی عقب نمانید
بالاخره لاما۳ با عملکرد قوی اومد!

چند روز پیش نسخه جدید مدل زبانی #Lama به اسم #llama3 توسط #Meta منتشر شد. این مدل از زبان فارسی هم پشتیبانی میکنه و میتونه برای تسک هایی که نیاز به زبان فارسی داره بهتر از #ChatGPT و #Gemini استفاده بشه.

ویژگی های Llama3:
• پشتیبانی از فارسی
• ۱۰ درصد بهبود نسبت به ورژن‌های قبلی داره
• در دو سایز ۸ و ۷۰ میلیاردی در دو نسخه base و instruct ارائه شده
• توکنایزرش با اندازه ۱۲۸ هزار تا آپدیت شده
• استفاده تجاری داده شده (:
• روی ۱۵ تریلیون توکن آموزش داده شده
• روی ۱۰ میلیون نمونه لیبل‌زده شده توسط انسان فاین‌تیون شده
• برای alignment هم از sft و ppo و dpo استفاده شده
• روی mmlu بهترین مدل زبانی وزن‌باز هست (بالای ۸۰)
• مدل ۸ و ۷۰ میلیاردی نسخه instruct یه ترتیب با ۶۲.۲ و ۸۱.۷ در HumanEval وضعیت بسیار خوبی در کدزنی دارند.
• اندازه context window با اندازه پیش فرض ۸۱۹۲ و با قابلیت افزایش

حتما خودتون تستش کنید:
https://www.llama2.ai
لینک بلاگ متا
لینک کالکشن هاگینگ‌فیس
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
با ما باشید با World summit ai americas
💥💥

این رویدادو توسط یکی از هم‌تیمی هامون در سیلیکون برین از مونترال پوشش می‌دیم
2025/07/05 14:53:11
Back to Top
HTML Embed Code: