طبق گزارش پلتفرم جاب ویژن میانگین #حقوق درخواستی برای سال 1403برای عنوان شغلی علوم داده / هوش مصنوعی در شهر تهران برای سه سطح به این صورته:
کارشناس: 21.6 MT
کارشناس ارشد: 36.0 MT
مدیر: 53.3 MT
برای عنوان شغلی Python Developer در شهر تهران برای سه سطح:
Junior: 16.9 MT
Mid-Level: 26.4 MT
Senior: 39.0 MT
نظرتون در مورد این اعداد چیه؟
@silicon_brain | از هوش مصنوعی عقب نمانید
کارشناس: 21.6 MT
کارشناس ارشد: 36.0 MT
مدیر: 53.3 MT
برای عنوان شغلی Python Developer در شهر تهران برای سه سطح:
Junior: 16.9 MT
Mid-Level: 26.4 MT
Senior: 39.0 MT
نظرتون در مورد این اعداد چیه؟
@silicon_brain | از هوش مصنوعی عقب نمانید
Media is too big
VIEW IN TELEGRAM
به جای استفاده از ChatGPT برای نوشتن مقاله از ابزار مفید Researchpal استفاده کن
احتمالا اخیرا در مورد مقالات فیکی که هر روز منتشر و ریجکت میشن شنیدین. استفاده از #ChatGPT و دیگر #LLM ها باعث تولید استنادهای جعلی به مقالاتی که حتی وجود ندارن میشه.
ولی هوش مصنوعی میتونه به یه شکل دیگه در نگارش و تحقیقات علمی به کمکتون بیاد. میتونید از #ResearchPal استفاده کنید - پلتفرمی که برای پژوهش های آکادمیک طراحی شده و یه موتور جستجوی داخلی هم داره که می تونید مقالاتو جستجو و استفاده کنید و یا اطلاعات کلیدی هر مقاله رو استخراج کنید.
آپشن هایی که این پلتفرم داره اینا هستن:
1. Literature Review
2. Reference Generator
3. Rewrite in Any Tone
4. In-Text Citations
5. Paper Insights
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
احتمالا اخیرا در مورد مقالات فیکی که هر روز منتشر و ریجکت میشن شنیدین. استفاده از #ChatGPT و دیگر #LLM ها باعث تولید استنادهای جعلی به مقالاتی که حتی وجود ندارن میشه.
ولی هوش مصنوعی میتونه به یه شکل دیگه در نگارش و تحقیقات علمی به کمکتون بیاد. میتونید از #ResearchPal استفاده کنید - پلتفرمی که برای پژوهش های آکادمیک طراحی شده و یه موتور جستجوی داخلی هم داره که می تونید مقالاتو جستجو و استفاده کنید و یا اطلاعات کلیدی هر مقاله رو استخراج کنید.
آپشن هایی که این پلتفرم داره اینا هستن:
1. Literature Review
2. Reference Generator
3. Rewrite in Any Tone
4. In-Text Citations
5. Paper Insights
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
Data-Science-Glossary.pdf
192.2 KB
Data Science Glossary
🔍 فرهنگ واژگان تخصصی علم داده
این داکیومنت شامل اصلیترین کلیدواژههایه که فعالان علوم داده باید بلد باشن
#data_science
#cheatsheet
@silicon_brain | از هوش مصنوعی عقب نمانید
🔍 فرهنگ واژگان تخصصی علم داده
این داکیومنت شامل اصلیترین کلیدواژههایه که فعالان علوم داده باید بلد باشن
#data_science
#cheatsheet
@silicon_brain | از هوش مصنوعی عقب نمانید
نیازمندی های مورد نیاز امروز عناوین شغلی مرتبط با هوش مصنوعی
قطعا به مرور زمان تقاضا برای برخی نیازمندی ها مثل #chatgpt و #langchain بیشتر خواهد شد.
@silicon_brain | از هوش مصنوعی عقب نمانید
قطعا به مرور زمان تقاضا برای برخی نیازمندی ها مثل #chatgpt و #langchain بیشتر خواهد شد.
@silicon_brain | از هوش مصنوعی عقب نمانید
یک راهکار ساده و کارا برای کمبود GPU RAM
کم بودن GPU RAM میتونه شما رو در انتخاب سایز شبکه عصبی و همچنین بچساز #batch_size محدود کنه. اما راهکارهای مختلفی وجود داره که شما از همان #RAM کم نهایت استفاده رو ببری. یکی از راهکارها آموزش مدل با Float16 هست!
بهصورت پیشفرض، در پایتورچ دادهها و مدلها بر پایه Float32 هستن. اما با تغییراتی کمی تو کد، میشه دادهها و مدلها رو بر پایه Float16 تعریف کرد و تا 50 درصد از مصرف RAM صرفهجویی کرد.
این راهکار هم مصرف RAM رو کاهش میده و هم در بسیاری از مسائل افت قابل توجهی در عملکرد (مثلا دقت) ایجاد نمیکنه. حالا که مصرف RAM کمتر شده، میتونید هم مدل بزرگتری داشته باشی و هم بچسایز رو بزرگتر کنی.
این داکیومنت از #pytorch رو حتما بخون
لینک داکیومنت
@silicon_brain | از هوش مصنوعی عقب نمانید
کم بودن GPU RAM میتونه شما رو در انتخاب سایز شبکه عصبی و همچنین بچساز #batch_size محدود کنه. اما راهکارهای مختلفی وجود داره که شما از همان #RAM کم نهایت استفاده رو ببری. یکی از راهکارها آموزش مدل با Float16 هست!
بهصورت پیشفرض، در پایتورچ دادهها و مدلها بر پایه Float32 هستن. اما با تغییراتی کمی تو کد، میشه دادهها و مدلها رو بر پایه Float16 تعریف کرد و تا 50 درصد از مصرف RAM صرفهجویی کرد.
این راهکار هم مصرف RAM رو کاهش میده و هم در بسیاری از مسائل افت قابل توجهی در عملکرد (مثلا دقت) ایجاد نمیکنه. حالا که مصرف RAM کمتر شده، میتونید هم مدل بزرگتری داشته باشی و هم بچسایز رو بزرگتر کنی.
این داکیومنت از #pytorch رو حتما بخون
لینک داکیومنت
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
اگر حال نوشتن نداری، حرف بزنید تا هوش مصنوعی براتون بنویسه
سایت SpeechTexter برای گفتار به متن بصورت چندزبانه و رایگانه که میتونه برای نوشتن یادداشت اسناد، کتاب، گزارش یا پست های وبلاگ خیلی مفید باشه. این سایت دستورات صوتی قابل تنظیم هم که داره که به کاربر اجاز میده تا علائم نگارشی، عبارات پرکاربرد و برخی شرایط کاستوم در نگارش رو اضافه کنه
این سایت از تشخیص گفتار Google برای تبدیل گفتار به متن بصورت real-time استفاده می کنه و برای مرورگر کروم (برای دسکتاپ) و مرورگرهای سیستم عامل اندروید پشتیبانی میشه.
فارسی هم ساپورت میکنه (;
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
سایت SpeechTexter برای گفتار به متن بصورت چندزبانه و رایگانه که میتونه برای نوشتن یادداشت اسناد، کتاب، گزارش یا پست های وبلاگ خیلی مفید باشه. این سایت دستورات صوتی قابل تنظیم هم که داره که به کاربر اجاز میده تا علائم نگارشی، عبارات پرکاربرد و برخی شرایط کاستوم در نگارش رو اضافه کنه
این سایت از تشخیص گفتار Google برای تبدیل گفتار به متن بصورت real-time استفاده می کنه و برای مرورگر کروم (برای دسکتاپ) و مرورگرهای سیستم عامل اندروید پشتیبانی میشه.
فارسی هم ساپورت میکنه (;
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
ابزاری برای بهینهسازی پارامترها در یادگیری ماشین و شبکههای عصبی
اگه دنبال راهی برای بهینهسازی پارامترها با کمترین زمان و تلاش هستین، #Optuna رو از دست ندین.
آپشنایی که #Optuna میده:
- بهینهسازی هایپرپارامترها
- بهبود عملکرد مدلهای پیشبینی
- امکان جستجو در فضای پارامترهای پیچیده
این ابزار رو میتونین با کتابحونه های مختلف مثل #PyTorch و #Tensorflow و #Keras استفاده کنین.
لینک
برای درک کاربرد های بهینه سازی این پستو بخونید
@silicon_brain | از هوش مصنوعی عقب نمانید
اگه دنبال راهی برای بهینهسازی پارامترها با کمترین زمان و تلاش هستین، #Optuna رو از دست ندین.
آپشنایی که #Optuna میده:
- بهینهسازی هایپرپارامترها
- بهبود عملکرد مدلهای پیشبینی
- امکان جستجو در فضای پارامترهای پیچیده
این ابزار رو میتونین با کتابحونه های مختلف مثل #PyTorch و #Tensorflow و #Keras استفاده کنین.
لینک
برای درک کاربرد های بهینه سازی این پستو بخونید
@silicon_brain | از هوش مصنوعی عقب نمانید
بالاخره لاما۳ با عملکرد قوی اومد!
چند روز پیش نسخه جدید مدل زبانی #Lama به اسم #llama3 توسط #Meta منتشر شد. این مدل از زبان فارسی هم پشتیبانی میکنه و میتونه برای تسک هایی که نیاز به زبان فارسی داره بهتر از #ChatGPT و #Gemini استفاده بشه.
ویژگی های Llama3:
• پشتیبانی از فارسی
• ۱۰ درصد بهبود نسبت به ورژنهای قبلی داره
• در دو سایز ۸ و ۷۰ میلیاردی در دو نسخه base و instruct ارائه شده
• توکنایزرش با اندازه ۱۲۸ هزار تا آپدیت شده
• استفاده تجاری داده شده (:
• روی ۱۵ تریلیون توکن آموزش داده شده
• روی ۱۰ میلیون نمونه لیبلزده شده توسط انسان فاینتیون شده
• برای alignment هم از sft و ppo و dpo استفاده شده
• روی mmlu بهترین مدل زبانی وزنباز هست (بالای ۸۰)
• مدل ۸ و ۷۰ میلیاردی نسخه instruct یه ترتیب با ۶۲.۲ و ۸۱.۷ در HumanEval وضعیت بسیار خوبی در کدزنی دارند.
• اندازه context window با اندازه پیش فرض ۸۱۹۲ و با قابلیت افزایش
حتما خودتون تستش کنید:
https://www.llama2.ai
لینک بلاگ متا
لینک کالکشن هاگینگفیس
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
چند روز پیش نسخه جدید مدل زبانی #Lama به اسم #llama3 توسط #Meta منتشر شد. این مدل از زبان فارسی هم پشتیبانی میکنه و میتونه برای تسک هایی که نیاز به زبان فارسی داره بهتر از #ChatGPT و #Gemini استفاده بشه.
ویژگی های Llama3:
• پشتیبانی از فارسی
• ۱۰ درصد بهبود نسبت به ورژنهای قبلی داره
• در دو سایز ۸ و ۷۰ میلیاردی در دو نسخه base و instruct ارائه شده
• توکنایزرش با اندازه ۱۲۸ هزار تا آپدیت شده
• استفاده تجاری داده شده (:
• روی ۱۵ تریلیون توکن آموزش داده شده
• روی ۱۰ میلیون نمونه لیبلزده شده توسط انسان فاینتیون شده
• برای alignment هم از sft و ppo و dpo استفاده شده
• روی mmlu بهترین مدل زبانی وزنباز هست (بالای ۸۰)
• مدل ۸ و ۷۰ میلیاردی نسخه instruct یه ترتیب با ۶۲.۲ و ۸۱.۷ در HumanEval وضعیت بسیار خوبی در کدزنی دارند.
• اندازه context window با اندازه پیش فرض ۸۱۹۲ و با قابلیت افزایش
حتما خودتون تستش کنید:
https://www.llama2.ai
لینک بلاگ متا
لینک کالکشن هاگینگفیس
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
در مورد محتوای کانال انتخاب کن (چند گزینه رو میتونی انتخاب کنی)
Anonymous Poll
61%
محتوای به روز
63%
محتوای تخصصی
26%
پوشش همه جانبه
28%
مناسب برای هر سطحی
33%
بیان ساده و مناسب
18%
دوس داشتنی (;
6%
هیچکدوم :/