☄ World summit ai americas
Handwriting recognition
Speech recognition
این دو تسک بیشتر از دو دهه طول کشیدن تا توسط هوش مصنوعی به دقت انسانی برسند😕
اما
Code generation
School math
که اخیرا بهش رسیدیم خیلی سریع به این دقت دست پیدا کردن 😁
تازه بعضی تسکا مثل
Image recognition
Language understanding
از دقت انسانی هم بالاتر رفتن. پشمات؟! (:
Handwriting recognition
Speech recognition
این دو تسک بیشتر از دو دهه طول کشیدن تا توسط هوش مصنوعی به دقت انسانی برسند😕
اما
Code generation
School math
که اخیرا بهش رسیدیم خیلی سریع به این دقت دست پیدا کردن 😁
تازه بعضی تسکا مثل
Image recognition
Language understanding
از دقت انسانی هم بالاتر رفتن. پشمات؟! (:
☄ World summit ai americas
چند تا از برندهای جدید که پروداکتی بر پایه هوش مصنوعی دارن
چند تا از برندهای جدید که پروداکتی بر پایه هوش مصنوعی دارن
سیلیکون برین طی 17 سری پست های مربوط به یادگیری ماشین رو منتشر کرده که همه ی این پست ها رو میتونین بصورت رایگان تو همین کانال بخونید. زمان زیادی برای تهیه کردن این پست ها صرف شده و شما میتونین با مطالعه و به اشتراک گذاشتن این پست از ما حمایت کنید.
مطالب با بیان ساده و تماما با مثال بیان شده که برای همه قابل استفاده باشه
فهرست:
- سری اول - مقدمه
- سری دوم - کاربرد ها
- سری سوم - درخت تصمیم
- سری چهارم - روش های مبتنی بر احتمالات 1
- سری پنجم - روش های مبتنی بر احتمالات 2
- سری ششم - SVM
- سری هفتم - PCA
- سری هشتم - لجستیک رگرسیون
- سری نهم - KNN
- سری دهم - K-Means
- سری یازدهم - شبکه عصبی 1
- سری دوازدهم - شبکه عصبی 2
- سری سیزدهم - شبکه عصبی 3
- سری چهاردهم - شبکه عصبی 4
- سری پانزدهم - شبکه عصبی 5
- سری شانزدهم - یادگیری عمیق 1
- سری هفدهم - یادگیری عمیق 2
@silicon_brain |از هوش مصنوعی عقب نمانید
مطالب با بیان ساده و تماما با مثال بیان شده که برای همه قابل استفاده باشه
فهرست:
- سری اول - مقدمه
- سری دوم - کاربرد ها
- سری سوم - درخت تصمیم
- سری چهارم - روش های مبتنی بر احتمالات 1
- سری پنجم - روش های مبتنی بر احتمالات 2
- سری ششم - SVM
- سری هفتم - PCA
- سری هشتم - لجستیک رگرسیون
- سری نهم - KNN
- سری دهم - K-Means
- سری یازدهم - شبکه عصبی 1
- سری دوازدهم - شبکه عصبی 2
- سری سیزدهم - شبکه عصبی 3
- سری چهاردهم - شبکه عصبی 4
- سری پانزدهم - شبکه عصبی 5
- سری شانزدهم - یادگیری عمیق 1
- سری هفدهم - یادگیری عمیق 2
@silicon_brain |
Telegram
Silicon Brain | جامعه هوش مصنوعی
سری اول آموزش یادگیری ماشین
#یادگیری_ماشین
#machine_learning #supervised_learning #unsupervised_learning
#reinforcement_learning
#یادگیری_ماشین
#machine_learning #supervised_learning #unsupervised_learning
#reinforcement_learning
از نگاه انسان کدام LLM بهتره؟
Chatbot Arena is an open-source research project that compare different LLMs by human.
تو این سایت یه کار جذابی کردن و اینجوریه که میتونی با #LLM های مختلف چت کنی و بهشون امتیاز بدی. حتی یه سری از LLM ها که پولی هستن تا حدی رایگان قابل استفاده و بررسی هستن.
چند تا قانون گذاشتن:
هر سوالی رو از دو مدل ناشناس بپرس (مانند #ChatGPT#، Claude#، Llama) و به مدل بهتر رای بده!
میتونی تا زمانی که برندهای رو مشخص نکردی به چت ادامه بدی.
اگر هویت مدل در طول مکالمه فاش بشه رای شمارش نمیشه.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
Chatbot Arena is an open-source research project that compare different LLMs by human.
تو این سایت یه کار جذابی کردن و اینجوریه که میتونی با #LLM های مختلف چت کنی و بهشون امتیاز بدی. حتی یه سری از LLM ها که پولی هستن تا حدی رایگان قابل استفاده و بررسی هستن.
چند تا قانون گذاشتن:
هر سوالی رو از دو مدل ناشناس بپرس (مانند #ChatGPT#، Claude#، Llama) و به مدل بهتر رای بده!
میتونی تا زمانی که برندهای رو مشخص نکردی به چت ادامه بدی.
اگر هویت مدل در طول مکالمه فاش بشه رای شمارش نمیشه.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
از این به بعد چالش های هوش مصنوعی چیا هستن؟
این موارد برای افرادی که تو زمینه هوش مصنوعی پژوهش میکنن و یا افرادی که محصولی بر اساس AI دارن و یا میخوان داشته باشن، سرمایه گذارها و متخصصین میان رشته ای حائز اهمیته:
تعصبات و تبعیض: الگوریتمهای هوش مصنوعی بر اساس دادههایی آموزش داده میشن که ممکنه حاوی تعصبات و تبعیضهای انسانی باشه. این موضوع میتونه منجر به نتایج ناعادلانه و تبعیضآمیز تو تصمیمگیریهای مبتنی بر هوش مصنوعی بشه.
مسائل امنیتی و حفظ حریم خصوصی: هوش مصنوعی میتونه برای هک کردن سیستمها، سرقت اطلاعات و سایر اقدامات مخرب استفاده بشه. حفظ امنیت سیستمهای هوش مصنوعی و حریم خصوصی افراد اهمیت بالایی داره.
تفسیر قوانین و اخلاقیات : هوش مصنوعی در حال ورود به حوزههایی مانند پزشکی، حقوق و امور مالی هستش که قوانین و اخلاقیات پیچیدهای دارن. اطمینان از اینکه هوش مصنوعی با قوانین و اخلاقیات این حوزهها مطابقت خواهد داشت یا نه اهمیت بالایی داره.
عدم اطمینان در مورد آینده هوش مصنوعی: بعضیا میگن ه که هوش مصنوعی ممکنه از کنترل خارج بشه و تهدیدی برای بشریت باشه. ایجاد چارچوبهای نظارتی و اخلاقی مناسب برای توسعه و استفاده از هوش مصنوعی، ضروری به نظر میرسه
از این به بعد تو ایده هات و تحقیقات این چند تا موضوع رو در نظر بگیر حتما
@silicon_brain | از هوش مصنوعی عقب نمانید
این موارد برای افرادی که تو زمینه هوش مصنوعی پژوهش میکنن و یا افرادی که محصولی بر اساس AI دارن و یا میخوان داشته باشن، سرمایه گذارها و متخصصین میان رشته ای حائز اهمیته:
تعصبات و تبعیض: الگوریتمهای هوش مصنوعی بر اساس دادههایی آموزش داده میشن که ممکنه حاوی تعصبات و تبعیضهای انسانی باشه. این موضوع میتونه منجر به نتایج ناعادلانه و تبعیضآمیز تو تصمیمگیریهای مبتنی بر هوش مصنوعی بشه.
مسائل امنیتی و حفظ حریم خصوصی: هوش مصنوعی میتونه برای هک کردن سیستمها، سرقت اطلاعات و سایر اقدامات مخرب استفاده بشه. حفظ امنیت سیستمهای هوش مصنوعی و حریم خصوصی افراد اهمیت بالایی داره.
تفسیر قوانین و اخلاقیات : هوش مصنوعی در حال ورود به حوزههایی مانند پزشکی، حقوق و امور مالی هستش که قوانین و اخلاقیات پیچیدهای دارن. اطمینان از اینکه هوش مصنوعی با قوانین و اخلاقیات این حوزهها مطابقت خواهد داشت یا نه اهمیت بالایی داره.
عدم اطمینان در مورد آینده هوش مصنوعی: بعضیا میگن ه که هوش مصنوعی ممکنه از کنترل خارج بشه و تهدیدی برای بشریت باشه. ایجاد چارچوبهای نظارتی و اخلاقی مناسب برای توسعه و استفاده از هوش مصنوعی، ضروری به نظر میرسه
از این به بعد تو ایده هات و تحقیقات این چند تا موضوع رو در نظر بگیر حتما
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
ابزاری برای فاین تیون کردن مدل های Open
برای خیلی از وظایف مدل های #LLM موجود نیاز به تنظیم دقیق (#fine_tuning) ندارن ولی اگه دیدین دیتای خاصی دارین و باید فاین تیون کنین اگه مدلی که مد نظرتون هست open هست میتونین از LLAMA-Factory استفاده کنین.
این ابزار برای تنظیم فاین تیون های زبان باز ساخته شده و بیشر از 100 مدل مختلف زبان بزرگ، از جمله Meta’s Llama-2، Google’s Gemma و Mistral’s Mixtral رو داره.
برای فاین تیون کردن هر کدوم از این مدل ها میتونین با استفاده از این ابزار از الگوریتم های پیشرفته مانند #LoRA#، QLoRA و #GaLore که برای عملکرد بهینه مدل ها ساخته شدن استفاده کنید. همچنین میتونین این ابزار رو به صورت لوکال روی کامپیوترتون بالا بیارید و یا تو Colab ران کنید.
لینک گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
برای خیلی از وظایف مدل های #LLM موجود نیاز به تنظیم دقیق (#fine_tuning) ندارن ولی اگه دیدین دیتای خاصی دارین و باید فاین تیون کنین اگه مدلی که مد نظرتون هست open هست میتونین از LLAMA-Factory استفاده کنین.
این ابزار برای تنظیم فاین تیون های زبان باز ساخته شده و بیشر از 100 مدل مختلف زبان بزرگ، از جمله Meta’s Llama-2، Google’s Gemma و Mistral’s Mixtral رو داره.
برای فاین تیون کردن هر کدوم از این مدل ها میتونین با استفاده از این ابزار از الگوریتم های پیشرفته مانند #LoRA#، QLoRA و #GaLore که برای عملکرد بهینه مدل ها ساخته شدن استفاده کنید. همچنین میتونین این ابزار رو به صورت لوکال روی کامپیوترتون بالا بیارید و یا تو Colab ران کنید.
لینک گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
فاین تیون کردن، هزینه ها، منابع و زمان مورد نیاز
برخلاف باور عمومی، فاین تیونینگ (#fine_tuning) به منابع محاسباتی عظیمی نیاز نداره. به شرطی که عوامل مورد نیاز رو خوب بشناسیم مثل نوع مدل، دامنه کاربرد، اندازه داده و قدرت مدل پایه. با این حال، دو عامل اصلی در فاین تیون #LLM ها مدل و داده هستن
این نمودار برآوردهای هزینه، محاسبات و زمان مورد نیاز را بسته به مدل و اندازه داده در سطح بالا برای مدل های #Llama خلاصه کرده
چیزی که در تصویر بالا مشخصه، داده کم/زیاد و مدل کوچک هست. مدل TinyLlama حدود 1.1 میلیارد پارامتر داره، اما میتونیم این مدل رو تنها با یک GPU فاینتیون کنیم. به عنوان نمونه، با داده کم (حداکثر 500 هزار توکن)، تنها با 100 دلار میشه این مدل رو فاینتیون کرد. و به نظرم این مدل با این هزینه کار خیلی از بیزینس ها رو راه میندازه
@silicon_brain | از هوش مصنوعی عقب نمایند
برخلاف باور عمومی، فاین تیونینگ (#fine_tuning) به منابع محاسباتی عظیمی نیاز نداره. به شرطی که عوامل مورد نیاز رو خوب بشناسیم مثل نوع مدل، دامنه کاربرد، اندازه داده و قدرت مدل پایه. با این حال، دو عامل اصلی در فاین تیون #LLM ها مدل و داده هستن
این نمودار برآوردهای هزینه، محاسبات و زمان مورد نیاز را بسته به مدل و اندازه داده در سطح بالا برای مدل های #Llama خلاصه کرده
چیزی که در تصویر بالا مشخصه، داده کم/زیاد و مدل کوچک هست. مدل TinyLlama حدود 1.1 میلیارد پارامتر داره، اما میتونیم این مدل رو تنها با یک GPU فاینتیون کنیم. به عنوان نمونه، با داده کم (حداکثر 500 هزار توکن)، تنها با 100 دلار میشه این مدل رو فاینتیون کرد. و به نظرم این مدل با این هزینه کار خیلی از بیزینس ها رو راه میندازه
@silicon_brain | از هوش مصنوعی عقب نمایند
Alice’s Adventures in a differentiable wonderland.pdf
8.7 MB
𝐀𝐥𝐢𝐜𝐞’𝐬 𝐀𝐝𝐯𝐞𝐧𝐭𝐮𝐫𝐞𝐬 𝐢𝐧 𝐚 𝐝𝐢𝐟𝐟𝐞𝐫𝐞𝐧𝐭𝐢𝐚𝐛𝐥𝐞 𝐰𝐨𝐧𝐝𝐞𝐫𝐥𝐚𝐧𝐝: 𝐀 𝐩𝐫𝐢𝐦𝐞𝐫 𝐨𝐧 𝐝𝐞𝐬𝐢𝐠𝐧𝐢𝐧𝐠 𝐧𝐞𝐮𝐫𝐚𝐥 𝐧𝐞𝐭𝐰𝐨𝐫𝐤𝐬
⚡️ 📚 - a cool bit unusual book by Simone Scardapane (draft)
𝕿𝖆𝖇𝖑𝖊 𝖔𝖋 𝕮𝖔𝖓𝖙𝖊𝖓𝖙𝖘:
🎯 Mathematical preliminaries
🎯 Datasets and losses
🎯 Linear models
🎯 Fully-connected models
🎯 Automatic differentiation
🎯 Convolutional layers
🎯 Convolutions beyond images
🎯 Scaling up the models
🎯 Transformer models
🎯 Transformers in practice
🎯 Graph models
🎯 Recurrent models
🎯 A. Probability theory
🎯 B. Universal approximation in 1D
#کتاب
@silicon_brain | از هوش مصنوعی عقب نمانید
⚡️ 📚 - a cool bit unusual book by Simone Scardapane (draft)
𝕿𝖆𝖇𝖑𝖊 𝖔𝖋 𝕮𝖔𝖓𝖙𝖊𝖓𝖙𝖘:
🎯 Mathematical preliminaries
🎯 Datasets and losses
🎯 Linear models
🎯 Fully-connected models
🎯 Automatic differentiation
🎯 Convolutional layers
🎯 Convolutions beyond images
🎯 Scaling up the models
🎯 Transformer models
🎯 Transformers in practice
🎯 Graph models
🎯 Recurrent models
🎯 A. Probability theory
🎯 B. Universal approximation in 1D
#کتاب
@silicon_brain | از هوش مصنوعی عقب نمانید
دیتاست بزرگ سایت باسلام
شامل اطلاعات فروش و مشخصات 2.4 میلیون محصول موجود در سایت باسلام به همراه دیتاست 3.3 میلیونی کامنت محصولات.
این دیتاست از طریق HuggingFace و Kaggle قابل دسترسی است.
هاگینگ فیس | کگل
با جستجوی هشتگ #دیتاست به دیتاست های ارزشمندی دسترسی خواهید داشت.
@silicon_brain | از هوش مصنوعی عقب نمانید
شامل اطلاعات فروش و مشخصات 2.4 میلیون محصول موجود در سایت باسلام به همراه دیتاست 3.3 میلیونی کامنت محصولات.
این دیتاست از طریق HuggingFace و Kaggle قابل دسترسی است.
هاگینگ فیس | کگل
با جستجوی هشتگ #دیتاست به دیتاست های ارزشمندی دسترسی خواهید داشت.
@silicon_brain | از هوش مصنوعی عقب نمانید
کتابخونه جدید پایتورچ به نام torchtune برای فاینتیون کردن LLM ها
با #torchtune میتونین #LLM ها رو فاین تیون کنید: لینک
توی لینک زیر، درمورد Llama3 گفته که شامل بخشهای معرفی مدل، دسترسی به مدل، فایلتیون کردن با تورچتیون، ارزیابی کردن مدل فایلتیونشدن، جنریت متن، جنریت سریعتر با کوانتیزیشن هست:
لینک
#fine_tuning
@silicon_brain | از هوش مصنوعی عقب نمانید
با #torchtune میتونین #LLM ها رو فاین تیون کنید: لینک
توی لینک زیر، درمورد Llama3 گفته که شامل بخشهای معرفی مدل، دسترسی به مدل، فایلتیون کردن با تورچتیون، ارزیابی کردن مدل فایلتیونشدن، جنریت متن، جنریت سریعتر با کوانتیزیشن هست:
لینک
#fine_tuning
@silicon_brain | از هوش مصنوعی عقب نمانید
بازگشت بعد از 30 سال، LSTM با قدرت برگشت!
⚠️ هفته گذشته یک مقاله ی جالبی منتشر شد. اگه محقق هستین پیشنهاد میشه حتما این مقاله رو دنبال کنید.
مدل #xLSTM ، نسخه جدیدی از #LSTM ، توسط Sepp Hochreiter، مخترع اصلی LSTM، منتشر شده که دارای نوآوریهای مهمی هستش و در مقایسه با LSTM بهبودهای قابل توجهی داره، از جمله دروازهگذاری نمایی (sLSTM) و حافظه ماتریسی (mLSTM). این تغییرات باعث بهبود کارایی و عملکرد مدل شده.
رویکرد xLSTM میتونه رقیب مهمی برای #transformer باشه. اینا LSTM رو طوری توسعه دادن که قابلیت Scale شدن پیدا کنه. یعنی شبکههای LSTM بیلیون پارامتری هم داشته باشیم! مثل #LLM هایی که امروز استفاده میکنیم.
بهصورت کلی، ساختار شبکه xLSTM در تصویر بالا نشون داده شده. سمت چپ که LSTM رو میبینید. با توسعه همون LSTM اصلی، دو تا Memory Cell با نامهای sLSTM و mLSTM ساخته شده. وقتی sLSTM و mLSTM رو در ساختار Residual Block (همون شورتکاتها) قرار بدیم، xLSTM Block ساخته میشه. نهایتا با Stack کردن بلوکهای xLSTM به معماری یا شبکه xLSTM میرسیم.
مقاله | گیتهاب | پیپرویدکد
@silicon_brain | از هوش مصنوعی عقب نمانید
⚠️ هفته گذشته یک مقاله ی جالبی منتشر شد. اگه محقق هستین پیشنهاد میشه حتما این مقاله رو دنبال کنید.
مدل #xLSTM ، نسخه جدیدی از #LSTM ، توسط Sepp Hochreiter، مخترع اصلی LSTM، منتشر شده که دارای نوآوریهای مهمی هستش و در مقایسه با LSTM بهبودهای قابل توجهی داره، از جمله دروازهگذاری نمایی (sLSTM) و حافظه ماتریسی (mLSTM). این تغییرات باعث بهبود کارایی و عملکرد مدل شده.
رویکرد xLSTM میتونه رقیب مهمی برای #transformer باشه. اینا LSTM رو طوری توسعه دادن که قابلیت Scale شدن پیدا کنه. یعنی شبکههای LSTM بیلیون پارامتری هم داشته باشیم! مثل #LLM هایی که امروز استفاده میکنیم.
بهصورت کلی، ساختار شبکه xLSTM در تصویر بالا نشون داده شده. سمت چپ که LSTM رو میبینید. با توسعه همون LSTM اصلی، دو تا Memory Cell با نامهای sLSTM و mLSTM ساخته شده. وقتی sLSTM و mLSTM رو در ساختار Residual Block (همون شورتکاتها) قرار بدیم، xLSTM Block ساخته میشه. نهایتا با Stack کردن بلوکهای xLSTM به معماری یا شبکه xLSTM میرسیم.
مقاله | گیتهاب | پیپرویدکد
@silicon_brain | از هوش مصنوعی عقب نمانید
شرکت JetBrains محصولات خودشو به Code Completion جدید مجهز کرد!
یک خبر جالب اینکه، شرکت #Jetbrains محصولاتشو به مدل لوکال 100 میلیون پارامتری با Context سایز 1500 توکن مجهز کرده. و این یعنی، کد نوشتن با پایچارم لذتبخشتر از قبل میشه. مدل هم از سختافزار شما برای اجرا استفاده میکنه و نیازی به اینترنت نیست.
حالا چطوری کار میکنه؟ اگه با پایچارم کار کرده باشید، میدونید که auto complete قوی داره و همین که یکی دو تا حرف از دستور رو بنویسیم، سریع دستورات مرتبط رو پیشنهاد میده. حالا روش کارش اینجوریه که دستور وارد شده رو همراه با ورودی و خروجی به شما پیشنهاد میده. به خاطر همین بهش میگن full line code complete!
این ابزار برای زبان ها زیر اضافه شده:
Java, Kotlin, #Python, JavaScript, TypeScript, CSS, PHP, Go, and Ruby
و #IDE هایی که این ابزار بهشون اضافه شده:
IntelliJ IDEA Ultimate, #PyCharm Professional, WebStorm, PhpStorm, GoLand, and RubyMine
بیشتر بخوانید: وبلاگ Jetbrains
@silicon_brain | از هوش مصنوعی عقب نمانید
یک خبر جالب اینکه، شرکت #Jetbrains محصولاتشو به مدل لوکال 100 میلیون پارامتری با Context سایز 1500 توکن مجهز کرده. و این یعنی، کد نوشتن با پایچارم لذتبخشتر از قبل میشه. مدل هم از سختافزار شما برای اجرا استفاده میکنه و نیازی به اینترنت نیست.
حالا چطوری کار میکنه؟ اگه با پایچارم کار کرده باشید، میدونید که auto complete قوی داره و همین که یکی دو تا حرف از دستور رو بنویسیم، سریع دستورات مرتبط رو پیشنهاد میده. حالا روش کارش اینجوریه که دستور وارد شده رو همراه با ورودی و خروجی به شما پیشنهاد میده. به خاطر همین بهش میگن full line code complete!
این ابزار برای زبان ها زیر اضافه شده:
Java, Kotlin, #Python, JavaScript, TypeScript, CSS, PHP, Go, and Ruby
و #IDE هایی که این ابزار بهشون اضافه شده:
IntelliJ IDEA Ultimate, #PyCharm Professional, WebStorm, PhpStorm, GoLand, and RubyMine
بیشتر بخوانید: وبلاگ Jetbrains
@silicon_brain | از هوش مصنوعی عقب نمانید
احتمالا میدونید که #کتاب یادگیری عمیق گودفلو از اصلی ترین مراجع یادگیری عمیق هستش. تیم سیلیکون برین با کمک اعضای متخصص، اقدام به ترجمه و خلاصه سازی این کتاب در قالب 20 سری کرده و شما میتونید به صورت رایگان و داخل همین کانال این داکیومنت با ارزشو مطالعه کنید.
▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️
لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم
#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید
▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️
لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم
#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید
Telegram
Silicon Brain | جامعه هوش مصنوعی
@silicon_brain
تفاوتهای ML در پژوهش و پروداکشن
همونطور که در تصویر مشخصه یکی از ملموسترین تفاوتها بحث اولویت محاسباتیه (Computational Priority) که در ریسرچ، بیشتر تمرکز بر روی کوتاهتر کردن زمان Train گذاشته میشه اما در #پروداکشن بیشتر تمرکز بر روی زمان inference و پاسخ گویی کوتاهه.
اما به نظر مهمترین تفاوت که عمدتا باعث fail شدن پروژههای ML در صنعت میشه؛ وجود افراد در سازمان با نگاههای متفاوت که هر کدوم به نوعی هدف و سهمی از این نوع پروژهها دارند، این موضوع مهمترین تهدید و همزمان مهمترین فرصت برای این پروژههاست. اگه بتونیم به جای تمرکز بر متریکهای تکنیکال بر روی بهبود متریکهای بیزنسی تمرکز کنیم این تهدید رو تبدیل به فرصت کردیم و در غیر این صورت موفقیت دور از انتظاره
تصویر برگفته از کتاب
Designing Machine Learning Systems: An Iterative Process for Production-Ready Applications
لینک کتاب
اگه حوصله کتابو نداری تو یوتوب ببین
@silicon_brain | از هوش مصنوعی عقب نمانید
همونطور که در تصویر مشخصه یکی از ملموسترین تفاوتها بحث اولویت محاسباتیه (Computational Priority) که در ریسرچ، بیشتر تمرکز بر روی کوتاهتر کردن زمان Train گذاشته میشه اما در #پروداکشن بیشتر تمرکز بر روی زمان inference و پاسخ گویی کوتاهه.
اما به نظر مهمترین تفاوت که عمدتا باعث fail شدن پروژههای ML در صنعت میشه؛ وجود افراد در سازمان با نگاههای متفاوت که هر کدوم به نوعی هدف و سهمی از این نوع پروژهها دارند، این موضوع مهمترین تهدید و همزمان مهمترین فرصت برای این پروژههاست. اگه بتونیم به جای تمرکز بر متریکهای تکنیکال بر روی بهبود متریکهای بیزنسی تمرکز کنیم این تهدید رو تبدیل به فرصت کردیم و در غیر این صورت موفقیت دور از انتظاره
تصویر برگفته از کتاب
Designing Machine Learning Systems: An Iterative Process for Production-Ready Applications
لینک کتاب
اگه حوصله کتابو نداری تو یوتوب ببین
@silicon_brain | از هوش مصنوعی عقب نمانید