منبعی فوق العاده ویژوال برای درک عملکرد ترنسفورمر و LLM
یه مدل #Transformer یا LLM چطوری فکر میکنه؟ چطوری کلماتو تولید میکنه؟ چرا هذیان(#hallucination) میگه؟
این سایت سعی کرده به صورت ویژوال شده، مفاهیمی مثل Word embedding، Transformer و ... رو که از اجزای اصلی #LLM ها هستند رو توضیح بده. توصیه میکنم تو یه فرصت مناسبی یه نگاه بهش بندازی.
فرقی نداره چه سطح دانشی تو زمینه NLP داری، به هر حال یا چیزی یاد میگیری و یا یادآوری میشه برات
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
یه مدل #Transformer یا LLM چطوری فکر میکنه؟ چطوری کلماتو تولید میکنه؟ چرا هذیان(#hallucination) میگه؟
این سایت سعی کرده به صورت ویژوال شده، مفاهیمی مثل Word embedding، Transformer و ... رو که از اجزای اصلی #LLM ها هستند رو توضیح بده. توصیه میکنم تو یه فرصت مناسبی یه نگاه بهش بندازی.
فرقی نداره چه سطح دانشی تو زمینه NLP داری، به هر حال یا چیزی یاد میگیری و یا یادآوری میشه برات
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
نمایش شبکه عصبی به صورت سه بعدی!
اگه تو دنیای #یادگیری_عمیق هستی و دلت میخواد مدلهای شبکه عصبی رو به شکل باحال و قابل درک به نمایش بذاری، باید با TensorSpace.js آشنا بشی
این کتابخونه فوقالعاده با استفاده از Three.js و TensorFlow.js کار میکنه و میتونی معماری و عملکرد شبکههات رو به صورتی ببینی که همیشه تو ذهنت بوده
لینک
#tensorflow #tensorspace
@silicon_brain | از هوش مصنوعی عقب نمانید
اگه تو دنیای #یادگیری_عمیق هستی و دلت میخواد مدلهای شبکه عصبی رو به شکل باحال و قابل درک به نمایش بذاری، باید با TensorSpace.js آشنا بشی
این کتابخونه فوقالعاده با استفاده از Three.js و TensorFlow.js کار میکنه و میتونی معماری و عملکرد شبکههات رو به صورتی ببینی که همیشه تو ذهنت بوده
لینک
#tensorflow #tensorspace
@silicon_brain | از هوش مصنوعی عقب نمانید
مجموعه poloclub ابزاری تحت عنوان Transformer Explainer معرفی کرده که برای اهداف آموزشی فوقالعاده هست. کار کردن با این ابزار رو پیشنهاد میکنم، اگه میخوایید به درک عمیقتری در #transformer و مدلسازی زبان (Language Modeling) برسید.
این ابزار بر پایه مدل GPT-2 کار میکنه. یعنی، واقعا محاسبات پشت GPT-2 رو به شما مرحله به مرحله نشون میده. کل مراحل رو میتونید ریز به ریز ببینید: توکن امبدینگ، پوزیشنال انکدینگ، مولتی هد اتنشن، #mlp و الی آخر.
همچنین، خروجی معنیدار تولید میکنه. با کلیک روی بخشهای مختلف، میتونید محاسبات مربوط به هر بخش رو ببینید.
مثلا، توی تصویر بالا ببینید برای ورودی Data visualization empowers users to در خروجی مدل چه پیشنهادهایی داده.
البته، poloclub سالهاست که چنین ابزارهایی میسازه. اگه به این آدرس برید، ابزارهایی که در گذشته ساختن رو میتونید ببینید. به عنوان نمونه، CNN Explainer و GAN Lab هم از کارهای این گروه هست.
@silicon_brain | از هوش مصنوعی عقب نمانید
این ابزار بر پایه مدل GPT-2 کار میکنه. یعنی، واقعا محاسبات پشت GPT-2 رو به شما مرحله به مرحله نشون میده. کل مراحل رو میتونید ریز به ریز ببینید: توکن امبدینگ، پوزیشنال انکدینگ، مولتی هد اتنشن، #mlp و الی آخر.
همچنین، خروجی معنیدار تولید میکنه. با کلیک روی بخشهای مختلف، میتونید محاسبات مربوط به هر بخش رو ببینید.
مثلا، توی تصویر بالا ببینید برای ورودی Data visualization empowers users to در خروجی مدل چه پیشنهادهایی داده.
البته، poloclub سالهاست که چنین ابزارهایی میسازه. اگه به این آدرس برید، ابزارهایی که در گذشته ساختن رو میتونید ببینید. به عنوان نمونه، CNN Explainer و GAN Lab هم از کارهای این گروه هست.
@silicon_brain | از هوش مصنوعی عقب نمانید
8 تا از الگوریتم های معروف سری زمانی
بعضی از این الگوریتم های #time_series رویکرد آماری و ساده ای دارن مثل #Arima و برخی از شبکه های عمیق استفاده میکنن مثل #LSTM
مثل هر تسک یادگیری ماشینی هر کدام از این الگوریتم ها استفاده خودشونو دارن و نمیشه گفت یکی از اینها برتری نسبت به بقیه داره
مثلا زمانی که میخوایین از یک دیتاست سریع یه ارزیابی داشته باشین، الگوریتم #XGBoost توصیه میشه (نه تنها برای تسک سری زمانی بلکه برای تسک #Estimation هم خوب جواب میده). اما وقتی میخوایین عمیق تر بشین و الگوهای پیچیده رو پیدا کنین میشه از روش بازگشتی مثل LSTM استفاده کرد.
اینم در نظر داشته باشین بعضی از دیتاست ها الگو پیچیده ای ندارن و استفاده از الگوریتم های پیچیده مزیت خاصی نداره و شایدم هزینه زیادی نسبت به بقیه داشته باشه
مزایا و معایب هر کدوم از این روشارو بخونید
@silicon_brain | از هوش مصنوعی عقب نمانید
بعضی از این الگوریتم های #time_series رویکرد آماری و ساده ای دارن مثل #Arima و برخی از شبکه های عمیق استفاده میکنن مثل #LSTM
مثل هر تسک یادگیری ماشینی هر کدام از این الگوریتم ها استفاده خودشونو دارن و نمیشه گفت یکی از اینها برتری نسبت به بقیه داره
مثلا زمانی که میخوایین از یک دیتاست سریع یه ارزیابی داشته باشین، الگوریتم #XGBoost توصیه میشه (نه تنها برای تسک سری زمانی بلکه برای تسک #Estimation هم خوب جواب میده). اما وقتی میخوایین عمیق تر بشین و الگوهای پیچیده رو پیدا کنین میشه از روش بازگشتی مثل LSTM استفاده کرد.
اینم در نظر داشته باشین بعضی از دیتاست ها الگو پیچیده ای ندارن و استفاده از الگوریتم های پیچیده مزیت خاصی نداره و شایدم هزینه زیادی نسبت به بقیه داشته باشه
مزایا و معایب هر کدوم از این روشارو بخونید
@silicon_brain | از هوش مصنوعی عقب نمانید
با چه الگویی پستای کانالو چک میکنی؟
Anonymous Poll
15%
به محض اینکه مطلبی پست میشه میخونم :)
21%
هر روز سعی میکنم پست های جدیدو چک کنم
36%
سعی میکنم هر چند روز یه بار پستارو بخونم
29%
به ندرت پست ها رو میخونم :(
This media is not supported in your browser
VIEW IN TELEGRAM
مدل جالب Sapiens برای وظایف مختلف حوزه بینایی کامپیوتر
بخش Reality شرکت #Meta یک مجموعه مدل بنام Sapiens معرفی کرده که مخصوص چهار تسک مهم بینایی کامپیوتر با محوریت انسان هست:
- تخمین ژست (#Pose_Estimation)
- سگمنت اعضای بدن (#Body_part_Segmentation)
- تخمین عمق (#Depth_Estimation)
- پیشبینی نرمال سطح (#Surface_Normal_Prediction)
- مدلها بر پایه ویژن ترنسفورمرها طراحی شدن.
- مدلها ورودی رزولوشن بالا در اندازه 1024×1024 قبول میکنن.
- روی 300 میلیون تصویر انسان آموزش دیدن.
- چهار مدل به سایزهای 0.3 0.6 1.0 2.0 بیلیون پارامتر ارائه شده.
- نسخه Pretrain و Finetune شده مدلها در هاگینگفیس قرار داده شده.
- مقاله Sapiens در ECCV پذیرفته شده.
مقاله | گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
بخش Reality شرکت #Meta یک مجموعه مدل بنام Sapiens معرفی کرده که مخصوص چهار تسک مهم بینایی کامپیوتر با محوریت انسان هست:
- تخمین ژست (#Pose_Estimation)
- سگمنت اعضای بدن (#Body_part_Segmentation)
- تخمین عمق (#Depth_Estimation)
- پیشبینی نرمال سطح (#Surface_Normal_Prediction)
- مدلها بر پایه ویژن ترنسفورمرها طراحی شدن.
- مدلها ورودی رزولوشن بالا در اندازه 1024×1024 قبول میکنن.
- روی 300 میلیون تصویر انسان آموزش دیدن.
- چهار مدل به سایزهای 0.3 0.6 1.0 2.0 بیلیون پارامتر ارائه شده.
- نسخه Pretrain و Finetune شده مدلها در هاگینگفیس قرار داده شده.
- مقاله Sapiens در ECCV پذیرفته شده.
مقاله | گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
مقاله ای در مورد کاربرد ترنسفورمر در پیش بیینی سری زمانی
Transformers in Time Series: A Survey
مدل های مبتنی بر #transfomer مشخصا تو وظایف #nlp و بینایی کامپیوتری ثابت شده هستن ولی برای تسک #time_series جای کار داره. تو این مقاله، ترنسفورمرو برای سریهای زمانی با بیان نقاط قوت و محدودیتها بررسی کردن.
این بررسی از دو منظر ساختار شبکه و تسک های موجود در این زمینه مثل پیشبینی، تشخیص ناهنجاری و طبقهبندی انجام شده.
نتایج مقاله نشون میده در حالی که مدلهای ترنسفورمر عملکرد خوبی دارن اما دقتشون با طولانی شدن توالی ورودی کاهش پیدا میکنه و گاهی اوقات مدلهای سادهتر در سناریوهای خاص عملکرد بهتری نسبت به ترنسفورمر دارن.
در کل این زمینه نیاز به تحقیق و بررسی بیشتری داره و توصیه میشه پژوهشگرهای علاقه مند تو این فیلد فعالیت کنن
مقاله
@silicon_brain | از هوش مصنوعی عقب نمانید
Transformers in Time Series: A Survey
مدل های مبتنی بر #transfomer مشخصا تو وظایف #nlp و بینایی کامپیوتری ثابت شده هستن ولی برای تسک #time_series جای کار داره. تو این مقاله، ترنسفورمرو برای سریهای زمانی با بیان نقاط قوت و محدودیتها بررسی کردن.
این بررسی از دو منظر ساختار شبکه و تسک های موجود در این زمینه مثل پیشبینی، تشخیص ناهنجاری و طبقهبندی انجام شده.
نتایج مقاله نشون میده در حالی که مدلهای ترنسفورمر عملکرد خوبی دارن اما دقتشون با طولانی شدن توالی ورودی کاهش پیدا میکنه و گاهی اوقات مدلهای سادهتر در سناریوهای خاص عملکرد بهتری نسبت به ترنسفورمر دارن.
در کل این زمینه نیاز به تحقیق و بررسی بیشتری داره و توصیه میشه پژوهشگرهای علاقه مند تو این فیلد فعالیت کنن
مقاله
@silicon_brain | از هوش مصنوعی عقب نمانید
Forwarded from Silicon Brain | جامعه هوش مصنوعی
احتمالا میدونید که #کتاب یادگیری عمیق گودفلو از اصلی ترین مراجع یادگیری عمیق هستش. تیم سیلیکون برین با کمک اعضای متخصص، اقدام به ترجمه و خلاصه سازی این کتاب در قالب 20 سری کرده و شما میتونید به صورت رایگان و داخل همین کانال این داکیومنت با ارزشو مطالعه کنید.
▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️
لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم
#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید
▫️مطالعه این کتاب برای همه افراد با هر سطح دانشی توصیه میشه
▫️زحمات بسیار زیادی برای جمع آوری و ترجمه این کتاب و انتشار بصورت رایگان کشیده شده، با به اشتراک گذاری و معرفی این پست از ما حمایت کنید.❤️
لیست:
- سری اول
- سری دوم
- سری سوم
- سری چهارم
- سری پنجم
- سری ششم
- سری هفتم
- سری هشتم
- سری نهم
- سری دهم
- سری یازدهم
- سری دوازدهم
- سری سیزدهم
- سری چهاردهم
- سری پانزدهم
- سری شانزدهم
- سری هفدهم
- سری هجدهم
- سری نوزدهم
- سری بیستم
#یادگیری_عمیق #گودفلو
@silicon_brain | از هوش مصنوعی عقب نمانید
Telegram
Silicon Brain | جامعه هوش مصنوعی
@silicon_brain
Silicon Brain | جامعه هوش مصنوعی
احتمالا میدونید که #کتاب یادگیری عمیق گودفلو از اصلی ترین مراجع یادگیری عمیق هستش. تیم سیلیکون برین با کمک اعضای متخصص، اقدام به ترجمه و خلاصه سازی این کتاب در قالب 20 سری کرده و شما میتونید به صورت رایگان و داخل همین کانال این داکیومنت با ارزشو مطالعه کنید.…
یادمه چند سال پیش ناسا، ویدئو لانچ تلسکوپ جیمز وب رو تو یوتوب گذاشته بود و چند هزار تا دیسلایک خورده بود (در کنار چند صد هزار لایک)
میخوام اینو بگم که شما مفید ترین کار دنیا رو هم انجام بدین، همیشه افرادی پیدا میشن که کار شما رو دیس میکنن و انرژی منفی میدن.
میخوام اینو بگم که شما مفید ترین کار دنیا رو هم انجام بدین، همیشه افرادی پیدا میشن که کار شما رو دیس میکنن و انرژی منفی میدن.
معرفی مدلهای xLAM سیلزفورس
این مدلها از خانواده LLM ها هستند که برای تبدیل مقاصد کاربر به اعمال قابل اجرا تقویت شدند.
برای مثال با استفاده فراخوانی توابع مختلف ازجمله: استعلام آبوهوا، جستجوی گوگل، استعلام قیمت ارز و ... نتایج بروز، واقعی و دقیق رو خواهیم داشت.
مدل هفت میلیاردی این مجموعه، در ارزیابیها بعد از Claude 3.5 و GPT-4 قرار گرفته است و یک مدل وزنباز ارزشمند 🥳 ولی غیرتجاری 😶🌫 به حساب میآید.
🤗 HF
🤗 HF-Spaces
@silicon_brain |
این مدلها از خانواده LLM ها هستند که برای تبدیل مقاصد کاربر به اعمال قابل اجرا تقویت شدند.
برای مثال با استفاده فراخوانی توابع مختلف ازجمله: استعلام آبوهوا، جستجوی گوگل، استعلام قیمت ارز و ... نتایج بروز، واقعی و دقیق رو خواهیم داشت.
مدل هفت میلیاردی این مجموعه، در ارزیابیها بعد از Claude 3.5 و GPT-4 قرار گرفته است و یک مدل وزنباز ارزشمند 🥳 ولی غیرتجاری 😶🌫 به حساب میآید.
🤗 HF
🤗 HF-Spaces
@silicon_brain |
با هم یک قدم جلوتر
لینکدین و کارای خفن برای آموزش LLM !
Liger Kernel: Efficient Triton Kernels for LLM Training
#لینکدین یک لایبرری بنام Liger Kernel معرفی کرده که به طرز قابل توجهی باعث افزایش سرعت و کاهش مصرف RAM در آموزش LLM میشه. آمار و ارقام نشون میده که شما با این لایبرری میتونید 20% افزایش سرعت و 60% کاهش مصرف RAM رو تجربه کنید!
استفاده از این لایبرری هم اصلا کاری نداره. فقط یک خط کد به کدهاتون اضافه میکنید. مثلا، در کد زیر، این لایبرری روی مدل لاما هاگینگفیس اعمال شده:
گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
Liger Kernel: Efficient Triton Kernels for LLM Training
#لینکدین یک لایبرری بنام Liger Kernel معرفی کرده که به طرز قابل توجهی باعث افزایش سرعت و کاهش مصرف RAM در آموزش LLM میشه. آمار و ارقام نشون میده که شما با این لایبرری میتونید 20% افزایش سرعت و 60% کاهش مصرف RAM رو تجربه کنید!
استفاده از این لایبرری هم اصلا کاری نداره. فقط یک خط کد به کدهاتون اضافه میکنید. مثلا، در کد زیر، این لایبرری روی مدل لاما هاگینگفیس اعمال شده:
import transformers
from liger_kernel.transformers import apply_liger_kernel_to_llama
model = transformers.AutoModelForCausalLM.from_pretrained("<some llama model>")
# Adding this line automatically monkey-patches the model with the optimized Liger kernels
apply_liger_kernel_to_llama()
گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
آشنایی با مدل CLIP
یکی از مدلهای چندرسانهای (multi-modal) مطرح امروز، مدل #CLIP هستش که سال 2021 توسط #OpenAI معرفی شده. هدف از ساخت این مدل یه جورایی پر کردن شکاف بین بینایی کامپیوتر و پردازش زبان طبیعی هستش.
مدل CLIP این قابلیتو داره که همزمان متن و تصویر رو درک کنه و ارتباطات معنادار بینشونو شناسایی کنه. این ویژگی باعث میشه CLIP در کاربردهای مختلفی از جمله طبقهبندی تصاویر و توصیف متنی تصاویر بسیار موثر باشه.
این مدل با استفاده از مجموعه دادهای شامل ۴۰۰ میلیون جفت متن و تصویر که از اینترنت جمعآوری شده، آموزش دیده. برخلاف مدلهای سنتی که معمولاً برای یک تسک خاص آموزش دیدن CLIP میتونه در تسکهای متنوعی به کار گرفته بشه.
برای خوندن مقاله کامل و مشاهده پیاده سازی میتونین ویرگول و گیتهاب مارو چک کنید
ویرگول | گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
یکی از مدلهای چندرسانهای (multi-modal) مطرح امروز، مدل #CLIP هستش که سال 2021 توسط #OpenAI معرفی شده. هدف از ساخت این مدل یه جورایی پر کردن شکاف بین بینایی کامپیوتر و پردازش زبان طبیعی هستش.
مدل CLIP این قابلیتو داره که همزمان متن و تصویر رو درک کنه و ارتباطات معنادار بینشونو شناسایی کنه. این ویژگی باعث میشه CLIP در کاربردهای مختلفی از جمله طبقهبندی تصاویر و توصیف متنی تصاویر بسیار موثر باشه.
این مدل با استفاده از مجموعه دادهای شامل ۴۰۰ میلیون جفت متن و تصویر که از اینترنت جمعآوری شده، آموزش دیده. برخلاف مدلهای سنتی که معمولاً برای یک تسک خاص آموزش دیدن CLIP میتونه در تسکهای متنوعی به کار گرفته بشه.
برای خوندن مقاله کامل و مشاهده پیاده سازی میتونین ویرگول و گیتهاب مارو چک کنید
ویرگول | گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
تو این تصویر ریاضیات تعدادی از مفاهیم ماشین لرنینگ نشون داده شده
میشه یه کار جالب کرد و از خودتون چند تا سوال بپرسید.
1- با چند تاش آشنا هستی؟
2- مفهوم چند تاشو میدونی؟
3- ریاضیات چندتاشو میدونی؟
4- اثبات چند تا شو میدونی؟
شاید واقعا دونستن همه ی اینا مهم نباشه اما یه چیزیو نشون میده اونم اینه که درک و تجربه شما از مفاهیم و ریاضیات ماشین لرنینگ چقدره
شیر کن (:
@silicon_brain | از هوش مصنوعی عقب نمانید
میشه یه کار جالب کرد و از خودتون چند تا سوال بپرسید.
1- با چند تاش آشنا هستی؟
2- مفهوم چند تاشو میدونی؟
3- ریاضیات چندتاشو میدونی؟
4- اثبات چند تا شو میدونی؟
شاید واقعا دونستن همه ی اینا مهم نباشه اما یه چیزیو نشون میده اونم اینه که درک و تجربه شما از مفاهیم و ریاضیات ماشین لرنینگ چقدره
شیر کن (:
@silicon_brain | از هوش مصنوعی عقب نمانید
پکیج پایتون scholarly برای استخراج داده های گوگل اسکولار!
پکیج #scholarly به شما این امکانو میده که اطلاعات نویسنده و انتشارات رو از Google #Scholar به روشی دوستانه و #پایتونیک (حال کن اصطلاحو😅) بدون نیاز به حل کپچا بازیابی کنی.
میشه با این پکیج تحلیل های خوبی روی داده های گوگل اسکولار انجام بدید. اینکه مثلا:
سابقه علمی یک فرد (تعداد مقالات، عنوان مقالات، چکیده مقالات، سایتیشن، نویسندگان مشترک و ...) رو بدست بیارید. مثلا میتونید با تحلیل این داده ها حوزه کاری نویسنده های برتر رو بدست بیارید.
یا مثلا براساس دانشگاه سرچ کنید و تمام مقالات یک دانشگاه خاص رو استخراج بعد با فیلترهای ساده یا تکنیک های NLP و Machine Learning حوزه های کاری و پژوهشی هر دانشگاه رو بدست بیارید.
یا اگر میخواید اپلای کنید و دنبال استاد هستید، موضوع کاری خودتون رو توی هر دانشگاه سرچ و اساتید فعال اون حوزه رو پیدا کنید. یا مورد بعدی اینکه مقالات کشور / دانشگاه یا ... رو در طول زمان تحلیل و بررسی کنید که روند پژوهش ها به چه سمتی میره و جامعه علمی بیشتر روی چه موضوعاتی کار می کنه.
گیتهاب | پای پای
@silicon_brain | از هوش مصنوعی عقب نمانید
پکیج #scholarly به شما این امکانو میده که اطلاعات نویسنده و انتشارات رو از Google #Scholar به روشی دوستانه و #پایتونیک (حال کن اصطلاحو😅) بدون نیاز به حل کپچا بازیابی کنی.
میشه با این پکیج تحلیل های خوبی روی داده های گوگل اسکولار انجام بدید. اینکه مثلا:
سابقه علمی یک فرد (تعداد مقالات، عنوان مقالات، چکیده مقالات، سایتیشن، نویسندگان مشترک و ...) رو بدست بیارید. مثلا میتونید با تحلیل این داده ها حوزه کاری نویسنده های برتر رو بدست بیارید.
یا مثلا براساس دانشگاه سرچ کنید و تمام مقالات یک دانشگاه خاص رو استخراج بعد با فیلترهای ساده یا تکنیک های NLP و Machine Learning حوزه های کاری و پژوهشی هر دانشگاه رو بدست بیارید.
یا اگر میخواید اپلای کنید و دنبال استاد هستید، موضوع کاری خودتون رو توی هر دانشگاه سرچ و اساتید فعال اون حوزه رو پیدا کنید. یا مورد بعدی اینکه مقالات کشور / دانشگاه یا ... رو در طول زمان تحلیل و بررسی کنید که روند پژوهش ها به چه سمتی میره و جامعه علمی بیشتر روی چه موضوعاتی کار می کنه.
گیتهاب | پای پای
@silicon_brain | از هوش مصنوعی عقب نمانید
یه بندهخدایی یک ماه پیش یه وبسایت بامزه ساخته بوده به اسم One Million Checkboxes که توش فقط یک میلیونتا چکباکس داشته. تنها نکتهش هم این بوده که هر یوزری که یه باکس رو چک/آنچک میکرده، برای همه تغییر میکرده!
برخلاف تصورش که این یه پروژه سرگرمی بامزه بوده، این وبسایت یهو میزنه و معروف میشه و ۵۰۰هزار تا یوزر میاره که ۶۵۰ میلیون بار چکباکسها رو عوض میکنن و حتی خبرش توی نیویورک تایمز و واشینگتن پست هم میره!
برای اینکه این اطلاعات (یک میلیون صفر یا یک) رو سریع بتونه به یوزرهای آنلاین بده، اومده برای هر چکباکس یه بیت درنظر گرفته و کل دیتا رو در ۱۲۵هزار بایت (۱۲۵کیلو بایت) منتقل میکرده، که تقریباً سایز یه عکس معمولیه.
از نظر فنی هم اینا رو base64-encoded توی #Redis نگه میداشته.
خلاصه، بعد چند روز یهو میاد این دیتا رو (یه مشت صفر ویک) بهصورت بایتهای کاراکترهای ASCII در قالب یه کپی از دیتابیس ببینه که یهو میبینه: عه! وسطش یه آدرس وبسایت اومده!
و پشمای طرف در جا میریزه که هک شدهام و به فنا داریم میریم! یکی تونسته یه آدرس اینترنتی توی دیتابیس ما بذاره و خدا میدونه توش چی هست
ادامه در کامنت
برخلاف تصورش که این یه پروژه سرگرمی بامزه بوده، این وبسایت یهو میزنه و معروف میشه و ۵۰۰هزار تا یوزر میاره که ۶۵۰ میلیون بار چکباکسها رو عوض میکنن و حتی خبرش توی نیویورک تایمز و واشینگتن پست هم میره!
برای اینکه این اطلاعات (یک میلیون صفر یا یک) رو سریع بتونه به یوزرهای آنلاین بده، اومده برای هر چکباکس یه بیت درنظر گرفته و کل دیتا رو در ۱۲۵هزار بایت (۱۲۵کیلو بایت) منتقل میکرده، که تقریباً سایز یه عکس معمولیه.
از نظر فنی هم اینا رو base64-encoded توی #Redis نگه میداشته.
خلاصه، بعد چند روز یهو میاد این دیتا رو (یه مشت صفر ویک) بهصورت بایتهای کاراکترهای ASCII در قالب یه کپی از دیتابیس ببینه که یهو میبینه: عه! وسطش یه آدرس وبسایت اومده!
و پشمای طرف در جا میریزه که هک شدهام و به فنا داریم میریم! یکی تونسته یه آدرس اینترنتی توی دیتابیس ما بذاره و خدا میدونه توش چی هست
ادامه در کامنت
اجرای مدل های AI در Device های مختلف بدون نیاز به API Call
پلتفرم #Nexaai یه هابی از مدل های هوش مصنوعی برای Device (به اصطلاح On-Device AI) ارائه میده که بیشتر از 700 مدل هوش مصنوعی کوانتیزهشده در دستههای #NLP ، تصویر، صدا و مدلهای Multimodal داره.
این پلتفرم به کاربر اجازه مبده تا مدل ها رو به صورت local روی دستگاههایی مثل گوشی، #embedded_system ها و کامپیوترها اجرا کنه و امر باعث میشه تا هوش مصنوعی برای دستگاههایی با منابع محدود در دسترستر بشه.
همچنین Nexa AI برای سری #Octopus که جز مدلهای Multimodal هستن و ورودیهای متن و تصویری میگیرن، شناخته شده و حتی عملکردی قابل مقایسه با مدلهای پیشرفته مانند GPT-4 ارائه میدن. این مدلها برای محیطهای کممنبع بهینهسازی شدن و میتونن با استفاده از Nexa's SDK، که از CPU، GPU و inference ترکیبی پشتیبانی میکنه به کار گرفته بشه و مدلو برای پلتفرمهای مختلف مثل Android، iOS و Windows قابل اجرا کنه.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
پلتفرم #Nexaai یه هابی از مدل های هوش مصنوعی برای Device (به اصطلاح On-Device AI) ارائه میده که بیشتر از 700 مدل هوش مصنوعی کوانتیزهشده در دستههای #NLP ، تصویر، صدا و مدلهای Multimodal داره.
این پلتفرم به کاربر اجازه مبده تا مدل ها رو به صورت local روی دستگاههایی مثل گوشی، #embedded_system ها و کامپیوترها اجرا کنه و امر باعث میشه تا هوش مصنوعی برای دستگاههایی با منابع محدود در دسترستر بشه.
همچنین Nexa AI برای سری #Octopus که جز مدلهای Multimodal هستن و ورودیهای متن و تصویری میگیرن، شناخته شده و حتی عملکردی قابل مقایسه با مدلهای پیشرفته مانند GPT-4 ارائه میدن. این مدلها برای محیطهای کممنبع بهینهسازی شدن و میتونن با استفاده از Nexa's SDK، که از CPU، GPU و inference ترکیبی پشتیبانی میکنه به کار گرفته بشه و مدلو برای پلتفرمهای مختلف مثل Android، iOS و Windows قابل اجرا کنه.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
مدل Llama-3.1-SuperNova-Lite با تعداد پارامتر 8B توسط Arcee.ai بر اساس معماری Llama-3.1-8B-Instruct توسعه یافته.
در واقع سوپرنوا یک نسخه بزرگتر از Llama-3.1-405B-Instruct هستش که از لاجیت های آفلاین استخراج شده از نوع پارامتر 405B استفاده میکنه.
میشه گفت جایگزین Llama3.1 فقط میتونه یک نسخه بهتر براساس همین معماری باشه :
arcee-ai/Llama-3.1-SuperNova-Lite
همونطور که گفته شد مدل ۸ میلیارد پارامتری هست، مدل ۷۰ میلیاردی فقط از طریق API در دسترس هست.
طبق ادعا از 405b, gpt4o, ... بهتر عمل میکنه؛ البته برای تسکهای مربوط به instruction-following
#Llama
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
در واقع سوپرنوا یک نسخه بزرگتر از Llama-3.1-405B-Instruct هستش که از لاجیت های آفلاین استخراج شده از نوع پارامتر 405B استفاده میکنه.
میشه گفت جایگزین Llama3.1 فقط میتونه یک نسخه بهتر براساس همین معماری باشه :
arcee-ai/Llama-3.1-SuperNova-Lite
همونطور که گفته شد مدل ۸ میلیارد پارامتری هست، مدل ۷۰ میلیاردی فقط از طریق API در دسترس هست.
طبق ادعا از 405b, gpt4o, ... بهتر عمل میکنه؛ البته برای تسکهای مربوط به instruction-following
#Llama
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM