Telegram Web Link
This media is not supported in your browser
VIEW IN TELEGRAM
داخل شبکه CNN چه اتفاقی میوفته؟

از بهترین نمایش های مدل #CNN که جزئیات #شبکه_عصبی رو به خوبی نشون میده.
شاید الان شبکه CNN، به نظر برسه ایده‌ش قدیمیه. اما تو این ویدیو می‌بینیم که چقدر تکنولوژی خفنی هست و ویژن خوبی به دنیای امروز داده!

ترکیبش با یک آهنگ کلاسیک :)

@silicon_brain | از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
مدل‌های زبانی قدرتمند که اخیرا منتشر شدن حتما اطلاع دارین که هفته پیش مدل GPT-4o معرفی شد و عملکرد فوق العاده‌ی این مدل موضوع بحث خیلی جاها بود (میتونین به این مدل از طریق داشبود openai دسترسی داشته باشین. چند ریکوئست اولش رایگانه) اما در ادامه چندتا از مدل‌های…
آپدیتی از مدل‌های زبانی اخیر

تو پست ریپلای شده در مورد #LLM های مطرح و کاربرداشون صحبت کردیم. حالا یه مدل جدید به اسم Qwen2# منتشر شده که به نظر عملکرد خوبی داره...

اما چندتا نکته قابل توجه داره این مدل:
1- عملکرد بهتر از Llama3
2- سایز بزرگتر برای Context-length
3- انتشار مدل در ۵ سایز از 0.5B تا 72B پارامتر
4- و البته از همه مهمتر پشتیبانی از 29 زبان

اما چیزی که بسیار توجه جلب می‌کنه؛ امتیازش روی تست MMLU-Pro هست:
#ChatGpt4o : 72.2
#Claude 3 Opus : 68.4
#Qwen2 : 64.4
#Llama3 : 56.2
لینک

@silicon_brain I از هوش مصنوعی عقب نمانید
پکیج پایتون برای تبدیل pdf به word فارسی

این پکیج از Tesseract OCR برای تشخیص متن در فایل های PDF استفاده میکنه...

گیتهاب | pypi
@silicon_brain | از هوش مصنوعی عقب نمانید
مدل Vision-Language مایکروسافت بنام Florence-2

- خیلی سَبُکه. خبری از بیلیون پارامتر نیست
- یک شبکه همه کاره هست؛ یعنی، دیتکشن، سگمنتیش و غیره
- یک دیتاست هیولا برای آموزش مدل ساخته شده!

محقق‌ها میخواستن یه مدلی بسازن که بتونه از عهده تسک‌های متنوع ویژن مثل دیتکشن، سگمنتیشن، کپشنینگ و غیره بربیاد.

خب، دو مقوله اینجا مطرح میشه؛ یکی معماری شبکه و دیگری دیتاست آموزش. معماری شبکه نکته جدیدی نداره. شبیه سایر VLM-های امروزیه. دو نسخه مدل Base با 230 و Large با 770 میلیون پارامتر معرفی شده.

اما دیتاستی بنام FLD-5B ساختن که شامل 126 میلیون تصویر با 5 بیلیووون Annotation هست! اصل ایده مقاله همین بخش ساخت دیتاست هست. در مقاله، پایپلاین ساخت دیتاست رو در بخش Data Engine توضیح دادن.

یکسری تصویر از خروجی مدل Large براتون گذاشتیم که نگاه کنید؛ عجب دنیایی شده! دیگه یه مدل مخصوص دیتکشن یا سگمنتیشن بای بای...

مقاله | نوتبوک کولب | هاگینگ فیس

@silicon_brain I از هوش مصنوعی عقب نمانید
مدل جدید Depth Anything برای تشخیص عمق

ورژن جدید این مدل که به تازگی منتشر شده در مقایسه با نسخه 1 (depth anything) پیش‌بینی‌های عمقی بسیار دقیق‌تر و ظریف‌تری ارائه میده.

در مقایسه با مدل‌های اخیر که مبتنی بر Stable #Diffusion ها بودن، Depth Anything 2 بسیار کارآمدتر (بیش از 10 برابر سریع‌تر) و دقیق‌تره. علاوه بر این، امکان اجرا در مقیاس‌های مختلف (از 25 میلیون تا 1.3 میلیارد پارامتر) رو فراهم میکنه.

این مدل کلا با تصاویر ساختگی ترین شده و روش آموزش این نسخه با مدل MDE (monocular depth estimation ) قبلی که بر اساس مدل DINOv2 بود متفاوت هست. در روش قبلی مدل ابتدا فقط با تصاویر مصنوعی با کیفیت بالا آموزش داده می‌شد و بعدش به تصاویر واقعی بدون لیبل، برچسب‌های با عمق مصنوعی اختصاص می‌داد. در نهایت، مدل‌های جدید نسخه دوم به‌طور کامل با تصاویر برچسب‌گذاری شده مصنوعی با دقت بالا آموزش داده میشن.

مقاله | هاگینگ فیس

@silicon_brain | از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
آپدیتی از مدل‌های زبانی اخیر تو پست ریپلای شده در مورد #LLM های مطرح و کاربرداشون صحبت کردیم. حالا یه مدل جدید به اسم Qwen2# منتشر شده که به نظر عملکرد خوبی داره... اما چندتا نکته قابل توجه داره این مدل: 1- عملکرد بهتر از Llama3 2- سایز بزرگتر برای Context…
در ادامه بازار شلوغ مدل های زبانی در مورد اخرین نسخه Sonnet بدونیم

چند وقت پیش شرکت #Anthropic از نسخه 3.5 هوش مصنوعی #Sonnet رونمایی کرد.
این نسخه به عنوان مدل میانی شرکت معرفی شده و به قدری بهبود یافته که نه تنها از GPT-4o قوی‌تره بلکه حتی از مدل پولی خود شرکت، یعنی #Opus، هم دقت بالاتری داره!

با این به‌روزرسانی، کاربران میتونن از یک مدل رایگان با کارایی بسیار بالاتر بهره‌مند بشن.
claude.ai
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
تکنیک های پرامپت نویسی
A Systematic Survey of Prompting Techniques


راه تعامل و ارتباط با سیستم های جنریتور مثل #LLM ها برای کاربرها و دولوپرها از طریق #پرامپت و #prompt_engineering هست. با وجود این که prompting مفهومی گسترده است و به شدت مورد تحقیق قرار گرفته، اما به دلیل تازگی این حوزه، اصطلاحات متناقض و درک ضعیفی از آنچه که یک پرامپت را تشکیل می‌ده، وجود داره.

حالا محقق های کلی دانشگاه و کمپانی از جمله #Stanford و #OpenAI و #Microsoft اومدن و یک مقاله ۷۶ صفحه ای از ۵۸ تکنیک برای پرامپت نوشتن متنی و ۴۰ تکنیک برای modality های دیگه دادن که با فاصله بهترین منبع برای یادگیری نوشتن پرامپت به حساب میاد. از خوندنش لذت می‌برید.

این تکنینک‌ها زبان‌های دیگه را هم شامل می‌شه(multilingual).با نگاه به سرفصل‌های این کتابچه خودتون دستتون میاد. حالا این یک طرف، و از طرف دیگه، یک لایبرری اومده که همه این ۵۸ تا تکنیک را پیاده سازی کرده. فقط کافیه تکنیکی که می‌خواهید را روی پرامپتتون اجرا کنید تا پرامپت با کیفیت بگیرید.
مقاله | گیتهاب

@silicon_brain | از هوش مصنوعی عقب نمانید
فاین تیون مدل‌های Mistral با درصدی کمی از وزن‌های متغیر

خب Mistral-finetune منتشر شد، یه کدبیس سبک‌وزن که امکان fine-tuning مدل‌های #Mistral رو فراهم می‌کنه. این مبتنی بر #LoRA هست، یه الگوی آموزشی که در اون بیشتر وزن‌ها ثابت هستن و فقط ۱ تا ۲ درصد وزن‌های اضافی به شکل اختلالات ماتریسی با رتبه پایین آموزش داده می‌شن.

از اون کارایی هست که سخت‌افزار زیاد لازم داره، بعضی از کاربرا میان مثلا با چند تا 3090 انجامش میدن
(البته با این رشد سرویس‌های کلاد AI نیاز نیست حتما تجهیزات خرید).

گیتهاب

@silicon_brain I از هوش مصنوعی عقب نمانید
عملکرد هر یک از مدل های تولید تصویر
تو این ریپو خروجی هر یک از این مدل ها رو برای تسک Text-to-Image نشون داده

@silicon_brain | از هوش مصنوعی عقب نمانید
از OpenAI و ChatGPT چه خبرهای جدیدی داریم؟

همکاری با Dotdash Meredith

شرکت OpenAI با Dotdash Meredith، ناشر مجله‌ People، قراردادی امضا کرده که به OpenAI اجازه می‌ده از محتوای نشریات این شرکت برای آموزش مدل‌های هوش مصنوعی‌اش استفاده کنه.

همچنین، Dotdash Meredith می‌تونه از این مدل‌ها برای اهداف تبلیغاتی استفاده کنه.

این همکاری شامل ایجاد ویژگی‌های جدید برای خوانندگانه و به افزایش تعاملات بین ناشر و پلتفرم‌های هوش مصنوعی منجر می‌شه.

همکاری با Stack Overflow

شرکت OpenAI با امضای قراردادی با پلتفرم Stack Overflow، به API این پلتفرم و بازخوردهای توسعه‌دهندگان دست پیدا کرده.

در نتیجه در صورتی که کاربران سوالات فنی یا مربوط به کدنویسی داشته باشن، پاسخ‌های دقیق‌تر و کامل‌تری دریافت می‌کنن.

به زودی احتمالاً موتور جستجو ChatGPT رو خواهیم داشت!

احتمالاً OpenAI موتور جستجوی ChatGPT رو معرفی می‌کنه. سم آلتمن، مدیرعامل OpenAI، گفته که ChatGPT می‌تونه آینده جستجو باشه و قصد داره با ارائه پاسخ‌های دقیق‌تر نسبت به گوگل، تجربه جستجوی کاربران رو بهبود ببخشه.

موتور جستجوی ChatGPT از ترکیب جستجوی سنتی و قابلیت‌های چت‌بات هوش مصنوعی برای ارائه پاسخ‌های بهینه استفاده خواهد کرد.

اما سوال مهم اینکه پردازش با استفاده از هوش مصنوعی بسیار گرون‌تر از روش‌های الگوریتمی گوگله و OpenAI چطور می‌خواد این هزینه‌ رو مدیریت کنه؟

#openai #chatgpt
@silicon_brain I از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
به نطرت ارتباط بین مدل های LLM و AGI به چه شکل میتونه باشه؟
تو این پست اینستاگرام، در مورد ارتباط #LLM و #AGI و جایگاه و آینده هر کدوم توضیح دادیم.
حتما بخون و حمایت کن ❤️
https://www.instagram.com/p/C9sHe4xilz1/?igsh=d2duYnFvNXNqZzJo
@silicon_brain - Python for ML from Basics to Advanced.pdf
5.4 MB
جزوه جامع یادگیری ماشین با پایتون
این جزوه در قالب notebook آماده شده و برای افرادی که میخوان وارد این حوزه بشن توصیه میشه

(برای منابع بیشتر رو #cheatsheet بزنید)

@silicon_brain | از هوش مصنوعی عقب نمانید
data-cleaning.pdf
2.1 MB
راهنمایی برای پاکسازی داده‌ها در یادگیری ماشین

پاکسازی داده‌ (#data_cleaning) مرحله ی اساسی در فرآیند آماده‌سازی داده در یادگیری ماشینه...
چرا؟ چون این نتایج رو داره:

- بهبود دقت مدل‌ها
- افزایش کیفیت داده‌ها
-- پیشگیری از بیش‌برازش (Overfitting):
- کاهش پیچیدگی مدل
- کاهش هزینه‌های محاسباتی
- بهبود تفسیرپذیری مدل

تو این داکیومنت، مباحث پایه ای پاکسازی داده مطرح شده

@silicon_brain | از هوش مصنوعی عقب نمانید
اصطلاحات اولیه و مهم LLM که باید بدونی

مدل پایه (Foundation Model):
طراحی شده برای تولید و فهم متن‌های انسانی

ترانسفورمر (#Transformer): یک معماری حوزه متن، شناخته شده به خاطر مکانیزم توجه (#Attention_mechanism) و توانایی پردازش موازی

پرامپت(#Prompt): ارائه ورودی‌های دقیق به LLM برای تولید خروجی

طول کانتکست (#Context_Length): حداکثر تعداد کلمات قابل پردازش.

آموزش چند-مثاله (#Few_Shot ): ارائه تعداد کم نمونه برای انجام وظیفه خاصی

آموزش بدون مثال ( #Zero_Shot): ارائه دستورالعمل‌های وظیفه بدون نمونه

رگ #RAG (تولید تقویت شده با بازیابی): استفاده از اطلاعات بازیابی شده برای بهبود پاسخ‌ها

پایه دانش (#knowledge_base): مجموعه از اسناد که در پاسخ RAG استفاده میشه

تنظیم دقیق (#Fine_Tuning): تطبیق LLM به وظیفه خاص با آموزش بیشتر

توهم (#Hallucination): تمایل به تولید اطلاعات نادرست.

#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت OpenAI و معرفی موتور جستجو هوشمند

بعد از معرفی #SearchGPT سهام شرکت الفابت (گوگل) سقوط کرد.
https://openai.com/index/searchgpt-prototype/

نظرت در مورد این تغییرات چیه؟
(جزئیات فنی بزودی پست میشه)

@silicon_brain | از هوش مصنوعی عقب نمانید
2025/07/04 14:39:18
Back to Top
HTML Embed Code: