Telegram Web Link
چقدر خوبه این
Deepseek R1

نسخه Deep think رو روی سایت فعال کنید و باهاش کد بزنید؛ بذارید تصمیم بگیره که بهترین طراحی و ... برای کد شما چیه
فقط فعلا تنها مشکل تعداد ۵۰ پیام در روزش هست ( با ۲-۳ تا اکانت می‌شه ی پروژه رو درآورد)

من اینطوری تستش کردم که نتایج chatgpt, mistral (نسخه‌های جدید) رو بهش میدم و میگم کدهاشون رو review کنه و بهبود بده.
واقعا هم نتایج بهتری داره نسبت به اون دو مدل؛ همچنان روی preview هست.

https://chat.deepseek.com/
شما درخواست دادید :
این ۳ تا مدل رو باهم مقایسه کردم (غیر لوکال)
chatgpt 4o, mistral ai, deepseek r1

تمام مواردی که میگم روی Python هست (چون دوستان پرسیدن زبان‌های دیگه چطوری هست؛ مخصوصا Rust, C گفتم اعلام کنم؛ من برای Rust دائما از Qwen2.5-coder 33b استفاده می‌کنم)

به هیچکدوم از مدل‌ها هم تسک پیچیده ندادم؛ که برو ۰-۱۰۰ این پروژه رو بزن و بیار؛ اما تسک‌های کوچیک زیاد بوده؛ استانداردهای کدهام رو مکتوب می‌کنم همون code contribution agreement یک چندتا نمونه از بخش‌هاش رو پیاده‌سازی می‌کنم و باقی موارد رو میدم به این مدل‌ها ازشون پیاده‌سازی می‌خوام و اما نتایج :

mistral ai:
توی تمام موارد عملکرد نسبتا خوبی داره؛ اما بیش از حد تایپ می‌کنه.
بعضی وقتا بطور کامل راه‌حل درست رو می‌گه یا اینکه چطوری باید پیاده‌سازی کنید و ... ولی بعد خودش توی پیاده‌سازی فراموش می‌کنه و دقیقا کدی که ورودی بهش دادید رو بر‌می‌گردونه.
توی کدهای کوچیک (تک فایل و زیر ۲۰۰-۳۰۰ خط) مشکلی نداره و همه چیز درست هست.
سعی می‌کنه syntax کاربر رو هم تا جایی که می‌شه رعایت و دنبال کنه.
سرعت پاسخ خیلی خیلی بالایی داره.

chatgpt 4o:
هیچ جواب اضافه ای نمیده؛ بخصوص اگر اولش بهش گفته باشید و یک راست میره سر اصل مطلب و نکات مهم.
به شرط پرامپت خوب و کدهای کوچیک عملکرد خیلی خوبی داره.
سرعت پاسخش کمی از mistral کمتر هست.

اما ۳ تا مشکل اساسی من باهاش دارم:
۱- کلا کد بزرگ رو درست نمی‌فهمه؛ چندتا مازول رو کنار هم بذاری و ازش چیزی بخوای.
۲- اگر کد بزرگ رو بفهمه و بهت جواب هم بده؛ جوابش توی بیش از ۸۰٪ مواقع بدرد نمیخوره درست هست ولی syntax شما رو رعایت نکرده (مثلا بجای کلاس؛ همرو با تابع می‌نویسه و ...)
۳- خیلی زود به memory full میخوره و حتی اگر به اون هم نخوره خیلی زود code contribution agreement رو فراموش می‌کنه.

اما بطور کلی اگر چیزی رو درست جواب بده و بخواد راه‌حلش رو توضیح بده خیلی روان و صریح توضیح میده که اگر موضوع کد نبود بنظرم برنده بود.

deepseek r1:
حتما؛ حتما؛ حتما حتی شده در نهایت کدها رو بهش میدم و ازش می‌خوام ایراداتش رو بگیره یا اگر چیزی رو با استاندارد رعایت نکردم بهم بگه.
زمان پاسخش بخاطر مرحل تفکر؛ از باقی موارد بالاتر هست ولی بطور کلی توی کدهای بزرگ همزمان خروجی نهایی رو میدهند.
همیشه و در همه شرایط syntax رو رعایت کرده توی تست‌های من.
فایل‌های بزرگ و dependency های زیاد خوراکش هست (تعداد مسیج روزانه‌اتون رو خرچ سوالات ساده و کدهای کوچیک نکنید.)
قوانین contribution رو همیشه رعایت می‌کنه؛ مثلا از دیروز بهش گفتم کد بدون تست نباید تحویل بدی؛ همواره داره تست نویسی رو هم انجام میده (بیش از ۸۰ پیام از اون پیام تست نویسی گذشته)
Forwarded from RandRng
توضیحات پست توی گروه مربوط به کانال Rust
مدل QwQ اومده ۳۲ میلیارد پارامتر داره؛ خیلی هم شباهت داره به deepseek r1 و قطعا خیلی‌هاتون تا امروز ازش استفاده کردید
اما
من معرفیش نکردم چون ۲ تا سوال اولی که ازش پرسیدم یکیش ۱۰ دقیقه طول کشید تا فکر کنه و دومی ۱۵-۲۰ دقیقه و این اصلا قابل قبول نیست (مفید نیست).

خیلی‌های دیگه هم به همین نتیجه رسیدند؛ و حتی شاید باورتون نشه یک Query خیلی ساده هم پیدا شده که اول سوالتون بذارید (برای کد زدن) خروجی مدل
Qwen2.5-coder 

به اندازه QwQ بهبود پیدا می‌کنه تو بسیاری از سناریوهای مربوط به کد زدن و پرامپت اینه :

Analyze the system and then write the code in python


این رو به اول پرامپت‌ها اضافه کنید و مجدد از Qwen2.5-coder استفاده کنید و از نتایج بسیار بهتر لذت ببرید.


پ.ن : الان تست کردم؛ مورد بالا رو به QwQ هم بدید خروجیش بهتر می‌شه و زمان تفکر رو هم پایین میاره برای مدل.
(حالا بگذریم ازین که تفکر نیست و تست سناریوهای مختلف هست)
دکتر حبیب‌زاده از دوستان خیلی خوب بنده هست که قبلا هم کانال‌ یوتیوب و لایو‌های دیگرشون رو معرفی کردم مخصوصا وقتی دوره‌های عملی دانشگاهای کانادا رو درس می‌دادند.

یک سری ویدئو دارند توی یوتیوب قرار می‌دهند درمورد LLM ها که مقدماتی هم هست (بخش سوم)

Youtube Link

دیدن آموزش‌های ایشون همیشه برام لذت بخش بوده؛ بسیار روان و ساده توضیح می‌دهند (مناسب برای شروع و درک عمیق مطالب) طوری که نمی‌شه مطلبی رو ایشون توضیح بدند و کسی متوجه نشه.


همیشه هم مطالب رو رایگان در اختیار دیگران می‌گذارند.
توصیه می‌کنم اگر به این موضوعات علاقه دارید حتما ویدئوهای یوتیوب ایشون رو ببینید.
دستاوردهای یادگیری عمیق(InTec)
من اینجا همه‌ی آن چیز که برای deep learning لازمه رو یک رودمپ کردم؛ از بهترین دوره‌های دنیا که اتفاقاً همه هم رایگان هستند.

یکی از اعضای کانال، اشاره داشتند که راجب
Image Processing
اما چیزی نگفتم و کاملاً هم حق دارند.

اما قبلش :
توی ۱۰ سالی که Image کار کردم هیچ موقع یک کتاب یا یک دوره مخصوص پردازش تصویر که شامل همه چیز باشه ندیدم و و احتمال ۹۹٪ هم نخواهم دید.

Image Processing
فقط چندتا تکنیک نرمال نیست که با یک دوره در بیاد، نیاز به خلاقیت داره برای همین هم من منبع خوبی توش پیدا نکردم.
( همین بحث برای پردازش متن و سیگنال هم هست )

اما توی این همه سال همیشه یک دوره رو به نیروهای جونیور خودم معرفی می‌کردم (اینم رایگان) که حداقل ببینند هر تکنیک چه تاثیری روی تصویر خواهد داشت.

Youtube Channel

حتماً دوره‌های این کانال رو ببینید.

در نهایت آیا می‌دونید ۹۰٪ پست‌ها بدون ذکر منبع توی توییتر و لینکدین بصورت لغت به لغت و به‌نام صاحب اکانت پخش می‌شه ؟

نکته‌ای ندارم فقط خواستم ببینم می‌دونید یا خیر؟
۹۰٪ وقتا توی لینکدین دارم تجربیات خودم رو زیر یک اکانت دیگه لایک می‌کنم.
Please open Telegram to view this post
VIEW IN TELEGRAM
اینا قوی نیستند ما ضعیف هستیم.

سمت راست رو نقی :
۱- ۱۷ روز اعتصاب غذا، نه لاغر شد نه ضعف داشت نه هیچ
۲- تازه چندسال پیش وضعیت کلیه‌اش وخیم بود و داشت از دست می‌داد

سمت چپ توماج :
۱- پاهاش رو شکستن
۲- چشمش داشت کور می‌شد
۳- بقول خودش انقدر زدنش که همه اعضای بدنش به مشکل خورد.
(فقط زرنگی کرد، دستاشو گرفت جلو سر و صورت)

هیچی دیگه جفتشون هم فردا صبحش پا شدند رفتن دور دور.


خلاصه ماها ضعیفیم، اینا قوی نیستند.

این داستان، #توله_مجاهد و دوستانش (افسانه دروغ‌های زیبا)
تو زندگیم ۲ تا چیز رو ندیدم :
۱- جنگ جهانی
۲- سقوط دیکتاتور

خدارو شکر دومی رو شاهدش هستم و اولی رو نمی‌بینم 🌹🌹
Please open Telegram to view this post
VIEW IN TELEGRAM
بنظرم
LCM
بهتر از LLM جواب خواهد داد برای تعداد زیادی از تسک‌ها

راستی
LCM: Large Concept Model
Forwarded from Python Hints
هلوکاست ایرانی

یک زمانی شهردار تهران رو بخاطر ترافیک تهران اعدام کردند.

آخوند جز ویرانی، برای ایران دستاورد نداشت.
Forwarded from RandRng
مدل خودشون:


بی‌غیرت، اون مسئولیه که داره اینو القا می‌کنه که
حدود ۸ میلیون خمینی فدای ۱۰۰ تا فرانکلین

هر ۱۰۰ دلار حدوداً ۸ میلیون تومان
مدل کم حجم ولی خروجی خیره کننده :

Text 2 Speech

۸۲ میلیون پارامتر، واقعاً توی رنج پارامتر‌های این روزا خیلی عجیب هست.

یادمه زمانی که Inception v3 رکورد ImageNet رو زد همه از تعداد پارامترهاش شکه شدیم بنظرتون چقدر بود ؟

۲۳ میلیون (ترین) ولی اون زمان بیش از حد زیاد بود.
کل یوتیوب پر شده از این مقاله :
https://arxiv.org/pdf/2501.00663

و تقریبا تمام دوستان دارند در مورد
Transformers v2.0
صحبت می‌کنند.
میشه بازم گوگل خالق و باعث انقلاب دیگری باشه یا این هم یک ترند تبلیغاتی دیگر هست ؟
2025/07/01 15:58:57
Back to Top
HTML Embed Code: