چقدر خوبه این
نسخه
فقط فعلا تنها مشکل تعداد ۵۰ پیام در روزش هست ( با ۲-۳ تا اکانت میشه ی پروژه رو درآورد)
من اینطوری تستش کردم که نتایج
واقعا هم نتایج بهتری داره نسبت به اون دو مدل؛ همچنان روی
https://chat.deepseek.com/
Deepseek R1
نسخه
Deep think
رو روی سایت فعال کنید و باهاش کد بزنید؛ بذارید تصمیم بگیره که بهترین طراحی و ... برای کد شما چیه فقط فعلا تنها مشکل تعداد ۵۰ پیام در روزش هست ( با ۲-۳ تا اکانت میشه ی پروژه رو درآورد)
من اینطوری تستش کردم که نتایج
chatgpt, mistral
(نسخههای جدید) رو بهش میدم و میگم کدهاشون رو review کنه و بهبود بده.واقعا هم نتایج بهتری داره نسبت به اون دو مدل؛ همچنان روی
preview
هست.https://chat.deepseek.com/
Deepseek
Chat with DeepSeek AI.
دستاوردهای یادگیری عمیق(InTec)
چقدر خوبه این Deepseek R1 نسخه Deep think رو روی سایت فعال کنید و باهاش کد بزنید؛ بذارید تصمیم بگیره که بهترین طراحی و ... برای کد شما چیه فقط فعلا تنها مشکل تعداد ۵۰ پیام در روزش هست ( با ۲-۳ تا اکانت میشه ی پروژه رو درآورد) من اینطوری تستش کردم که نتایج…
اگر مثل مدلهای Lite قبلی باشه یعنی چیزی در حدود ۱۲ تا ۲۰ میلیارد پارامتر خواهد بود و احتمالا بعد از اتمام تستها بصورت
open-source
منتشر خواهد شد.شما درخواست دادید :
این ۳ تا مدل رو باهم مقایسه کردم (غیر لوکال)
تمام مواردی که میگم روی
به هیچکدوم از مدلها هم تسک پیچیده ندادم؛ که برو ۰-۱۰۰ این پروژه رو بزن و بیار؛ اما تسکهای کوچیک زیاد بوده؛ استانداردهای کدهام رو مکتوب میکنم همون
توی تمام موارد عملکرد نسبتا خوبی داره؛ اما بیش از حد تایپ میکنه.
بعضی وقتا بطور کامل راهحل درست رو میگه یا اینکه چطوری باید پیادهسازی کنید و ... ولی بعد خودش توی پیادهسازی فراموش میکنه و دقیقا کدی که ورودی بهش دادید رو برمیگردونه.
توی کدهای کوچیک (تک فایل و زیر ۲۰۰-۳۰۰ خط) مشکلی نداره و همه چیز درست هست.
سعی میکنه syntax کاربر رو هم تا جایی که میشه رعایت و دنبال کنه.
سرعت پاسخ خیلی خیلی بالایی داره.
هیچ جواب اضافه ای نمیده؛ بخصوص اگر اولش بهش گفته باشید و یک راست میره سر اصل مطلب و نکات مهم.
به شرط پرامپت خوب و کدهای کوچیک عملکرد خیلی خوبی داره.
سرعت پاسخش کمی از
اما ۳ تا مشکل اساسی من باهاش دارم:
۱- کلا کد بزرگ رو درست نمیفهمه؛ چندتا مازول رو کنار هم بذاری و ازش چیزی بخوای.
۲- اگر کد بزرگ رو بفهمه و بهت جواب هم بده؛ جوابش توی بیش از ۸۰٪ مواقع بدرد نمیخوره درست هست ولی
۳- خیلی زود به
اما بطور کلی اگر چیزی رو درست جواب بده و بخواد راهحلش رو توضیح بده خیلی روان و صریح توضیح میده که اگر موضوع کد نبود بنظرم برنده بود.
حتما؛ حتما؛ حتما حتی شده در نهایت کدها رو بهش میدم و ازش میخوام ایراداتش رو بگیره یا اگر چیزی رو با استاندارد رعایت نکردم بهم بگه.
زمان پاسخش بخاطر مرحل تفکر؛ از باقی موارد بالاتر هست ولی بطور کلی توی کدهای بزرگ همزمان خروجی نهایی رو میدهند.
همیشه و در همه شرایط
فایلهای بزرگ و
قوانین
این ۳ تا مدل رو باهم مقایسه کردم (غیر لوکال)
chatgpt 4o, mistral ai, deepseek r1
تمام مواردی که میگم روی
Python
هست (چون دوستان پرسیدن زبانهای دیگه چطوری هست؛ مخصوصا Rust, C
گفتم اعلام کنم؛ من برای Rust
دائما از Qwen2.5-coder 33b
استفاده میکنم)به هیچکدوم از مدلها هم تسک پیچیده ندادم؛ که برو ۰-۱۰۰ این پروژه رو بزن و بیار؛ اما تسکهای کوچیک زیاد بوده؛ استانداردهای کدهام رو مکتوب میکنم همون
code contribution agreement
یک چندتا نمونه از بخشهاش رو پیادهسازی میکنم و باقی موارد رو میدم به این مدلها ازشون پیادهسازی میخوام و اما نتایج :mistral ai
:توی تمام موارد عملکرد نسبتا خوبی داره؛ اما بیش از حد تایپ میکنه.
بعضی وقتا بطور کامل راهحل درست رو میگه یا اینکه چطوری باید پیادهسازی کنید و ... ولی بعد خودش توی پیادهسازی فراموش میکنه و دقیقا کدی که ورودی بهش دادید رو برمیگردونه.
توی کدهای کوچیک (تک فایل و زیر ۲۰۰-۳۰۰ خط) مشکلی نداره و همه چیز درست هست.
سعی میکنه syntax کاربر رو هم تا جایی که میشه رعایت و دنبال کنه.
سرعت پاسخ خیلی خیلی بالایی داره.
chatgpt 4o
:هیچ جواب اضافه ای نمیده؛ بخصوص اگر اولش بهش گفته باشید و یک راست میره سر اصل مطلب و نکات مهم.
به شرط پرامپت خوب و کدهای کوچیک عملکرد خیلی خوبی داره.
سرعت پاسخش کمی از
mistral
کمتر هست.اما ۳ تا مشکل اساسی من باهاش دارم:
۱- کلا کد بزرگ رو درست نمیفهمه؛ چندتا مازول رو کنار هم بذاری و ازش چیزی بخوای.
۲- اگر کد بزرگ رو بفهمه و بهت جواب هم بده؛ جوابش توی بیش از ۸۰٪ مواقع بدرد نمیخوره درست هست ولی
syntax
شما رو رعایت نکرده (مثلا بجای کلاس؛ همرو با تابع مینویسه و ...)۳- خیلی زود به
memory full
میخوره و حتی اگر به اون هم نخوره خیلی زود code contribution agreement
رو فراموش میکنه.اما بطور کلی اگر چیزی رو درست جواب بده و بخواد راهحلش رو توضیح بده خیلی روان و صریح توضیح میده که اگر موضوع کد نبود بنظرم برنده بود.
deepseek r1
:حتما؛ حتما؛ حتما حتی شده در نهایت کدها رو بهش میدم و ازش میخوام ایراداتش رو بگیره یا اگر چیزی رو با استاندارد رعایت نکردم بهم بگه.
زمان پاسخش بخاطر مرحل تفکر؛ از باقی موارد بالاتر هست ولی بطور کلی توی کدهای بزرگ همزمان خروجی نهایی رو میدهند.
همیشه و در همه شرایط
syntax
رو رعایت کرده توی تستهای من.فایلهای بزرگ و
dependency
های زیاد خوراکش هست (تعداد مسیج روزانهاتون رو خرچ سوالات ساده و کدهای کوچیک نکنید.)قوانین
contribution
رو همیشه رعایت میکنه؛ مثلا از دیروز بهش گفتم کد بدون تست نباید تحویل بدی؛ همواره داره تست نویسی رو هم انجام میده (بیش از ۸۰ پیام از اون پیام تست نویسی گذشته)Forwarded from RandRng
توضیحات پست توی گروه مربوط به کانال Rust
دستاوردهای یادگیری عمیق(InTec)
شما درخواست دادید : این ۳ تا مدل رو باهم مقایسه کردم (غیر لوکال) chatgpt 4o, mistral ai, deepseek r1 تمام مواردی که میگم روی Python هست (چون دوستان پرسیدن زبانهای دیگه چطوری هست؛ مخصوصا Rust, C گفتم اعلام کنم؛ من برای Rust دائما از Qwen2.5-coder 33b استفاده…
ی آپدیت جدید داده deepseek r1
خروجیش به مراتب پیشرفت کرده
خروجیش به مراتب پیشرفت کرده
مدل
اما
من معرفیش نکردم چون ۲ تا سوال اولی که ازش پرسیدم یکیش ۱۰ دقیقه طول کشید تا فکر کنه و دومی ۱۵-۲۰ دقیقه و این اصلا قابل قبول نیست (مفید نیست).
خیلیهای دیگه هم به همین نتیجه رسیدند؛ و حتی شاید باورتون نشه یک
به اندازه
این رو به اول پرامپتها اضافه کنید و مجدد از
پ.ن : الان تست کردم؛ مورد بالا رو به
(حالا بگذریم ازین که تفکر نیست و تست سناریوهای مختلف هست)
QwQ
اومده ۳۲ میلیارد پارامتر داره؛ خیلی هم شباهت داره به deepseek r1
و قطعا خیلیهاتون تا امروز ازش استفاده کردید اما
من معرفیش نکردم چون ۲ تا سوال اولی که ازش پرسیدم یکیش ۱۰ دقیقه طول کشید تا فکر کنه و دومی ۱۵-۲۰ دقیقه و این اصلا قابل قبول نیست (مفید نیست).
خیلیهای دیگه هم به همین نتیجه رسیدند؛ و حتی شاید باورتون نشه یک
Query
خیلی ساده هم پیدا شده که اول سوالتون بذارید (برای کد زدن) خروجی مدل Qwen2.5-coder
به اندازه
QwQ
بهبود پیدا میکنه تو بسیاری از سناریوهای مربوط به کد زدن و پرامپت اینه :Analyze the system and then write the code in python
این رو به اول پرامپتها اضافه کنید و مجدد از
Qwen2.5-coder
استفاده کنید و از نتایج بسیار بهتر لذت ببرید.پ.ن : الان تست کردم؛ مورد بالا رو به
QwQ
هم بدید خروجیش بهتر میشه و زمان تفکر رو هم پایین میاره برای مدل. (حالا بگذریم ازین که تفکر نیست و تست سناریوهای مختلف هست)
دکتر حبیبزاده از دوستان خیلی خوب بنده هست که قبلا هم کانال یوتیوب و لایوهای دیگرشون رو معرفی کردم مخصوصا وقتی دورههای عملی دانشگاهای کانادا رو درس میدادند.
یک سری ویدئو دارند توی یوتیوب قرار میدهند درمورد
Youtube Link
دیدن آموزشهای ایشون همیشه برام لذت بخش بوده؛ بسیار روان و ساده توضیح میدهند (مناسب برای شروع و درک عمیق مطالب) طوری که نمیشه مطلبی رو ایشون توضیح بدند و کسی متوجه نشه.
همیشه هم مطالب رو رایگان در اختیار دیگران میگذارند.
توصیه میکنم اگر به این موضوعات علاقه دارید حتما ویدئوهای یوتیوب ایشون رو ببینید.
یک سری ویدئو دارند توی یوتیوب قرار میدهند درمورد
LLM
ها که مقدماتی هم هست (بخش سوم)Youtube Link
دیدن آموزشهای ایشون همیشه برام لذت بخش بوده؛ بسیار روان و ساده توضیح میدهند (مناسب برای شروع و درک عمیق مطالب) طوری که نمیشه مطلبی رو ایشون توضیح بدند و کسی متوجه نشه.
همیشه هم مطالب رو رایگان در اختیار دیگران میگذارند.
توصیه میکنم اگر به این موضوعات علاقه دارید حتما ویدئوهای یوتیوب ایشون رو ببینید.
YouTube
Part 03- Review on Large Language Models (LLMs)- AI for Business Insight - In Persian
In this video, Part 03 of a series reviewing applied machine learning, with a particular focus on large language models, we will explore key concepts and practical applications. The target audience includes anyone interested in understanding and using LLMs…
دستاوردهای یادگیری عمیق(InTec)
من اینجا همهی آن چیز که برای deep learning لازمه رو یک رودمپ کردم؛ از بهترین دورههای دنیا که اتفاقاً همه هم رایگان هستند.
یکی از اعضای کانال، اشاره داشتند که راجب
اما چیزی نگفتم و کاملاً هم حق دارند.
اما قبلش :
توی ۱۰ سالی که
Image Processing
فقط چندتا تکنیک نرمال نیست که با یک دوره در بیاد، نیاز به خلاقیت داره برای همین هم من منبع خوبی توش پیدا نکردم.
( همین بحث برای پردازش متن و سیگنال هم هست )
اما توی این همه سال همیشه یک دوره رو به نیروهای جونیور خودم معرفی میکردم (اینم رایگان) که حداقل ببینند هر تکنیک چه تاثیری روی تصویر خواهد داشت.
Youtube Channel
حتماً دورههای این کانال رو ببینید.
در نهایت آیا میدونید ۹۰٪ پستها بدون ذکر منبع توی توییتر و لینکدین بصورت لغت به لغت و بهنام صاحب اکانت پخش میشه ؟
نکتهای ندارم فقط خواستم ببینم میدونید یا خیر؟
۹۰٪ وقتا توی لینکدین دارم تجربیات خودم رو زیر یک اکانت دیگه لایک میکنم.
یکی از اعضای کانال، اشاره داشتند که راجب
Image Processing
اما چیزی نگفتم و کاملاً هم حق دارند.
اما قبلش :
توی ۱۰ سالی که
Image
کار کردم هیچ موقع یک کتاب یا یک دوره مخصوص پردازش تصویر که شامل همه چیز باشه ندیدم و و احتمال ۹۹٪ هم نخواهم دید.Image Processing
فقط چندتا تکنیک نرمال نیست که با یک دوره در بیاد، نیاز به خلاقیت داره برای همین هم من منبع خوبی توش پیدا نکردم.
( همین بحث برای پردازش متن و سیگنال هم هست )
اما توی این همه سال همیشه یک دوره رو به نیروهای جونیور خودم معرفی میکردم (اینم رایگان) که حداقل ببینند هر تکنیک چه تاثیری روی تصویر خواهد داشت.
Youtube Channel
حتماً دورههای این کانال رو ببینید.
در نهایت آیا میدونید ۹۰٪ پستها بدون ذکر منبع توی توییتر و لینکدین بصورت لغت به لغت و بهنام صاحب اکانت پخش میشه ؟
نکتهای ندارم فقط خواستم ببینم میدونید یا خیر؟
۹۰٪ وقتا توی لینکدین دارم تجربیات خودم رو زیر یک اکانت دیگه لایک میکنم.
YouTube
DigitalSreeni
Welcome to my Python coding channel! Here, I'll teach you everything from the very basics to advanced topics in machine learning and deep learning. I'll focus a lot on image processing and other relevant topics.
How to cite my work?
YouTube video:
The general…
How to cite my work?
YouTube video:
The general…
Please open Telegram to view this post
VIEW IN TELEGRAM
اینا قوی نیستند ما ضعیف هستیم.
سمت راست رو نقی :
۱- ۱۷ روز اعتصاب غذا، نه لاغر شد نه ضعف داشت نه هیچ
۲- تازه چندسال پیش وضعیت کلیهاش وخیم بود و داشت از دست میداد
سمت چپ توماج :
۱- پاهاش رو شکستن
۲- چشمش داشت کور میشد
۳- بقول خودش انقدر زدنش که همه اعضای بدنش به مشکل خورد.
(فقط زرنگی کرد، دستاشو گرفت جلو سر و صورت)
هیچی دیگه جفتشون هم فردا صبحش پا شدند رفتن دور دور.
خلاصه ماها ضعیفیم، اینا قوی نیستند.
این داستان، #توله_مجاهد و دوستانش (افسانه دروغهای زیبا)
سمت راست رو نقی :
۱- ۱۷ روز اعتصاب غذا، نه لاغر شد نه ضعف داشت نه هیچ
۲- تازه چندسال پیش وضعیت کلیهاش وخیم بود و داشت از دست میداد
سمت چپ توماج :
۱- پاهاش رو شکستن
۲- چشمش داشت کور میشد
۳- بقول خودش انقدر زدنش که همه اعضای بدنش به مشکل خورد.
(فقط زرنگی کرد، دستاشو گرفت جلو سر و صورت)
هیچی دیگه جفتشون هم فردا صبحش پا شدند رفتن دور دور.
خلاصه ماها ضعیفیم، اینا قوی نیستند.
این داستان، #توله_مجاهد و دوستانش (افسانه دروغهای زیبا)
تو زندگیم ۲ تا چیز رو ندیدم :
۱- جنگ جهانی
۲- سقوط دیکتاتور
خدارو شکر دومی رو شاهدش هستم و اولی رو نمیبینم🌹 🌹
۱- جنگ جهانی
۲- سقوط دیکتاتور
خدارو شکر دومی رو شاهدش هستم و اولی رو نمیبینم
Please open Telegram to view this post
VIEW IN TELEGRAM
بنظرم
بهتر از
راستی
LCM
بهتر از
LLM
جواب خواهد داد برای تعداد زیادی از تسکها راستی
LCM: Large Concept Model
دستاوردهای یادگیری عمیق(InTec)
تو زندگیم ۲ تا چیز رو ندیدم : ۱- جنگ جهانی ۲- سقوط دیکتاتور خدارو شکر دومی رو شاهدش هستم و اولی رو نمیبینم 🌹 🌹
میگن پول سوریه ۴۵٪ رشد داشته 🤔
تو همین چند روز 🤯
سقوط دیکتاتور برکت داره؛ برکت 💹
تو همین چند روز 🤯
سقوط دیکتاتور برکت داره؛ برکت 💹
Forwarded from Python Hints
هلوکاست ایرانی
یک زمانی شهردار تهران رو بخاطر ترافیک تهران اعدام کردند.
آخوند جز ویرانی، برای ایران دستاورد نداشت.
یک زمانی شهردار تهران رو بخاطر ترافیک تهران اعدام کردند.
آخوند جز ویرانی، برای ایران دستاورد نداشت.
Forwarded from RandRng
مدل خودشون:
بیغیرت، اون مسئولیه که داره اینو القا میکنه که
حدود ۸ میلیون خمینی فدای ۱۰۰ تا فرانکلین
هر ۱۰۰ دلار حدوداً ۸ میلیون تومان
بیغیرت، اون مسئولیه که داره اینو القا میکنه که
حدود ۸ میلیون خمینی فدای ۱۰۰ تا فرانکلین
هر ۱۰۰ دلار حدوداً ۸ میلیون تومان
مدل کم حجم ولی خروجی خیره کننده :
Text 2 Speech
۸۲ میلیون پارامتر، واقعاً توی رنج پارامترهای این روزا خیلی عجیب هست.
یادمه زمانی که Inception v3 رکورد ImageNet رو زد همه از تعداد پارامترهاش شکه شدیم بنظرتون چقدر بود ؟
۲۳ میلیون (ترین) ولی اون زمان بیش از حد زیاد بود.
Text 2 Speech
۸۲ میلیون پارامتر، واقعاً توی رنج پارامترهای این روزا خیلی عجیب هست.
یادمه زمانی که Inception v3 رکورد ImageNet رو زد همه از تعداد پارامترهاش شکه شدیم بنظرتون چقدر بود ؟
۲۳ میلیون (ترین) ولی اون زمان بیش از حد زیاد بود.
huggingface.co
hexgrad/Kokoro-82M · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
کل یوتیوب پر شده از این مقاله :
https://arxiv.org/pdf/2501.00663
و تقریبا تمام دوستان دارند در مورد
Transformers v2.0
صحبت میکنند.
میشه بازم گوگل خالق و باعث انقلاب دیگری باشه یا این هم یک ترند تبلیغاتی دیگر هست ؟
https://arxiv.org/pdf/2501.00663
و تقریبا تمام دوستان دارند در مورد
Transformers v2.0
صحبت میکنند.
میشه بازم گوگل خالق و باعث انقلاب دیگری باشه یا این هم یک ترند تبلیغاتی دیگر هست ؟