Telegram Web Link
حجم دیتای عکسی که chatgpt تو این چندروز گرفت خیلی عجیب و غریب هست.

بدتر ازون دیتای بیومتریک چهره، که با فیچر ساخت عکس پرسنلی به دست آورد.

این فیچر قبلاً توسط مدل‌ها و اپلیکیشن‌های مختلف ارائه شده بود و چیز جدیدی نبود، اما حجم دیتایی که openai بدست آورد ....


برای نتایج بهتر توضیح داده که عکس روبرو و چپ و راست صورت رو بدید، اتفاقی که آمریکایی‌ها چندسال قبل بخاطرش Sony رو محکوم کردند که چرا دیتاهای مربوط رو برای پردازش سمت سرور می‌فرسته (سونی برای تیون کردن هدست این قابلیت رو اضافه کرده بود) طوری که حذف و بعد بصورت لوکال اضافه شد.


بازم میگم شرکت چینی و آمریکایی نداره، توی استفاده از این ابزارها بیشتر مراقب باشید.
یاد پرونده اسنودن بیوفتید 👌
وقتی میای بخوابی، یادت میاد

Llama4
منتشر می‌شه، هیچی دیگه منتشر شد.

پ.ن : مهمترین فیچر این مدل
10m context window
بالاخره Grok نسخه اندروید هم منتشر شد.
اگر یک مدل خوب در حد O1, O3 خواستید.
DeepCoder
نتایج خوبی رو نشون میده.

این مدل ۱۴ میلیارد پارامتر داره.
Grok-3-mini

روی reasoning leaderboard های خصوصی (ولی معروف) نتایج بهتری نسبت به تمام مدل‌های دیگه حتی Grok3 نشون داده.

خیلی عجیب هست.
بیش از نصف همکارام رو طرفدار vim (بخصوص neovim کردم)
این کانفیگ خیلی ساده ولی دارای همه چیزهایی هست که نیار دارید؛ برای توسعه Rust, Python, Lua

Github Link

حالا چرا آدما طرفدار vim می‌شوند کلا ؟
۱- راحتی؛ کاری نیست به ذهن شما برسه (برای راحتی توسعه کد) و توی vim براش راهکاری نباشه. مثال :
یک تغییر تکراری می‌خوای انجام بدی ؟ ار ماکرو استفاده کن؛ تغییراتت رو رکورد کن و اجرا کن
چند کپی آخری که انجام دادی توی کدهات رو لازم داری ؟ بصورت دیفالت ۹ تای آخر رو توی رجیستر داری و به راحتی می‌تونی برای خودت رجیستر به تعداد حروف انگلیسی تعریف کنی.
میخوای به یکی از کپی‌های ذخیره شده چیزی اضافه کنی ؟ همون حرف انگلیسی که ازش استفاده کردی رو با شیفت بگیر
و ....
چندتا مثال بالا رو چون یکی از همکارام الان پرسید یادم بود.

۲- حواس پرتی نداره؛ محیط انقدر مینیمال و قدرت مند هست که نیازی نیست از داخلش خارج بشی و هرچیزی که نیاز داری حداکثر با چند حرف تایپ کردن دمه دستت هست؛ اگر موقع کد زدن حواستون خیلی پرت میشه به ابزارها و ... بسیار عالی هست.

۳- توی این محیط هیچ نیازی به موس ندارید؛ به محض تمرین و یادگیری متوجه می‌شید استفاده از موس بسیار شمارو کند می‌کنه

۴- همه جا در دسترس هست (سرور-نبلت و حتی گوشی؛ تنظیمات من روی Android رو می‌تونی توی @per3onal ببینید) و با یک git clone ادیتور شما برای توسعه آماده هست.

۵- فرقی نمی‌کنه code base پروژه چقدر باشه؛ هیچوقت کند نمی‌شه؛ سرعت لود تنظیمات من روی cpu های نسل جدید کمتر از 120 میلی‌ثانیه هست و برای نسل قدیمی‌تر کمتر از 200 میلی ثانیه.


پیشنهاد می‌کنم حتما یکبار امتحان کنید؛ اگر فیچری به ذهنتون رسید که بنظرتون توی این تنظیمات نیست بهم اطلاع بدید اضافه می‌کنم.
دیدید ۹۰٪ سوالات اینه که؛
- کتاب X یا Y کدوم رو بخونم ؟
+ هردو
- خیلی زیاده
+ یکیش رو بخون، بعد اون یکی رو skim کن
- راه دیگه نداره
+ تغییر رشته بده

LinkedIn Post

این پست، برای پروژه‌ اون موقع من هست.
دوستان بدون تعارف می‌گم توی کار ما shortcut وجود نداره بجای اینکه سر پروژه یا مصاحبه خفت بشید و برگردید از صفر خوندن یکبار راه درست رو برید.
۱ هفته‌اس دارم نسخه جدید ChatGPT رو روی کد بیس بیش از ۱۵۰۰ خط تست می‌کنم.

مشکلات :
۱- خیلی زود context رو فراموش می‌کنه.
۲- خیلی تغییر syntax داره و استانداردهای پروژه رو عوض می‌کنه.
۳- خیلی وقتا حتی توی context های کوچیک فراموش می‌کنه که یک متغییر یا تابع یا ... جای دیگری تعریف شده.

مزیت:
اگر داکیومنت کتابخونه، خیلی جدید باشه؛ می‌تونید لینک رو بهش بدید و بعد ازش port کردن کدها رو بخواید.
توی این مورد عملکرد فوق‌العاده‌ای داره

(فکر کنم بخاطر همین هم ماکروسافت برای پورت کردن کدها به Rust از مدل‌های هوش مصنوعی بر پایه chatgpt استفاده می‌کنه)

اما ۳ مورد دیگه رو هم تست کردم همزمان :

Grok3, Gemini2.5 Pro, Deepseek

مورد اول، grok بدون شک بسیار عالی جواب میده؛ بخصوص وقتی پرامپت‌ هارو کمی جزئی بهش میدید. همواره رنک اول من هست.

مورد دوم، gemini؛ نمی‌دونم تیم deepmind چیکار کرد ولی بنظر میاد بعد از کار روی پروتئین و دستاوردهای اون سمت تازه فرصت کردند منابع کافی در اختیار اینکار بذارند.
خروجیش اصلا قابل مقایسه با نسخه‌های قبلی نیست.
ولی بعد از چند هفته از experimental گذشتن، دیگه روی کدهای بزرگ خیلی زود بسته میشه دسترسی نهایتاً ۳ تا پرامپت و بعد از اون باید خرید اکانت بزنم.
که خب با توجه به اینکه ۹۹٪ مواقع 403 میگیرم با vpn برام ارزش خرید نداره.

در نهایت deepseek همیشه جواب میده (اگر سرورهاش شلوغ نباشه) محدودیت هم ندارم با ip ایران راحت وصل میشه و سرعت خوبی هم داره.
اما consistency بین پرامپت‌ها نداره و ممکنه یک راهکار رو با مثلاً regex بهتون بده و برای تابع بعدی از Trie استفاده کنه و ...

برای همین خیلی وقتا باید بهش بگم دقیقاً چی نیاز هست.

مواردی مثل claude, .... رو هم تست نمی‌کنم.

این تست‌هارو کامل روی نسخه‌های رایگان انجام دادم که همه دوستان هم بتونند استفاده کنند.

شاید باورتون نشه، اما برای یکی که می‌دونه چیکار داره می‌کنه، حتی نیازی به خرید هم نمی‌بینم دیگه، درنهایت نکته آخر اینکه :

اگر پرامپت‌های کوچیک و ساده دارید هم سراغ chatgpt نرید؛

Duckduckgo ai

بدون هیچ محدودیتی دسترسی به مدل‌های سبک شرکت‌های مختلف رو کامل رایگان بهتون میده و history رو هم فقط روی سیستم خودتون نگهداری می‌کنه.

بیشترین استفاده من پس به این ترتیب هست :
Duckduckgo
Grok3
Deepseek
Chatgpt (if search needed)

Gemini2.5 pro (review final result)


آخری خیلی جوابای خوبی میده ولی خب محدودیتش توی ۲ هفته اخیر خیلی زیاد شده برای همین مجبورم کمتر استفاده کنم.




پینوشت:
پرامپت برای همه مدل‌ها یکسان داده می‌شد. کپی و پیست بسیار داشتم.
کاش یک سالی هم بیاد که توش اصلاً لازم نشه بهم #تسلیت بگیم.

اصلاً یادمون بره ی روزی توی این مملکت، آخوندایی که جز خوندن :
احکام ریدن و جهتش و ...
شعور و فهم چیز دیگه‌ای نداشتند، مسئولیت داشتند.

یعنی میشه؟ تا ما زنده‌ایم !
یک سال وقتی تموم میشه، بیام اینجا بزنم:

بچه‌ها دقت کردید، امسال لازم نشد بهم دیگه تسلیت بگیم !!

من واسه اون روز می‌جنگم.

#بندرعباس
Forwarded from RandRng
این ابزار خیلی باحال هست؛
بجای اینکه شما توی سورس کد دنبال این بگردید که چه خبر (معمولا کار زمانبری هست)

براتون سورس کد رو خلاصه می‌کنه و بهتون میگه داخلش چه خبره؛ چندتا سناریویی که خیلی بدرد میخوره :

۱- تازه وارد یک تیم شدید و سورس کد کاملا جدید هست.
۲- برای یادگیری میخوای سورس کد یک پروژه گیت‌هاب یا ... رو بخونید.
۳- میخواید شروع کنید روی یک پروژه اپن سورس فیچر اضافه کردن ولی قبلش نیاز دارید استانداردهای کد زدن و بخش‌های مختلف کدهای اون تیم رو درک کردن.

Turn Code Base into Easy Tutorial
دستاوردهای یادگیری عمیق(InTec)
۱ هفته‌اس دارم نسخه جدید ChatGPT رو روی کد بیس بیش از ۱۵۰۰ خط تست می‌کنم. مشکلات : ۱- خیلی زود context رو فراموش می‌کنه. ۲- خیلی تغییر syntax داره و استانداردهای پروژه رو عوض می‌کنه. ۳- خیلی وقتا حتی توی context های کوچیک فراموش می‌کنه که یک متغییر یا تابع…
https://chat.qwen.ai

نسخه Qwen3 هم منتشر شده؛ تا خودم تست نمی‌کردم نمی‌تونستم بگم عالیه یا نه پس همین کار رو کردم.

درگیر جوگیری‌ها نمی‌شم و مستقیم میرم سر اصل مطلب؛ برید نگاه کنید همه مدل رو با
Gemini2.5 Pro, Grok3, ...
مقایسه می‌کنند.

من همون پرامپت‌های چت قبلی رو بهش دادم و شروع کردم راجب اون موضوع باهاش چت کردن

ولی اصلاً قابل مقایسه با Gemini 2.5Pro نیست؛ گوگل واقعاً کار راه بندازه و جاهایی هم که خنگ میزنه، Grok3 رو بذارید کنار دستتون تا بگه راهکار چیه.

ولی این مدل اصلا در حد هیچکدوم نیست، البته موضوع بحث من Coding هست فقط و فقط و اونم نه کدهای بچه بازی که ۵۰۰ تا سمپل مختلف براش توی وب ریخته باشه.

ولی بطور خلاصه ارزش این جو دادن‌هارو نداره (با اینکه مدل خیلی خوبی هست) و همچنان شخصاً روی استک مدل‌های قبلی هستم.
Deepseek prover v2
بنظر جالب میادا
Forwarded from RandRng
Please open Telegram to view this post
VIEW IN TELEGRAM
حتما نگاهی به این بلاگ بندازید اگر علاقه داشتید مقالش رو هم بخونید؛ دستاورد جدیدی از Google Deep Mind :

AlphaEvolve

چیزی که من از دیدنش لذت بردم؛ پیدا کردن ضرب ماتریسی بهینه تر بود:

معروفترینش ضرب <4, 4> بوده که از ۴۹ تا به ۴۸ تا کاهش داده یا مثلا راهکاری برای ضرب <7, 4, 3> پیدا کرده که از ۶۶ تا به ۶۳ مورد رسیده.
بطورکلی تو اکثر حالات یا راهکاری که ارائه داده یه اندازه راهکارهای موجود بهینه هست یا اینکه راهکار بهتری رو ارائه داده.

و این تازه شروع ماجرا هست؛ پای LLM به حل مسائل ریاضی هم باز شد.
سری GPU های جدید Intel که داره معرفی می‌شه یا معرفی شده؛ بسیار بسیار مناسب کسایی هست که می‌خوان AI کار کنند

تمرکز اصلی Intel روی مهندسین و شرکت‌های هوش مصنوعی بوده؛ حداقل اینطور بنظر می‌رسه،
و با توجه به اختلاف قیمت gpu های اینتل نسبت به nvidia اگر همون فرمول قبلی باشه؛ GPU های 48 گیگ رو شاید ارزونتر از 5090 هم بشه پیدا کرد.


چندسال پیش راجب اولین سری ARC گفتم و گفتم بنظر میاد می‌خواد انحصار Nvidia توی مارکت هوش مصنوعی رو بشکونه؛ هیچوقت فکر نمی‌کنم مارکت Gaming برای Intel جدی بوده باشه ولی خوبیش اینه که Bug در بیار هست، بخش گیمینگ
🌐 انجمن علمی هوش مصنوعی دانشگاه صنعتی شریف برگزار می‌کند:

آغاز ثبت‌نام هکاتون LLM Agents

☑️ اولین دوره‌ی هکاتون عامل‌های هوشمند مدل‌های زبانی بزرگ دانشگاه صنعتی شریف به همت انجمن علمی هوش مصنوعی و با همکاری انجمن IEEE و آزمایشگاه RIML.

👥 با آموزش اساتید دانشگاه شریف و MIT، با LLM Agents آشنا شو و اولین محصولت با مدل‌های زبانی بزرگ رو آماده کن.

🎁 بیش از ۱۰۰ میلیون تومان جایزه‌ی نقدی برای تیم‌های برتر
تا سقف ۲ میلیارد تومان کمک بلاعوض و سرمایه‌گذاری بر روی تیم‌ها و ایده‌های برتر توسط حامیان
🏆همراه با گواهی حضور در هکاتون از طرف IEEE شریف

📅 روزهای برگزاری:
    ۷ خردادماه به صورت مجازی
    ۸ و ۹ خردادماه به صورت حضوری

مهلت ثبت‌نام تا ۵ خردادماه است و این زمان تمدید نخواهد شد.
👥 شرکت در هکاتون به صورت تیم‌های ۲ الی ۶ نفره است.

✍️ برای ثبت‌نام و کسب اطلاعات بیشتر، به وب‌سایت رویداد مراجعه کنید.

🚀 @ai_sharif💠🌍 Website
💼 LinkedIn    💠👤 Support
Please open Telegram to view this post
VIEW IN TELEGRAM
یک سری سوال پرسیدید، من بخش‌های مربوط به خودم رو پاسخ میدم :

بنده در جریان جزئیات نیستم، جایزه و حمایت مالی و ...

برای بحث آموزش هم، روز آموزش ۴ شنبه هست و مجازی و متأسفانه چون ۴ شنبه‌ها روزهای شلوغ بنده هست، توی این بخش هم نتونستم باشم؛ اما اساتید بزرگی هستند.

روزهای ۵ شنبه و جمعه (شروع بخش کد زدن مسابقه) بنده حضور خواهم داشت.

بیشترین هدف هم پیدا کردن دوستان خلاق و باسواد هست؛ برای همکاری یا معرفی به شرکت‌هایی که کار می‌کنم یا کار کردم.

چون توی این هکاتون؛ خلاقیت، نحوه کد زدن، رفتار تحت فشار، سرعت عمل و .... همرو میشه توی ۲ روز دید برای همین بسیار عالی خواهد بود برای جذب همکار.

اگر سوالات دیگری دارید؛ لطفاً به خود بچه‌های انجمن رجوع کنید یا به اکانت support پیام بدید (پایین کپشن پوستر وجود داره)
2025/06/30 14:18:07
Back to Top
HTML Embed Code: