Telegram Web Link
دستاوردهای یادگیری عمیق(InTec)
اینو یکی از بچه‌های توی گروه فرستاد؛ من هم که عصبی از سخنرانی‌های احمقانه این مدت بعضی افراد بی‌دانش و بی‌سواد راجب هوش‌مصنوعی خیلی بد ریپلای زدم راجب سواد نویسنده (نمی‌دونم کی هست و افتخارم می‌کنم که نمی‌دونم کی هست) حالا اومدم بپرسم بین شما کسی هست که تجربه…
در ادامه من می‌فهمم ها ....

سرتون رو از تو ماتحت هوش مصنوعی بکشید بیرون.
چون می‌دونید API چیه دلیل نمیشه رو هرچیزی نظر بدید.

شدیداً می‌خوام بترکونم هرکی شر و ور می‌گه ...
چون کثافت زده شده به دستاوردهای بچه‌های متخصص با این حرفهای دوزاری.
👍945
-210672_temp.jpg
15.9 KB
بنظرم بیش از حد بهم بی‌اعتماد شده
👍496
تاثیر deepseek رو روی قیمتهای جدید o3-mini میبینید ؟

قدرت رقابت و opensource اینطوری هست.

توی دنیای opensource همیشه کاربر برنده‌اس.
63👍44
Gemini Flash 2.0


رو داشتیم تست می‌کردیم برای بکاپ یک پروژه؛ اصل کار روی deepseek هست و اگر deepseek از دور خارج بشه درخواست برای Gemini میره و بدون تعارف بگم.
خیلی خوبه این مدل وقتی مقایسه قیمت و کارایی رو انجام می‌دید. مدل‌های chatgpt به طرز احمقانه‌ای گرون هستند توی بازار فعلی و البته Claude از اون بدتر.
هرچند o3-mini مقداری قیمت رو نرمالایز کرده ولی دقت و سرعت Deepseek R1, Gemini 2.0 رو بهمون نداده توی کاربردهای ما.

پینوشت :
قیمت Gemini 2.0 Flash برای ۱ میلیون توکن (تنها مدل با این context size هست)
input: $0.1
output: $0.4

قیمتش جوری هست که دیگه محدودیت روی history هم نمی‌ذاریم حقیقتش (تو تست‌ها که نذاشتیم)
👍465
ویژگی Deep Research مربوط به CloseAI رو حتما شنیدید راجبش و حتما هم میدونید ایده و ... اش از گوگل اومد نه Open/CloseAI اما بخاطر هزینه‌های بالایی که داره بصرفه نیست.

پس جایگزین Open Source اش رو بهتون معرفی می‌کنم:
Open Deep Research


پ.ن: برای کسایی که دنبال فرصت برای contribution بودند؛ پیشنهاد می‌کنم روی این پروژه Ollama رو اضافه کنید (مدل‌هایی مثل Deepseek r1 روی Ollama اما) قطعا کار سختی هم نیست.
من کل پروژه رو نخوندم ولی چندروز قبل که چک کردم ollama رو نداشت.
👍117
دستاوردهای یادگیری عمیق(InTec)
Gemini Flash 2.0 رو داشتیم تست می‌کردیم برای بکاپ یک پروژه؛ اصل کار روی deepseek هست و اگر deepseek از دور خارج بشه درخواست برای Gemini میره و بدون تعارف بگم. خیلی خوبه این مدل وقتی مقایسه قیمت و کارایی رو انجام می‌دید. مدل‌های chatgpt به طرز احمقانه‌ای گرون…
امروز کلا برای کارهای شخصی هم روی این مدل بودم؛ بیش از حد خوبه.
شرایط کار امروز من روی Rust بود و البته crate های جدید؛ مثلا نویسنده cargo-watch گفته که دیگه فرصت بهبود کدها رو نداره و این پیکج رو آرشیو کرده.

یک crate دیگه معرفی شده به اسم bacon و من فرصت خوندن داکیومنتش رو نداشتم برای همین از هر ۳ مدل Deepseek r1, chatgpt, Gemini 2 پرسیدم و از هر ۳ مدل خواستم که بهم فایل bacon.toml شامل تنظیمات کامندها رو بدهند.

فقط Gemini گفت که امکان کاری که می‌خوام انجام بدم وجود نداره و باید اون رو توی bash انجام بدم.
مدل chatgpt جواب اشتباه رو تکرار می‌کرد و deepseek r1 هم بدون اینکه بگه bacon.toml این امکان رو نداره فقط هی کامند جایگزین رو معرفی میکرد.

توی موارد دیگه هم همین مشکلات بود؛ مثلا توی ویژگی‌های جدید بعضی پکیج‌های پایتون و ابزارهایی که توی ورژن‌های اخیر تغییرات زیادی خورده.

تا اینجای کار Gemini 2.0 رو با توجه به سرعت فوق‌العاده‌اش بعنوان مدل‌ کمکی روی Rust استفاده خواهم کرد و برای مطالب و crate های جدید.
مدل deepseek r1 رو برای تمیزکردن کدها و peer-review و مطالب کلی‌تر.

متاسفانه دیگه دلیل خاصی برای استفاده از chatgpt نمی‌بینم؛ البته سم آلتمن قول سوپرایز داده (هنوز ۴۸ ساعت مونده فکر کنم) منتظر اون هستم.

پینوشت: gemini برای توضیح کدهای آموزشی و البته آموزش دادن مفاهیم با مثال هم خیلی عالیه؛ بازم می‌گم من روی Rust بیشتر کار کردم امروز.
👍43
عجب مدلی؛ لذت بردم برای ۲۷ میلیارد پارامتر.

deepseek-ai/deepseek-vl2
30
Forwarded from RandRng
با صحبت امروز پزشکیان
من روی دلار ۱۱۰,۰۰۰ تومان دارم می‌بندم.

آخر سال تمام قراردادهای همکاری داخلیم تموم می‌شه و دستمزد جدید رو بر این اساس می‌گیرم، البته که دارم فرض می‌کنم دلار تا چندروز آینده به ۱۰۰,۰۰۰ تومان برسه و مدتی همین حوالی باشه‌.

اگر دلار واقعاً به ۱۱۰,۰۰۰ تومان برسه (که اصلاً بعید نیست)
قراردادهای سال بعدی رو روی دلار ۱۳۰,۰۰۰ تومان می‌بندم.

به ۲ دلیل این رو میگم:

۱- بچه‌های سنیور گفتند چطوری دستمزد بدیم برای سال بعد.

۲- چند نفر دعوت به همکاری کردن، گفتم حدود دستمزد رو بدوند که وقت هم رو نگیریم.

دستمزد فعلی رو بر اساس دلار ۶۰,۰۰۰ تومان بسته بودم سال قبل که خدا بیامرزش.
👍491
یک مدل دیگه از دل چین؛ من برای توسعه کدهای Rust بهش رسیدم و تقریبا از ۲-۳ ساعت پیش دارم ازش استفاده می‌کنم:

توی جواب‌های اولیه به مراتب عملکرد بهتری از Chatgpt داره و بر خلاف Deepseek زمان زیادی برای think نیاز نداره و با همه اینا جواباش از هر دو بهتر هست.
دیتاهاش به مراتب آپدیت‌تر هست؛ حداقل توی Rust اینطوریه؛ تا جایی که فکر می‌کنم حتما قابلیت search داره ولی خب جواباش خیلی سریع بر می‌گرده.

تستش کنید:
KIMI
بازم می‌گم چین و آمریکا و فرانسه نداره دیتاهای مهم رو برای این مدل‌ها نفرستید.
👍51
دیدم بعضی مدیرای ایرانی می‌گن ماهم کار DeepSeek رو بکنیم روی مدل‌های کوچکتر که با هزینه کمتر تموم بشه ولی مدل فارسی داشته باشیم؛ گفتم چندتا مورد رو بگم :

۱- مدل پایه Deepseek, براساس Llama3.1, Qwen2.5 هست که هزینه کمی نداشته آماده کردنش و توی فارسی هم عالی نیستند.

۲- تیم Deepseek حداقل ۲ سال هست که دارند روی موضوعات AI تحقیق می‌کنند.

۳- این تیم به بیش از 50هزار GPU دسترسی دارند (حداقل A100 80Gig)

۴- مدل بزرگ این شرکت (چیزی که اجرا هست) نیاز به DGX H100 برای اجرا داره؛ اونم در حد تعداد محدود برای response.

باقیش هم هیچی.
خلاصه که قبل از حرف زدن، فکر کنید.
👍10012
به لطف ۴۶ سال حضور آخوندای حرومزاده
دیگه حتی تهران - پایتخت ایران هم امن نیست

#امیرمحمد_خالقی دانشجوی ۱۹ ساله دانشگاه تهران

امنیت هم نداریم، گوه نخورید.
👍18735
دستاوردهای یادگیری عمیق(InTec)
به لطف ۴۶ سال حضور آخوندای حرومزاده دیگه حتی تهران - پایتخت ایران هم امن نیست #امیرمحمد_خالقی دانشجوی ۱۹ ساله دانشگاه تهران امنیت هم نداریم، گوه نخورید.
برای عزیزان دانشجو

فضای بسته دانشگاه (اطلاعات، هویت و ... شما دستشون هست) واقعاً جای اعتراض نیست.
نگذارید اتفاق ۱۴۰۱ دانشگاه شریف تکرار بشه.

حتی به وقت اعتراض، سلامت شما مهمترین موضوع هست، خواهش می‌کنم توی فضای بسته اعتراض نکنید.

این روزها به همه‌ی ما سخت می‌گذره.

سلامت باشید 🌹🙏
115👍38
لیست رنج سنی افرادی که کمک‌های مالی بیمه‌ای دریافت می‌کنند.

این لیست توسط دپارتمان DOGE:
Department Of Government Efficiency

منتشر شده، و شما شاهد این موضوع هستید که نزدیک به ۲۰ میلیون بالای ۱۰۰ سال وجود داره و حتی
۱ نفر بالای ۲۴۰ سال
۱ نفر هم بالای ۳۶۰ سال

اهمیت داده و وجود دپارتمان‌های نظارتی (البته تو ایران ناظر هم زیر دسته ولی خب)
👍394
چند روز قبل Elon Musk یک توییت زد که، Grok-3 بهترین AI ایی خواد بود که دیدید.

همینطوری که ملت در حالی خوشگذرانی با Gemini 2.0 Flash Thinking بودند (اتفاقاً خیلی از شرکت‌ها هم رفتند سراغش بخصوص اونایی که در زمینه RAG کار می‌کنند)

نسخه Early Release مدل Grok-3 منتشر شد، و رتبه اول رو تا اینجا کار به خودش اختصاص داده
توی اکثر بنچمارک‌های معروف مثل lmarena حتی اختلاف با مدل دوم حدود 20 امتیاز هست.

نظر کاربرا راجب این مدل هم بسیار مثبت هست.


پی‌نوشت‌: توی تمام زمینه‌های lmarena رتبه اول رو داره این مدل (یادم رفت بگم)
👍643
Claude Sonnet 3.7
رو داشتیم با یکی از همکارا تست می‌کردیم؛ اگر نگم برنامه‌نویس‌ها

حداقلش دیگه کدرها کارشون ۱۰۰٪ سخت خواهد بود برای شغل پیدا کردن.
فقط کافیه ۴ ماه صبر کنیم تا open source ایده رو پیاده‌سازی کنه و دیگه کسی coder استخدام نخواهد کرد.

اگر دسترسی دارید حتماً قابلیت برنامه‌نویسی‌اش رو تست کنید و لذت ببرید.

این پست و پست بعدیش رو هم بخونید؛ من حداقل ۲ سال هست که به نیروهای جونیور دارم هشدار می‌دم:

https://www.tg-me.com/pyHints/726
👍324
دستاوردهای یادگیری عمیق(InTec)
Claude Sonnet 3.7 رو داشتیم با یکی از همکارا تست می‌کردیم؛ اگر نگم برنامه‌نویس‌ها حداقلش دیگه کدرها کارشون ۱۰۰٪ سخت خواهد بود برای شغل پیدا کردن. فقط کافیه ۴ ماه صبر کنیم تا open source ایده رو پیاده‌سازی کنه و دیگه کسی coder استخدام نخواهد کرد. اگر دسترسی…
چون زیاد سوال شد، زدید که دیگه سراغ این شغل نیایم یعنی ؟

جواب :
خیر منظور من این نبود، منظور اینه که باید درست یاد بگیرید.
کدر شدن : یعنی سینتکس زبانی رو بلد بودن
دولوپر شدن : یعنی جزییات اجرای کد و ... رو هم بدونید اینکه اون زیر داره چه اتفاقاتی میوفته

بر خلاف قدیم که آدما از هر رشته و با هر پس زمینه و توی هر سنی اگر یک مقدار وقت و انرژی می‌ذاشتند وارد دنیای برنامه‌نویسی می‌شدند و با ۲ سال کار کردن و حفظ کردن (فهمیدن فرق داره) یک سری مطالب و استاندارد ها می‌تونستند خودشون رو حتی مدیور جا بزنند.

الان اوضاع فرق کرده، الان یک بچه ۱۲-۱۳ ساله می‌تونه بدون سواد برنامه‌نویسی شروع کنه کار کردن:
بصورت فیلم‌‌وار چند تا آموزش پایتون رو ببینه.
بعد هم شروع کنه به LLM ها درخواست دادن برای کد نویسی.

اکانت Andrej Karpathy (خداوندگار مهندسی و هوش مصنوعی) رو هم اگر دنبال کنید چندروز قبل و بعد از پست من به این موضوع اشاره کردند.

خوشتون بیاد یا نه، دیگه باید مفاهیم رو یاد بگیرید؛ این موج توی ایران دیرتر شروع خواهد شد ولی قطعاً شروع می‌شه.
بسیاری از شرکت‌ها درحال کوچیک شدن هستند، داخل استارتاپ‌های ایرانی که این موج شروع شده.
👍741
Forwarded from Python Hints
این موضوع خیلی‌هارو سوزوند و یک سری هم خیلی منطقی گفتند که باور ندارند همیچین اتفاقی شدنی باشه:

یک نفر توی توییتر به اسم levelsio یک توییتی زده و گفته که آقا من تو عمرم بازی نویسی انجام ندادم ولی یک شبیه‌ساز پرواز توی ۳ ساعت درست کردم و ۱۰۰٪ کد رو Grok3 برام زده (شخصا اضافه کنم: بله Grok توی این موارد از Sonnet 3.7 هم بهتره) ۸۰٪ رو همون بار اول درست زده ۲۰٪ رو مجبور شدم چندبار باهاش چک کنم؛ حالا هر Javascript, React, Vue, ... دولوپری که دوس داره یک سر به لینک این بزنه و بگه توی ۳ ساعت بدون کمک هیچکدوم از LLM/AI ها چندساعت طول می‌کشه این بازی رو بنویسه ؟

تعداد هواپیماهای قرمزی که می‌بینید؛ باقی کاربرهای داخل بازی هستند (فکر کنم چند میلیون باشه) این توییت X رو کامل بهم ریخته.

https://fly.pieter.com


بعد فرض کنید یک سنیور بازی نویسی + AI خودش یک ارتش چند نفره بازی نویسی خواهد بود ؟
فکر کنم باید زمانبندی قبلیم برای حذف کدرها (کسانی که مفاهیم رو درک نکردند) رو نصف کنم.

پ.ن: بخش درآمدزایی رو هم طرف اضافه کرده ۲۹ دلار برای پرواز با F16 و پشتیبانی از پروژه.
👍378
2025/07/12 19:32:53
Back to Top
HTML Embed Code: