Telegram Web Link
Tensorflow(@CVision)
تیم Deepseek عنوان کرده که تغییرات جزیی ایجاد کرده اما بسیاری از قابلیت های این مدل به صورت گسترده از جمله کدنویسی بهبود پیدا کرده Claude sonnet 3.7 vs Deepseek v3-0324 لیست تغییرات: https://api-docs.deepseek.com/updates
پرامپت:

یک فایل HTML واحد ایجاد کن که شامل CSS و JavaScript برای تولید یک کارت آب و هوای متحرک باشه. این کارت باید شرایط آب و هوایی زیر را با انیمیشن‌های مجزا با توجه به دمای کنونی چهار شهر تهران، تبریز، اصفهان و شیراز رو نشون بده
همه کارت‌های آب و هوا را در کنار هم نمایش بده. با توجه به توصیفات هر کدام از شهرها که در پایین مینویسیم پس زمینه هر کدام از کارت ها رو به صورت انمیشن متحرک از شهرها طراحی کن بصورتی که با فرهنگ اون شهر هماهنگ باشه:

تهران: پایتخت و بزرگترین شهر ایران، واقع در شمال کشور. تهران یک مرکز فرهنگی، اقتصادی و سیاسی مهمه و دارای جاذبه‌های تاریخی و مدرن فراوانی مانند کاخ گلستان، برج میلاد و بازار بزرگ تهران هست. این شهر در دامنه‌های جنوبی رشته کوه البرز قرار گرفته و آب و هوای متنوعی داره.

اصفهان: شهری تاریخی در مرکز ایران که به دلیل معماری زیبای اسلامی، پل‌های تاریخی و میدان نقش جهان شهرت جهانی داره. اصفهان در دوران صفویه پایتخت ایران بوده و آثار باستانی متعددی از آن دوران به جا مانده، این شهر به عنوان "نصف جهان" نیز شناخته میشه.

شیراز: شهری باستانی در جنوب ایران که به دلیل باغ‌های زیبا، مساجد تاریخی و آرامگاه شاعران نامدار ایرانی مانند حافظ و سعدی شهرت داره. شیراز در گذشته پایتخت ایران بوده و دارای فرهنگ و هنر غنیه. این شهر به "شهر شعر و ادب" نیز معروفه.

تبریز: شهری تاریخی در شمال غربی ایران که به دلیل بازار بزرگ تبریز، یکی از قدیمی‌ترین و بزرگ‌ترین بازارهای سرپوشیده جهان، شهرت دارد. تبریز در طول تاریخ نقش مهمی در تجارت و فرهنگ ایران ایفا کرده و دارای جاذبه‌های تاریخی و طبیعی متنوعی هست.
16
تصور اینکه این عکس توسط هوش مصنوعی تولید شده باشه بسیار سخته.

مدل نه تنها عکس رو با جزییات کامل تولید کرده بلکه متن نوشته شده روی وایت بورد دقیقا متن وارد شده در پرامپ هست!

اوپن ای آی پیشرفته‌ ترین مدل تولید تصویر خودش رو در GPT-4o ادغام کرد. نتیجه این کار، تولید تصاویریه که نه‌ تنها زیبان، بلکه بسیار کاربردین.

https://openai.com/index/introducing-4o-image-generation/
👍33🤯182👏2
این وسط گوگل هم
Gemini 2.5 Pro

رو معرفی می‌کنه که در بین مدل های استدلالی بالاترین امتیاز رو توی بنچ مارک های مختلف میگیره

البته یه مدل مخصوص تولید تصاویر هم منتشر کرده که کیفیت تولید تصاویرش در حد اوپن ای آی هست با این تفاوت که دیگه محدودیت تولید تصاویر ندارید.

عکس بالا رو توسط همون پرامپی که اوپن ای آی قرار داده تولید کردم

https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-thinking
🔥18👍8
مایکروسافت روش جدیدی به نام KBLaM برای اضافه کردن دانش به مدل‌ های زبانی پیشنهاد داده که نسبت به روش های پیشین بهینه تره.

توی روش‌های سنتی مثل Fine-tuning، مدلها نیاز به آموزش مجدد با داده‌ های جدید دارن. این فرآیند بسیار زمان‌ بر، پرهزینه و نیازمند منابع محاسباتی زیادی هست. KBLaM دانش رو بدون نیاز به آموزش مجدد در مدل ادغام می‌کنه، که این امر باعث صرفه‌ جویی قابل توجهی در زمان و هزینه میشه.

در روش‌های دیگه مثل Retrieval-Augmented Generation (RAG)، مدل برای پاسخ دادن به سوالات، ابتدا باید اطلاعات مرتبط رو از یه منبع خارجی بازیابی و بعد از اون اطلاعات برای تولید پاسخ استفاده کنه. این فرآیند بازیابی جداگانه می‌تونه زمانبر باشه. KBLaM با ادغام دانش در لایه‌ های attention مدل، عمل بازیابی را به صورت ضمنی و یکپارچه انجام میده و نیازی به مراحل جداگانه بازیابی نداره.

از طرفی مدل‌های زبانی که فقط بر دانش داخلی خود تکیه میکنن، ممکنه اطلاعات نادرست یا بی‌ اساس تولید کنن (اصطلاحاً توهم بزنن)، اما KBLaM با فراهم کردن دسترسی مستقیم به دانش ساختار یافته و معتبر، احتمال تولید پاسخ‌های نادرست رو کاهش میده و قابلیت اطمینان مدل رو به صورت چشمگیری افزایش میده.

توی این روش اگه اطلاعات جدیدی به پایگاه دانش اضافه شه یا اطلاعات قبلی تغییر کنن، می‌شه به راحتی دانش مدل رو با بروزرسانی حافظه خارجی KBLaM آپدیت کرد. این کار بسیار ساده‌ تر و سریع‌ تر از آموزش مجدد کل مدله!

https://www.microsoft.com/en-us/research/blog/introducing-kblam-bringing-plug-and-play-external-knowledge-to-llms/
👍262
This media is not supported in your browser
VIEW IN TELEGRAM
همین که سال نو میلادی شروع شد، اتفاق‌ ها بی‌ وقفه، یکی پس از دیگری، شروع به رخ دادن کردن، انگار واقعا وارد مراحل اولیه‌ دوران تکینگی (Singularity) شدیم!

تا پیش از این، باید ماه‌ ها منتظر می موندیم تا شاهد یه عرضه بزرگ یا یک پیشرفت چشمگیر باشیم. اما حالا، امسال، تقریبا هر دو هفته یک‌ بار، اتفاقی جریان‌ ساز و دگرگون‌کننده رخ میده.

چقدر طول می‌کشه تا این فاصله به یک هفته و بعد به سه روز کاهش پیدا کنه؟

سال ۲۰۲۶ اوضاع دیوانه‌ واری در پیشه و برای توصیف ۲۰۲۷، واقعا کلمه‌ای پیدا نمیکنم
👍17🤔1
Tensorflow(@CVision)
Alibaba launches new open-source AI model for ‘cost-effective AI agents’ https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
Media is too big
VIEW IN TELEGRAM
بعد از عرضه مدل های زبانی در روز گذشته، امروز علی بابا مدل Qwen2.5-Omni با ۷ میلیارد پارامتر رو بصورت متن باز منتشر کرد، مدلی جامع که میتونه متن، صدا، تصویر و ویدئو رو پردازش کنه.

 از قابلیت های این مدل جامع معماری "thinker-talker" هست که امکان استدلال و صحبت کردن رو به طور همزمان فراهم می‌کنه.


متفکر (Thinker): مانند مغز عمل می‌کنه. ورودی‌ های مختلف (متن، صدا، تصویر) رو پردازش و درک می‌ کنه، اطلاعات مهم رو استخراج و به صورت متن آماده می‌ کنه

گوینده (Talker): مانند دهان انسان عمل می‌ کنه، متن تولید شده توسط متفکر رو به صورت پیوسته دریافت و اونها رو به صورت کلمات گسسته به زبان میاره

در طول آموزش و استفاده، گوینده مستقیما اطلاعات مهم تولید شده توسط متفکر رو دریافت و تمام اطلاعات قبلی متفکر رو نیز به اشتراک می‌ گذاره. در نتیجه، کل معماری به عنوان یک مدل واحد و یکپارچه عمل می‌کنه و امکان آموزش و استفاده end-to-end رو فراهم می‌ کنه


جزییات معماری:
https://qwenlm.github.io/blog/qwen2.5-omni/

دمو:
https://chat.qwenlm.ai/
👍26🎉2
This media is not supported in your browser
VIEW IN TELEGRAM
این روزها که اینترنت پر از تصاویر سبک استودیو Ghibli شده، جا داره که گفت این صحنه ۴ ثانیه‌ای از جمعیت در یکی از آثار این استدیو، بیش از یک سال طول کشید تا تکمیل شه.

الان که به مدد مدل های زبانی می‌تونیم تصاویر زیبای سبک استودیو Ghibli تولید کنیم نه به خاطر ChatGPT یا سایر مدل‌های زبانی، بلکه به خاطر کار طاقت‌ فرسای هزاران ساعتِ این افراد هنرمنده که در این استودیو کار کرده‌اند و تکرار آن بسیار دشواره.
👍7620👏4👀2😱1
🚀 آینده شغلی‌ات رو با هوش مصنوعی متحول کن! 🚀

🔥 تخفیف استثنایی ۴۰٪ برای برترین دوره‌های هوش مصنوعی در Class Vision! 🔥

با کد nowruz404 روی هر دوره‌ای که می‌خوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر!

فقط تا آخر این هفته (۱۵ فروردین) فرصت داری!

این فرصت تکرار نشدنی برای ورود به دنیای جذاب AI رو از دست نده! 👇
https://class.vision

#هوش_مصنوعی #تخفیف #آموزش_هوش_مصنوعی #کلاس_ویژن #یادگیری_ماشین #مهارت_آینده #بینایی_کامپیوتر
👍7
Tensorflow(@CVision) pinned «🚀 آینده شغلی‌ات رو با هوش مصنوعی متحول کن! 🚀 🔥 تخفیف استثنایی ۴۰٪ برای برترین دوره‌های هوش مصنوعی در Class Vision! 🔥 با کد nowruz404 روی هر دوره‌ای که می‌خوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر! فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! این…»
This media is not supported in your browser
VIEW IN TELEGRAM
دانشگاه هنگ کنگ مدل Dream 7B (مدل استدلال defusion) رو منتشر کرد. این مدل، بهترین مدل defusion متن‌ باز تا به امروز هست و میتونید تعداد گام‌ های defusion رو برای تعادل بین سرعت و دقت تنظیم کنید.

https://hkunlp.github.io/blog/2025/dream/
11👍8💯2
Deep learning channel
TPU چگونه کار میکند https://alisterta.github.io/2018-09-03/TPU-چگونه-کار-میکند/
سال ۲۰۱۸ توی این پست به معرفی سخت‌افزار TPU گوگل پرداختم حالا سرمایه گذاری بلند مدت گوگل داره نتایج درخشان خودش رو نشون میده.

شرکت‌هایی که برای پردازش مدل‌هاشون به GPU های شرکت Nvidia متکی هستن، با چالش‌ های سخت‌افزاری و هزینه‌های بالا مواجه شدن در حالی که سرمایه‌گذاری گوگل روی TPUها جواب داد. گوگل حالا انحصار سخت‌ افزار خودش رو داره و دیگه نیازی به GPUهای انویدیا نداره.

این موضوع شاید بیشتر به مزایای خود TPUها مربوط باشه تا یک ویژگی خاص در طراحی Gemini. در حالی که GPU ها بهترین سخت‌افزار همه‌ منظوره برای این کار هستن، TPUها به‌طور خاص برای مدل‌های ترنسفورمر بهینه شدن. گوگل نه‌تنها زنجیره تأمین سخت‌افزار خودش رو کنترل می‌کنه، بلکه سخت‌ افزاری در اختیار داره که برای این نوع پردازش مناسب‌ تر از هر گزینه‌ی دیگه ست.
👍36❤‍🔥1👀1
📢 مدل llama4 منتشر شد

متا از نسل جدید هوش مصنوعی خود رونمایی کرد: Llama 4!

هوش مصنوعی چندوجهی (Multimodal): لاما ۴ با هدف ایجاد تجربیات شخصی‌سازی‌شده‌تر و با قابلیت درک و پردازش انواع مختلف داده‌ها (متن، تصویر و …) طراحی شده است. 🤖💡
معرفی اولین مدل، Llama 4 Scout:
دارای ۱۷ میلیارد پارامتر فعال.
از معماری ترکیبی از متخصصان (MoE) با ۱۶ متخصص بهره می‌برد.
به ادعای متا، بهترین مدل چندوجهی در کلاس خود در جهان است. 🏆
قدرتمندتر از تمام نسل‌های قبلی لاما.
بهینه و کارآمد: قادر است روی یک پردازنده گرافیکی H100 اجرا شود. ⚡️
تمرکز بر نوآوری: هدف اصلی این نسل، پیشبرد نوآوری در هوش مصنوعی چندوجهی بومی (natively multimodal) است.
به طور خلاصه، Llama 4 Scout به عنوان اولین عضو خانواده لاما ۴، یک مدل هوش مصنوعی چندوجهی بسیار قدرتمند و در عین حال بهینه است که نویدبخش قابلیت‌های جدید و پیشرفته‌تری در دنیای AI می‌باشد. 🚀
و طبق این توییت contex window این مدل ۱۰ میلیون توکن است!!😳

بلاگ:
https://ai.meta.com/blog/llama-4-multimodal-intelligence/
مدل:
https://www.llama.com/llama4/
🤩16👍83
🔥 گوگل از Firebase Studio رونمایی کرد: ساخت اپلیکیشن‌های سفارشی تنها در چند دقیقه!
در رویداد Google Cloud Next، گوگل از Firebase Studio پرده‌برداری کرد؛ یک پلتفرم قدرتمند و مبتنی بر هوش مصنوعی که به شما اجازه می‌دهد بدون نیاز به نصب نرم‌افزار، مستقیماً در مرورگر خود اپلیکیشن‌های موبایل و وب را طراحی، توسعه، تست و منتشر کنید. 🚀
🔍 ویژگی‌های برجسته Firebase Studio:
پشتیبانی از زبان‌های برنامه‌نویسی محبوب مثل: Java، .NET، Node.js، Go و Python
سازگاری با فریم‌ورک‌هایی نظیر: React، Angular، Vue.js، Flutter و Next.js
امکان وارد کردن پروژه‌ها از GitHub، GitLab، Bitbucket
بیش از ۶۰ قالب آماده برای شروع سریع پروژه
ابزارهای طراحی بصری برای ایجاد رابط کاربری و جریان‌های هوش مصنوعی بدون نیاز به کدنویسی
قابلیت استقرار مستقیم اپلیکیشن‌ها روی Firebase Hosting، Cloud Run یا زیرساخت‌های سفارشی
تجربه‌ای پیشرفته‌تر با ترکیب ابزارهای Genkit و Project IDX و بهره‌گیری از هوش مصنوعی Gemini
نسخه پیش‌نمایش Firebase Studio هم‌اکنون برای تمامی کاربران دارای حساب گوگل در دسترس است.
📎 برای اطلاعات بیشتر و شروع به کار، همین حالا به لینک زیر مراجعه کنید:
🌐 https://firebase.google.com/docs/studio
👍13🔥6
 
"در دنیای #هوش_مصنوعی، #دیوید_سیلور برای من نمادی از تواضع و موفقیت است. چه در زمان حضور در #دیپ_مایند، پیش از پیوستن به #گوگل، و چه پس از آن، او همواره دانشمند و مدیری فعال و تأثیرگذار بوده است. به راستی که می‌توان او را مصداق ضرب‌المثل 'درخت هر چه پربارتر، افتاده‌تر' دانست. دوره‌ی آموزشی او در زمینه #یادگیری_تقویتی، منبعی ارزشمند و الهام‌بخش است.
اخیراً در پادکستی با حضور ایشان، نکات بسیار مهمی درباره کمبودهای الگوریتم‌های فعلی مطرح شده که برای علاقه‌مندان به این حوزه بسیار روشنگر است. در این پادکست، سیلور بر اهمیت #یادگیری_تقویتی با استفاده از بازخورد انسانی در توسعه مدل‌های زبان بزرگ تأکید می‌کند. اما نکته‌ی قابل توجه اینجاست که او هشدار می‌دهد ارائه‌ی بازخورد انسانی در هر مرحله ممکن است مانع از کشف ایده‌های نو توسط سیستم‌ها شود.  در واقع با توضیح اینکه چطور استفاده از RL  در بازی AlphaGo   توانایی فراتراز انسان را نشان میدهد، باید راه کاری برای بهتر شدن و فراتر رقتن از RLHF  در مدلهای LLM  را در پیش گرفت.

این پادکست تو یوتیوب منتشر سده و فکر میکنم خیلی برای علاقه مندان RL جذاب باشه

https://www.youtube.com/watch?v=zzXyPGEtseI


https://www.linkedin.com/in/ali-hadi-a9432551
👍204
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini
هم اکنون در Google sheets در دسترس است
🎉31👍5
Media is too big
VIEW IN TELEGRAM
Eric Schmidt

 «اکنون کامپیوتر ها خود به‌ خود در حال بهبود هستن و یاد می‌گیرن چطور برنامه‌ ریزی کنن. بزودی دیگه نیاز نخواهند داشت که به ما گوش کنن. ظرف 6 سال، ذهن‌ هایی هوشمندتر از مجموع انسان‌ها، مقیاس‌پذیر، بازگشتی و آزاد ظهور خواهند کرد. مردم هنوز درک نمیکنن که چه اتفاقی در حال رخ دادنه»
🤔10👀7👍4😱1
2025/07/08 13:35:59
Back to Top
HTML Embed Code: