Telegram Web Link
این وسط گوگل هم
Gemini 2.5 Pro

رو معرفی می‌کنه که در بین مدل های استدلالی بالاترین امتیاز رو توی بنچ مارک های مختلف میگیره

البته یه مدل مخصوص تولید تصاویر هم منتشر کرده که کیفیت تولید تصاویرش در حد اوپن ای آی هست با این تفاوت که دیگه محدودیت تولید تصاویر ندارید.

عکس بالا رو توسط همون پرامپی که اوپن ای آی قرار داده تولید کردم

https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-thinking
🔥18👍8
مایکروسافت روش جدیدی به نام KBLaM برای اضافه کردن دانش به مدل‌ های زبانی پیشنهاد داده که نسبت به روش های پیشین بهینه تره.

توی روش‌های سنتی مثل Fine-tuning، مدلها نیاز به آموزش مجدد با داده‌ های جدید دارن. این فرآیند بسیار زمان‌ بر، پرهزینه و نیازمند منابع محاسباتی زیادی هست. KBLaM دانش رو بدون نیاز به آموزش مجدد در مدل ادغام می‌کنه، که این امر باعث صرفه‌ جویی قابل توجهی در زمان و هزینه میشه.

در روش‌های دیگه مثل Retrieval-Augmented Generation (RAG)، مدل برای پاسخ دادن به سوالات، ابتدا باید اطلاعات مرتبط رو از یه منبع خارجی بازیابی و بعد از اون اطلاعات برای تولید پاسخ استفاده کنه. این فرآیند بازیابی جداگانه می‌تونه زمانبر باشه. KBLaM با ادغام دانش در لایه‌ های attention مدل، عمل بازیابی را به صورت ضمنی و یکپارچه انجام میده و نیازی به مراحل جداگانه بازیابی نداره.

از طرفی مدل‌های زبانی که فقط بر دانش داخلی خود تکیه میکنن، ممکنه اطلاعات نادرست یا بی‌ اساس تولید کنن (اصطلاحاً توهم بزنن)، اما KBLaM با فراهم کردن دسترسی مستقیم به دانش ساختار یافته و معتبر، احتمال تولید پاسخ‌های نادرست رو کاهش میده و قابلیت اطمینان مدل رو به صورت چشمگیری افزایش میده.

توی این روش اگه اطلاعات جدیدی به پایگاه دانش اضافه شه یا اطلاعات قبلی تغییر کنن، می‌شه به راحتی دانش مدل رو با بروزرسانی حافظه خارجی KBLaM آپدیت کرد. این کار بسیار ساده‌ تر و سریع‌ تر از آموزش مجدد کل مدله!

https://www.microsoft.com/en-us/research/blog/introducing-kblam-bringing-plug-and-play-external-knowledge-to-llms/
👍262
This media is not supported in your browser
VIEW IN TELEGRAM
همین که سال نو میلادی شروع شد، اتفاق‌ ها بی‌ وقفه، یکی پس از دیگری، شروع به رخ دادن کردن، انگار واقعا وارد مراحل اولیه‌ دوران تکینگی (Singularity) شدیم!

تا پیش از این، باید ماه‌ ها منتظر می موندیم تا شاهد یه عرضه بزرگ یا یک پیشرفت چشمگیر باشیم. اما حالا، امسال، تقریبا هر دو هفته یک‌ بار، اتفاقی جریان‌ ساز و دگرگون‌کننده رخ میده.

چقدر طول می‌کشه تا این فاصله به یک هفته و بعد به سه روز کاهش پیدا کنه؟

سال ۲۰۲۶ اوضاع دیوانه‌ واری در پیشه و برای توصیف ۲۰۲۷، واقعا کلمه‌ای پیدا نمیکنم
👍17🤔1
Tensorflow(@CVision)
Alibaba launches new open-source AI model for ‘cost-effective AI agents’ https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
Media is too big
VIEW IN TELEGRAM
بعد از عرضه مدل های زبانی در روز گذشته، امروز علی بابا مدل Qwen2.5-Omni با ۷ میلیارد پارامتر رو بصورت متن باز منتشر کرد، مدلی جامع که میتونه متن، صدا، تصویر و ویدئو رو پردازش کنه.

 از قابلیت های این مدل جامع معماری "thinker-talker" هست که امکان استدلال و صحبت کردن رو به طور همزمان فراهم می‌کنه.


متفکر (Thinker): مانند مغز عمل می‌کنه. ورودی‌ های مختلف (متن، صدا، تصویر) رو پردازش و درک می‌ کنه، اطلاعات مهم رو استخراج و به صورت متن آماده می‌ کنه

گوینده (Talker): مانند دهان انسان عمل می‌ کنه، متن تولید شده توسط متفکر رو به صورت پیوسته دریافت و اونها رو به صورت کلمات گسسته به زبان میاره

در طول آموزش و استفاده، گوینده مستقیما اطلاعات مهم تولید شده توسط متفکر رو دریافت و تمام اطلاعات قبلی متفکر رو نیز به اشتراک می‌ گذاره. در نتیجه، کل معماری به عنوان یک مدل واحد و یکپارچه عمل می‌کنه و امکان آموزش و استفاده end-to-end رو فراهم می‌ کنه


جزییات معماری:
https://qwenlm.github.io/blog/qwen2.5-omni/

دمو:
https://chat.qwenlm.ai/
👍26🎉2
This media is not supported in your browser
VIEW IN TELEGRAM
این روزها که اینترنت پر از تصاویر سبک استودیو Ghibli شده، جا داره که گفت این صحنه ۴ ثانیه‌ای از جمعیت در یکی از آثار این استدیو، بیش از یک سال طول کشید تا تکمیل شه.

الان که به مدد مدل های زبانی می‌تونیم تصاویر زیبای سبک استودیو Ghibli تولید کنیم نه به خاطر ChatGPT یا سایر مدل‌های زبانی، بلکه به خاطر کار طاقت‌ فرسای هزاران ساعتِ این افراد هنرمنده که در این استودیو کار کرده‌اند و تکرار آن بسیار دشواره.
👍7620👏4👀2😱1
🚀 آینده شغلی‌ات رو با هوش مصنوعی متحول کن! 🚀

🔥 تخفیف استثنایی ۴۰٪ برای برترین دوره‌های هوش مصنوعی در Class Vision! 🔥

با کد nowruz404 روی هر دوره‌ای که می‌خوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر!

فقط تا آخر این هفته (۱۵ فروردین) فرصت داری!

این فرصت تکرار نشدنی برای ورود به دنیای جذاب AI رو از دست نده! 👇
https://class.vision

#هوش_مصنوعی #تخفیف #آموزش_هوش_مصنوعی #کلاس_ویژن #یادگیری_ماشین #مهارت_آینده #بینایی_کامپیوتر
👍7
Tensorflow(@CVision) pinned «🚀 آینده شغلی‌ات رو با هوش مصنوعی متحول کن! 🚀 🔥 تخفیف استثنایی ۴۰٪ برای برترین دوره‌های هوش مصنوعی در Class Vision! 🔥 با کد nowruz404 روی هر دوره‌ای که می‌خوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر! فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! این…»
This media is not supported in your browser
VIEW IN TELEGRAM
دانشگاه هنگ کنگ مدل Dream 7B (مدل استدلال defusion) رو منتشر کرد. این مدل، بهترین مدل defusion متن‌ باز تا به امروز هست و میتونید تعداد گام‌ های defusion رو برای تعادل بین سرعت و دقت تنظیم کنید.

https://hkunlp.github.io/blog/2025/dream/
11👍8💯2
Deep learning channel
TPU چگونه کار میکند https://alisterta.github.io/2018-09-03/TPU-چگونه-کار-میکند/
سال ۲۰۱۸ توی این پست به معرفی سخت‌افزار TPU گوگل پرداختم حالا سرمایه گذاری بلند مدت گوگل داره نتایج درخشان خودش رو نشون میده.

شرکت‌هایی که برای پردازش مدل‌هاشون به GPU های شرکت Nvidia متکی هستن، با چالش‌ های سخت‌افزاری و هزینه‌های بالا مواجه شدن در حالی که سرمایه‌گذاری گوگل روی TPUها جواب داد. گوگل حالا انحصار سخت‌ افزار خودش رو داره و دیگه نیازی به GPUهای انویدیا نداره.

این موضوع شاید بیشتر به مزایای خود TPUها مربوط باشه تا یک ویژگی خاص در طراحی Gemini. در حالی که GPU ها بهترین سخت‌افزار همه‌ منظوره برای این کار هستن، TPUها به‌طور خاص برای مدل‌های ترنسفورمر بهینه شدن. گوگل نه‌تنها زنجیره تأمین سخت‌افزار خودش رو کنترل می‌کنه، بلکه سخت‌ افزاری در اختیار داره که برای این نوع پردازش مناسب‌ تر از هر گزینه‌ی دیگه ست.
👍36❤‍🔥1👀1
📢 مدل llama4 منتشر شد

متا از نسل جدید هوش مصنوعی خود رونمایی کرد: Llama 4!

هوش مصنوعی چندوجهی (Multimodal): لاما ۴ با هدف ایجاد تجربیات شخصی‌سازی‌شده‌تر و با قابلیت درک و پردازش انواع مختلف داده‌ها (متن، تصویر و …) طراحی شده است. 🤖💡
معرفی اولین مدل، Llama 4 Scout:
دارای ۱۷ میلیارد پارامتر فعال.
از معماری ترکیبی از متخصصان (MoE) با ۱۶ متخصص بهره می‌برد.
به ادعای متا، بهترین مدل چندوجهی در کلاس خود در جهان است. 🏆
قدرتمندتر از تمام نسل‌های قبلی لاما.
بهینه و کارآمد: قادر است روی یک پردازنده گرافیکی H100 اجرا شود. ⚡️
تمرکز بر نوآوری: هدف اصلی این نسل، پیشبرد نوآوری در هوش مصنوعی چندوجهی بومی (natively multimodal) است.
به طور خلاصه، Llama 4 Scout به عنوان اولین عضو خانواده لاما ۴، یک مدل هوش مصنوعی چندوجهی بسیار قدرتمند و در عین حال بهینه است که نویدبخش قابلیت‌های جدید و پیشرفته‌تری در دنیای AI می‌باشد. 🚀
و طبق این توییت contex window این مدل ۱۰ میلیون توکن است!!😳

بلاگ:
https://ai.meta.com/blog/llama-4-multimodal-intelligence/
مدل:
https://www.llama.com/llama4/
🤩16👍83
🔥 گوگل از Firebase Studio رونمایی کرد: ساخت اپلیکیشن‌های سفارشی تنها در چند دقیقه!
در رویداد Google Cloud Next، گوگل از Firebase Studio پرده‌برداری کرد؛ یک پلتفرم قدرتمند و مبتنی بر هوش مصنوعی که به شما اجازه می‌دهد بدون نیاز به نصب نرم‌افزار، مستقیماً در مرورگر خود اپلیکیشن‌های موبایل و وب را طراحی، توسعه، تست و منتشر کنید. 🚀
🔍 ویژگی‌های برجسته Firebase Studio:
پشتیبانی از زبان‌های برنامه‌نویسی محبوب مثل: Java، .NET، Node.js، Go و Python
سازگاری با فریم‌ورک‌هایی نظیر: React، Angular، Vue.js، Flutter و Next.js
امکان وارد کردن پروژه‌ها از GitHub، GitLab، Bitbucket
بیش از ۶۰ قالب آماده برای شروع سریع پروژه
ابزارهای طراحی بصری برای ایجاد رابط کاربری و جریان‌های هوش مصنوعی بدون نیاز به کدنویسی
قابلیت استقرار مستقیم اپلیکیشن‌ها روی Firebase Hosting، Cloud Run یا زیرساخت‌های سفارشی
تجربه‌ای پیشرفته‌تر با ترکیب ابزارهای Genkit و Project IDX و بهره‌گیری از هوش مصنوعی Gemini
نسخه پیش‌نمایش Firebase Studio هم‌اکنون برای تمامی کاربران دارای حساب گوگل در دسترس است.
📎 برای اطلاعات بیشتر و شروع به کار، همین حالا به لینک زیر مراجعه کنید:
🌐 https://firebase.google.com/docs/studio
👍13🔥6
 
"در دنیای #هوش_مصنوعی، #دیوید_سیلور برای من نمادی از تواضع و موفقیت است. چه در زمان حضور در #دیپ_مایند، پیش از پیوستن به #گوگل، و چه پس از آن، او همواره دانشمند و مدیری فعال و تأثیرگذار بوده است. به راستی که می‌توان او را مصداق ضرب‌المثل 'درخت هر چه پربارتر، افتاده‌تر' دانست. دوره‌ی آموزشی او در زمینه #یادگیری_تقویتی، منبعی ارزشمند و الهام‌بخش است.
اخیراً در پادکستی با حضور ایشان، نکات بسیار مهمی درباره کمبودهای الگوریتم‌های فعلی مطرح شده که برای علاقه‌مندان به این حوزه بسیار روشنگر است. در این پادکست، سیلور بر اهمیت #یادگیری_تقویتی با استفاده از بازخورد انسانی در توسعه مدل‌های زبان بزرگ تأکید می‌کند. اما نکته‌ی قابل توجه اینجاست که او هشدار می‌دهد ارائه‌ی بازخورد انسانی در هر مرحله ممکن است مانع از کشف ایده‌های نو توسط سیستم‌ها شود.  در واقع با توضیح اینکه چطور استفاده از RL  در بازی AlphaGo   توانایی فراتراز انسان را نشان میدهد، باید راه کاری برای بهتر شدن و فراتر رقتن از RLHF  در مدلهای LLM  را در پیش گرفت.

این پادکست تو یوتیوب منتشر سده و فکر میکنم خیلی برای علاقه مندان RL جذاب باشه

https://www.youtube.com/watch?v=zzXyPGEtseI


https://www.linkedin.com/in/ali-hadi-a9432551
👍204
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini
هم اکنون در Google sheets در دسترس است
🎉31👍5
Media is too big
VIEW IN TELEGRAM
Eric Schmidt

 «اکنون کامپیوتر ها خود به‌ خود در حال بهبود هستن و یاد می‌گیرن چطور برنامه‌ ریزی کنن. بزودی دیگه نیاز نخواهند داشت که به ما گوش کنن. ظرف 6 سال، ذهن‌ هایی هوشمندتر از مجموع انسان‌ها، مقیاس‌پذیر، بازگشتی و آزاد ظهور خواهند کرد. مردم هنوز درک نمیکنن که چه اتفاقی در حال رخ دادنه»
🤔10👀7👍4😱1
This media is not supported in your browser
VIEW IN TELEGRAM
مدل رسمی جدید Wan2.1 به صورت متن باز منتشر شد، از قابلیت های این مدل امکان ساخت ویدیو با داشتن فریم اول و آخر هست بدین ترتیب مدل می‌تونه یه نمای کلی از شروع و پایان ویدیو تولید کنه.

این مدل قادره یه ویدیوی 5 ثانیه‌ای با کیفیت 480P رو بر روی یک RTX 4090 در حدود 4 دقیقه (بدون تکنیک‌های بهینه‌سازی مانند کوانتیزاسیون) تولید کنه.

https://github.com/Wan-Video/Wan2.1
👍131
Tensorflow(@CVision)
  "در دنیای #هوش_مصنوعی، #دیوید_سیلور برای من نمادی از تواضع و موفقیت است. چه در زمان حضور در #دیپ_مایند، پیش از پیوستن به #گوگل، و چه پس از آن، او همواره دانشمند و مدیری فعال و تأثیرگذار بوده است. به راستی که می‌توان او را مصداق ضرب‌المثل 'درخت هر چه پربارتر،…
This media is not supported in your browser
VIEW IN TELEGRAM
هوش مصنوعی جدید گوگل دیپ‌ مایند با استفاده از یادگیری تقویتی الگوریتم‌ های یادگیری تقویتی خودش رو خلق کرد.

دیوید سلیور میگه: باورنکردنیه که این سیستم از تمام الگوریتم‌ های یادگیری تقویتی که ما در طول سال‌های متمادی ابداع کرده بودیم، عملکرد بهتری داشت.
👍17🤯8
Tensorflow(@CVision)
  "در دنیای #هوش_مصنوعی، #دیوید_سیلور برای من نمادی از تواضع و موفقیت است. چه در زمان حضور در #دیپ_مایند، پیش از پیوستن به #گوگل، و چه پس از آن، او همواره دانشمند و مدیری فعال و تأثیرگذار بوده است. به راستی که می‌توان او را مصداق ضرب‌المثل 'درخت هر چه پربارتر،…
#تکمیل #مقاله

دیوید سیلور و ریچارد ساتن بر این باورن که روش‌های کنونی توسعه هوش مصنوعی، با تکیه بر داده‌ های آموزشی محدود و ایستا و پیش‌ داوری‌های انسانی، بیش از اندازه مقید شدن، حتی در شرایطی که این مدل‌ ها از آزمون‌هایی مثل تست تورینگ فراتر رفتن.

آن‌ها رویکرد نوینی به نام "streams" رو پیشنهاد میدن که بر مبنای اصول یادگیری تقویتی به کار رفته در موفقیت‌ هایی نظیر Alpha Zero بنا شده.

این روش به عامل‌ های هوش مصنوعی امکان میده تا از طریق تعامل مستقیم با محیط خود "تجربه" کسب کنن، از نشانه‌ها و پاداش‌ها بیاموزن و اهداف خود رو شکل بدن. بدین ترتیب، اونها قادر خواهند بود دانشی فراتر از داده‌های تولیدشده توسط انسان رو خودشون کشف کنن و به طور بالقوه توانایی‌ هایی رو بدست بیارن که از هوش انسانی پیشی می‌گیره.

این دیدگاه در تقابل با مدل‌ های زبانی کنونی قرار داره که عمدتا به محرک‌ های انسانی واکنش نشون میده و به شدت به قضاوت‌ های انسانی وابسته هستن، چیزی که به اعتقاد این محققان، سقفی بر عملکرد هوش مصنوعی تحمیل می‌کنه!

به عصر تجربه در هوش مصنوعی خوش آمدین

https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf
👍14
2025/07/12 23:28:34
Back to Top
HTML Embed Code: