Tensorflow(@CVision)
تیم Deepseek عنوان کرده که تغییرات جزیی ایجاد کرده اما بسیاری از قابلیت های این مدل به صورت گسترده از جمله کدنویسی بهبود پیدا کرده Claude sonnet 3.7 vs Deepseek v3-0324 لیست تغییرات: https://api-docs.deepseek.com/updates
پرامپت:
یک فایل HTML واحد ایجاد کن که شامل CSS و JavaScript برای تولید یک کارت آب و هوای متحرک باشه. این کارت باید شرایط آب و هوایی زیر را با انیمیشنهای مجزا با توجه به دمای کنونی چهار شهر تهران، تبریز، اصفهان و شیراز رو نشون بده
همه کارتهای آب و هوا را در کنار هم نمایش بده. با توجه به توصیفات هر کدام از شهرها که در پایین مینویسیم پس زمینه هر کدام از کارت ها رو به صورت انمیشن متحرک از شهرها طراحی کن بصورتی که با فرهنگ اون شهر هماهنگ باشه:
تهران: پایتخت و بزرگترین شهر ایران، واقع در شمال کشور. تهران یک مرکز فرهنگی، اقتصادی و سیاسی مهمه و دارای جاذبههای تاریخی و مدرن فراوانی مانند کاخ گلستان، برج میلاد و بازار بزرگ تهران هست. این شهر در دامنههای جنوبی رشته کوه البرز قرار گرفته و آب و هوای متنوعی داره.
اصفهان: شهری تاریخی در مرکز ایران که به دلیل معماری زیبای اسلامی، پلهای تاریخی و میدان نقش جهان شهرت جهانی داره. اصفهان در دوران صفویه پایتخت ایران بوده و آثار باستانی متعددی از آن دوران به جا مانده، این شهر به عنوان "نصف جهان" نیز شناخته میشه.
شیراز: شهری باستانی در جنوب ایران که به دلیل باغهای زیبا، مساجد تاریخی و آرامگاه شاعران نامدار ایرانی مانند حافظ و سعدی شهرت داره. شیراز در گذشته پایتخت ایران بوده و دارای فرهنگ و هنر غنیه. این شهر به "شهر شعر و ادب" نیز معروفه.
تبریز: شهری تاریخی در شمال غربی ایران که به دلیل بازار بزرگ تبریز، یکی از قدیمیترین و بزرگترین بازارهای سرپوشیده جهان، شهرت دارد. تبریز در طول تاریخ نقش مهمی در تجارت و فرهنگ ایران ایفا کرده و دارای جاذبههای تاریخی و طبیعی متنوعی هست.
❤16
تصور اینکه این عکس توسط هوش مصنوعی تولید شده باشه بسیار سخته.
مدل نه تنها عکس رو با جزییات کامل تولید کرده بلکه متن نوشته شده روی وایت بورد دقیقا متن وارد شده در پرامپ هست!
اوپن ای آی پیشرفته ترین مدل تولید تصویر خودش رو در GPT-4o ادغام کرد. نتیجه این کار، تولید تصاویریه که نه تنها زیبان، بلکه بسیار کاربردین.
https://openai.com/index/introducing-4o-image-generation/
مدل نه تنها عکس رو با جزییات کامل تولید کرده بلکه متن نوشته شده روی وایت بورد دقیقا متن وارد شده در پرامپ هست!
اوپن ای آی پیشرفته ترین مدل تولید تصویر خودش رو در GPT-4o ادغام کرد. نتیجه این کار، تولید تصاویریه که نه تنها زیبان، بلکه بسیار کاربردین.
https://openai.com/index/introducing-4o-image-generation/
👍33🤯18❤2👏2
این وسط گوگل هم
Gemini 2.5 Pro
رو معرفی میکنه که در بین مدل های استدلالی بالاترین امتیاز رو توی بنچ مارک های مختلف میگیره
البته یه مدل مخصوص تولید تصاویر هم منتشر کرده که کیفیت تولید تصاویرش در حد اوپن ای آی هست با این تفاوت که دیگه محدودیت تولید تصاویر ندارید.
عکس بالا رو توسط همون پرامپی که اوپن ای آی قرار داده تولید کردم
https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-thinking
Gemini 2.5 Pro
رو معرفی میکنه که در بین مدل های استدلالی بالاترین امتیاز رو توی بنچ مارک های مختلف میگیره
البته یه مدل مخصوص تولید تصاویر هم منتشر کرده که کیفیت تولید تصاویرش در حد اوپن ای آی هست با این تفاوت که دیگه محدودیت تولید تصاویر ندارید.
عکس بالا رو توسط همون پرامپی که اوپن ای آی قرار داده تولید کردم
https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-thinking
🔥18👍8
مایکروسافت روش جدیدی به نام KBLaM برای اضافه کردن دانش به مدل های زبانی پیشنهاد داده که نسبت به روش های پیشین بهینه تره.
توی روشهای سنتی مثل Fine-tuning، مدلها نیاز به آموزش مجدد با داده های جدید دارن. این فرآیند بسیار زمان بر، پرهزینه و نیازمند منابع محاسباتی زیادی هست. KBLaM دانش رو بدون نیاز به آموزش مجدد در مدل ادغام میکنه، که این امر باعث صرفه جویی قابل توجهی در زمان و هزینه میشه.
در روشهای دیگه مثل Retrieval-Augmented Generation (RAG)، مدل برای پاسخ دادن به سوالات، ابتدا باید اطلاعات مرتبط رو از یه منبع خارجی بازیابی و بعد از اون اطلاعات برای تولید پاسخ استفاده کنه. این فرآیند بازیابی جداگانه میتونه زمانبر باشه. KBLaM با ادغام دانش در لایه های attention مدل، عمل بازیابی را به صورت ضمنی و یکپارچه انجام میده و نیازی به مراحل جداگانه بازیابی نداره.
از طرفی مدلهای زبانی که فقط بر دانش داخلی خود تکیه میکنن، ممکنه اطلاعات نادرست یا بی اساس تولید کنن (اصطلاحاً توهم بزنن)، اما KBLaM با فراهم کردن دسترسی مستقیم به دانش ساختار یافته و معتبر، احتمال تولید پاسخهای نادرست رو کاهش میده و قابلیت اطمینان مدل رو به صورت چشمگیری افزایش میده.
توی این روش اگه اطلاعات جدیدی به پایگاه دانش اضافه شه یا اطلاعات قبلی تغییر کنن، میشه به راحتی دانش مدل رو با بروزرسانی حافظه خارجی KBLaM آپدیت کرد. این کار بسیار ساده تر و سریع تر از آموزش مجدد کل مدله!
https://www.microsoft.com/en-us/research/blog/introducing-kblam-bringing-plug-and-play-external-knowledge-to-llms/
توی روشهای سنتی مثل Fine-tuning، مدلها نیاز به آموزش مجدد با داده های جدید دارن. این فرآیند بسیار زمان بر، پرهزینه و نیازمند منابع محاسباتی زیادی هست. KBLaM دانش رو بدون نیاز به آموزش مجدد در مدل ادغام میکنه، که این امر باعث صرفه جویی قابل توجهی در زمان و هزینه میشه.
در روشهای دیگه مثل Retrieval-Augmented Generation (RAG)، مدل برای پاسخ دادن به سوالات، ابتدا باید اطلاعات مرتبط رو از یه منبع خارجی بازیابی و بعد از اون اطلاعات برای تولید پاسخ استفاده کنه. این فرآیند بازیابی جداگانه میتونه زمانبر باشه. KBLaM با ادغام دانش در لایه های attention مدل، عمل بازیابی را به صورت ضمنی و یکپارچه انجام میده و نیازی به مراحل جداگانه بازیابی نداره.
از طرفی مدلهای زبانی که فقط بر دانش داخلی خود تکیه میکنن، ممکنه اطلاعات نادرست یا بی اساس تولید کنن (اصطلاحاً توهم بزنن)، اما KBLaM با فراهم کردن دسترسی مستقیم به دانش ساختار یافته و معتبر، احتمال تولید پاسخهای نادرست رو کاهش میده و قابلیت اطمینان مدل رو به صورت چشمگیری افزایش میده.
توی این روش اگه اطلاعات جدیدی به پایگاه دانش اضافه شه یا اطلاعات قبلی تغییر کنن، میشه به راحتی دانش مدل رو با بروزرسانی حافظه خارجی KBLaM آپدیت کرد. این کار بسیار ساده تر و سریع تر از آموزش مجدد کل مدله!
https://www.microsoft.com/en-us/research/blog/introducing-kblam-bringing-plug-and-play-external-knowledge-to-llms/
Microsoft Research
A more efficient path to add knowledge to LLMs
Introducing KBLaM, an approach that encodes and stores structured knowledge within an LLM itself. By integrating knowledge without retraining, it offers a scalable alternative to traditional methods.
👍26❤2
This media is not supported in your browser
VIEW IN TELEGRAM
همین که سال نو میلادی شروع شد، اتفاق ها بی وقفه، یکی پس از دیگری، شروع به رخ دادن کردن، انگار واقعا وارد مراحل اولیه دوران تکینگی (Singularity) شدیم!
تا پیش از این، باید ماه ها منتظر می موندیم تا شاهد یه عرضه بزرگ یا یک پیشرفت چشمگیر باشیم. اما حالا، امسال، تقریبا هر دو هفته یک بار، اتفاقی جریان ساز و دگرگونکننده رخ میده.
چقدر طول میکشه تا این فاصله به یک هفته و بعد به سه روز کاهش پیدا کنه؟
سال ۲۰۲۶ اوضاع دیوانه واری در پیشه و برای توصیف ۲۰۲۷، واقعا کلمهای پیدا نمیکنم
تا پیش از این، باید ماه ها منتظر می موندیم تا شاهد یه عرضه بزرگ یا یک پیشرفت چشمگیر باشیم. اما حالا، امسال، تقریبا هر دو هفته یک بار، اتفاقی جریان ساز و دگرگونکننده رخ میده.
چقدر طول میکشه تا این فاصله به یک هفته و بعد به سه روز کاهش پیدا کنه؟
سال ۲۰۲۶ اوضاع دیوانه واری در پیشه و برای توصیف ۲۰۲۷، واقعا کلمهای پیدا نمیکنم
👍17🤔1
Alibaba launches new open-source AI model for ‘cost-effective AI agents’
https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
CNBC
Alibaba launches new open-source AI model for 'cost-effective AI agents'
Alibaba Cloud has launched its latest AI model in its "Qwen series," as large language model competition in China continues to heat up.
👍7
Tensorflow(@CVision)
Alibaba launches new open-source AI model for ‘cost-effective AI agents’ https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
Media is too big
VIEW IN TELEGRAM
بعد از عرضه مدل های زبانی در روز گذشته، امروز علی بابا مدل Qwen2.5-Omni با ۷ میلیارد پارامتر رو بصورت متن باز منتشر کرد، مدلی جامع که میتونه متن، صدا، تصویر و ویدئو رو پردازش کنه.
از قابلیت های این مدل جامع معماری "thinker-talker" هست که امکان استدلال و صحبت کردن رو به طور همزمان فراهم میکنه.
متفکر (Thinker): مانند مغز عمل میکنه. ورودی های مختلف (متن، صدا، تصویر) رو پردازش و درک می کنه، اطلاعات مهم رو استخراج و به صورت متن آماده می کنه
گوینده (Talker): مانند دهان انسان عمل می کنه، متن تولید شده توسط متفکر رو به صورت پیوسته دریافت و اونها رو به صورت کلمات گسسته به زبان میاره
در طول آموزش و استفاده، گوینده مستقیما اطلاعات مهم تولید شده توسط متفکر رو دریافت و تمام اطلاعات قبلی متفکر رو نیز به اشتراک می گذاره. در نتیجه، کل معماری به عنوان یک مدل واحد و یکپارچه عمل میکنه و امکان آموزش و استفاده end-to-end رو فراهم می کنه
جزییات معماری:
https://qwenlm.github.io/blog/qwen2.5-omni/
دمو:
https://chat.qwenlm.ai/
از قابلیت های این مدل جامع معماری "thinker-talker" هست که امکان استدلال و صحبت کردن رو به طور همزمان فراهم میکنه.
متفکر (Thinker): مانند مغز عمل میکنه. ورودی های مختلف (متن، صدا، تصویر) رو پردازش و درک می کنه، اطلاعات مهم رو استخراج و به صورت متن آماده می کنه
گوینده (Talker): مانند دهان انسان عمل می کنه، متن تولید شده توسط متفکر رو به صورت پیوسته دریافت و اونها رو به صورت کلمات گسسته به زبان میاره
در طول آموزش و استفاده، گوینده مستقیما اطلاعات مهم تولید شده توسط متفکر رو دریافت و تمام اطلاعات قبلی متفکر رو نیز به اشتراک می گذاره. در نتیجه، کل معماری به عنوان یک مدل واحد و یکپارچه عمل میکنه و امکان آموزش و استفاده end-to-end رو فراهم می کنه
جزییات معماری:
https://qwenlm.github.io/blog/qwen2.5-omni/
دمو:
https://chat.qwenlm.ai/
👍26🎉2
This media is not supported in your browser
VIEW IN TELEGRAM
این روزها که اینترنت پر از تصاویر سبک استودیو Ghibli شده، جا داره که گفت این صحنه ۴ ثانیهای از جمعیت در یکی از آثار این استدیو، بیش از یک سال طول کشید تا تکمیل شه.
الان که به مدد مدل های زبانی میتونیم تصاویر زیبای سبک استودیو Ghibli تولید کنیم نه به خاطر ChatGPT یا سایر مدلهای زبانی، بلکه به خاطر کار طاقت فرسای هزاران ساعتِ این افراد هنرمنده که در این استودیو کار کردهاند و تکرار آن بسیار دشواره.
الان که به مدد مدل های زبانی میتونیم تصاویر زیبای سبک استودیو Ghibli تولید کنیم نه به خاطر ChatGPT یا سایر مدلهای زبانی، بلکه به خاطر کار طاقت فرسای هزاران ساعتِ این افراد هنرمنده که در این استودیو کار کردهاند و تکرار آن بسیار دشواره.
👍76❤20👏4👀2😱1
Forwarded from رویدادهای هوش مصنوعی
🚀 آینده شغلیات رو با هوش مصنوعی متحول کن! 🚀
🔥 تخفیف استثنایی ۴۰٪ برای برترین دورههای هوش مصنوعی در Class Vision! 🔥
✅ با کد
⏳ فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! ⏳
این فرصت تکرار نشدنی برای ورود به دنیای جذاب AI رو از دست نده! 👇
https://class.vision
#هوش_مصنوعی #تخفیف #آموزش_هوش_مصنوعی #کلاس_ویژن #یادگیری_ماشین #مهارت_آینده #بینایی_کامپیوتر
🔥 تخفیف استثنایی ۴۰٪ برای برترین دورههای هوش مصنوعی در Class Vision! 🔥
✅ با کد
nowruz404
روی هر دورهای که میخوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر!⏳ فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! ⏳
این فرصت تکرار نشدنی برای ورود به دنیای جذاب AI رو از دست نده! 👇
https://class.vision
#هوش_مصنوعی #تخفیف #آموزش_هوش_مصنوعی #کلاس_ویژن #یادگیری_ماشین #مهارت_آینده #بینایی_کامپیوتر
👍7
Tensorflow(@CVision) pinned «🚀 آینده شغلیات رو با هوش مصنوعی متحول کن! 🚀 🔥 تخفیف استثنایی ۴۰٪ برای برترین دورههای هوش مصنوعی در Class Vision! 🔥 ✅ با کد nowruz404 روی هر دورهای که میخوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر! ⏳ فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! ⏳ این…»
This media is not supported in your browser
VIEW IN TELEGRAM
دانشگاه هنگ کنگ مدل Dream 7B (مدل استدلال defusion) رو منتشر کرد. این مدل، بهترین مدل defusion متن باز تا به امروز هست و میتونید تعداد گام های defusion رو برای تعادل بین سرعت و دقت تنظیم کنید.
https://hkunlp.github.io/blog/2025/dream/
https://hkunlp.github.io/blog/2025/dream/
❤11👍8💯2
Forwarded from Deep learning channel (Alister☄)
alisterta.github.io
TPU چگونه کار میکند؟
TPU یا واحد پردازش تنسور یک نوع مدارمجتمع با کاربرد خاص (Application-specific integrated circuit)هست که توسط گوگل به طور خاص برای کارهای یادگیری ماشین توسعه داده شد. در حال حاضر بسیاری از محصولات گوگل اعم از مترجم، دستیار جستجو ، جیمیل و … از این واحد های…
👍8
Deep learning channel
TPU چگونه کار میکند https://alisterta.github.io/2018-09-03/TPU-چگونه-کار-میکند/
سال ۲۰۱۸ توی این پست به معرفی سختافزار TPU گوگل پرداختم حالا سرمایه گذاری بلند مدت گوگل داره نتایج درخشان خودش رو نشون میده.
شرکتهایی که برای پردازش مدلهاشون به GPU های شرکت Nvidia متکی هستن، با چالش های سختافزاری و هزینههای بالا مواجه شدن در حالی که سرمایهگذاری گوگل روی TPUها جواب داد. گوگل حالا انحصار سخت افزار خودش رو داره و دیگه نیازی به GPUهای انویدیا نداره.
این موضوع شاید بیشتر به مزایای خود TPUها مربوط باشه تا یک ویژگی خاص در طراحی Gemini. در حالی که GPU ها بهترین سختافزار همه منظوره برای این کار هستن، TPUها بهطور خاص برای مدلهای ترنسفورمر بهینه شدن. گوگل نهتنها زنجیره تأمین سختافزار خودش رو کنترل میکنه، بلکه سخت افزاری در اختیار داره که برای این نوع پردازش مناسب تر از هر گزینهی دیگه ست.
شرکتهایی که برای پردازش مدلهاشون به GPU های شرکت Nvidia متکی هستن، با چالش های سختافزاری و هزینههای بالا مواجه شدن در حالی که سرمایهگذاری گوگل روی TPUها جواب داد. گوگل حالا انحصار سخت افزار خودش رو داره و دیگه نیازی به GPUهای انویدیا نداره.
این موضوع شاید بیشتر به مزایای خود TPUها مربوط باشه تا یک ویژگی خاص در طراحی Gemini. در حالی که GPU ها بهترین سختافزار همه منظوره برای این کار هستن، TPUها بهطور خاص برای مدلهای ترنسفورمر بهینه شدن. گوگل نهتنها زنجیره تأمین سختافزار خودش رو کنترل میکنه، بلکه سخت افزاری در اختیار داره که برای این نوع پردازش مناسب تر از هر گزینهی دیگه ست.
👍36❤🔥1👀1
📢 مدل llama4 منتشر شد
✨ متا از نسل جدید هوش مصنوعی خود رونمایی کرد: Llama 4! ✨
هوش مصنوعی چندوجهی (Multimodal): لاما ۴ با هدف ایجاد تجربیات شخصیسازیشدهتر و با قابلیت درک و پردازش انواع مختلف دادهها (متن، تصویر و …) طراحی شده است. 🤖💡
معرفی اولین مدل، Llama 4 Scout:
دارای ۱۷ میلیارد پارامتر فعال.
از معماری ترکیبی از متخصصان (MoE) با ۱۶ متخصص بهره میبرد.
به ادعای متا، بهترین مدل چندوجهی در کلاس خود در جهان است. 🏆
قدرتمندتر از تمام نسلهای قبلی لاما.
بهینه و کارآمد: قادر است روی یک پردازنده گرافیکی H100 اجرا شود. ⚡️
تمرکز بر نوآوری: هدف اصلی این نسل، پیشبرد نوآوری در هوش مصنوعی چندوجهی بومی (natively multimodal) است.
به طور خلاصه، Llama 4 Scout به عنوان اولین عضو خانواده لاما ۴، یک مدل هوش مصنوعی چندوجهی بسیار قدرتمند و در عین حال بهینه است که نویدبخش قابلیتهای جدید و پیشرفتهتری در دنیای AI میباشد. 🚀
و طبق این توییت contex window این مدل ۱۰ میلیون توکن است!!😳
بلاگ:
https://ai.meta.com/blog/llama-4-multimodal-intelligence/
مدل:
https://www.llama.com/llama4/
✨ متا از نسل جدید هوش مصنوعی خود رونمایی کرد: Llama 4! ✨
هوش مصنوعی چندوجهی (Multimodal): لاما ۴ با هدف ایجاد تجربیات شخصیسازیشدهتر و با قابلیت درک و پردازش انواع مختلف دادهها (متن، تصویر و …) طراحی شده است. 🤖💡
معرفی اولین مدل، Llama 4 Scout:
دارای ۱۷ میلیارد پارامتر فعال.
از معماری ترکیبی از متخصصان (MoE) با ۱۶ متخصص بهره میبرد.
به ادعای متا، بهترین مدل چندوجهی در کلاس خود در جهان است. 🏆
قدرتمندتر از تمام نسلهای قبلی لاما.
بهینه و کارآمد: قادر است روی یک پردازنده گرافیکی H100 اجرا شود. ⚡️
تمرکز بر نوآوری: هدف اصلی این نسل، پیشبرد نوآوری در هوش مصنوعی چندوجهی بومی (natively multimodal) است.
به طور خلاصه، Llama 4 Scout به عنوان اولین عضو خانواده لاما ۴، یک مدل هوش مصنوعی چندوجهی بسیار قدرتمند و در عین حال بهینه است که نویدبخش قابلیتهای جدید و پیشرفتهتری در دنیای AI میباشد. 🚀
و طبق این توییت contex window این مدل ۱۰ میلیون توکن است!!😳
بلاگ:
https://ai.meta.com/blog/llama-4-multimodal-intelligence/
مدل:
https://www.llama.com/llama4/
🤩16👍8❤3
🔥 گوگل از Firebase Studio رونمایی کرد: ساخت اپلیکیشنهای سفارشی تنها در چند دقیقه!
در رویداد Google Cloud Next، گوگل از Firebase Studio پردهبرداری کرد؛ یک پلتفرم قدرتمند و مبتنی بر هوش مصنوعی که به شما اجازه میدهد بدون نیاز به نصب نرمافزار، مستقیماً در مرورگر خود اپلیکیشنهای موبایل و وب را طراحی، توسعه، تست و منتشر کنید. 🚀
🔍 ویژگیهای برجسته Firebase Studio:
✅ پشتیبانی از زبانهای برنامهنویسی محبوب مثل: Java، .NET، Node.js، Go و Python
✅ سازگاری با فریمورکهایی نظیر: React، Angular، Vue.js، Flutter و Next.js
✅ امکان وارد کردن پروژهها از GitHub، GitLab، Bitbucket
✅ بیش از ۶۰ قالب آماده برای شروع سریع پروژه
✅ ابزارهای طراحی بصری برای ایجاد رابط کاربری و جریانهای هوش مصنوعی بدون نیاز به کدنویسی
✅ قابلیت استقرار مستقیم اپلیکیشنها روی Firebase Hosting، Cloud Run یا زیرساختهای سفارشی
✅ تجربهای پیشرفتهتر با ترکیب ابزارهای Genkit و Project IDX و بهرهگیری از هوش مصنوعی Gemini
✨ نسخه پیشنمایش Firebase Studio هماکنون برای تمامی کاربران دارای حساب گوگل در دسترس است.
📎 برای اطلاعات بیشتر و شروع به کار، همین حالا به لینک زیر مراجعه کنید:
🌐 https://firebase.google.com/docs/studio
در رویداد Google Cloud Next، گوگل از Firebase Studio پردهبرداری کرد؛ یک پلتفرم قدرتمند و مبتنی بر هوش مصنوعی که به شما اجازه میدهد بدون نیاز به نصب نرمافزار، مستقیماً در مرورگر خود اپلیکیشنهای موبایل و وب را طراحی، توسعه، تست و منتشر کنید. 🚀
🔍 ویژگیهای برجسته Firebase Studio:
✅ پشتیبانی از زبانهای برنامهنویسی محبوب مثل: Java، .NET، Node.js، Go و Python
✅ سازگاری با فریمورکهایی نظیر: React، Angular، Vue.js، Flutter و Next.js
✅ امکان وارد کردن پروژهها از GitHub، GitLab، Bitbucket
✅ بیش از ۶۰ قالب آماده برای شروع سریع پروژه
✅ ابزارهای طراحی بصری برای ایجاد رابط کاربری و جریانهای هوش مصنوعی بدون نیاز به کدنویسی
✅ قابلیت استقرار مستقیم اپلیکیشنها روی Firebase Hosting، Cloud Run یا زیرساختهای سفارشی
✅ تجربهای پیشرفتهتر با ترکیب ابزارهای Genkit و Project IDX و بهرهگیری از هوش مصنوعی Gemini
✨ نسخه پیشنمایش Firebase Studio هماکنون برای تمامی کاربران دارای حساب گوگل در دسترس است.
📎 برای اطلاعات بیشتر و شروع به کار، همین حالا به لینک زیر مراجعه کنید:
🌐 https://firebase.google.com/docs/studio
Firebase
Firebase Studio
Rapidly prototype, build, and ship full-stack AI-infused apps quickly and efficiently, right from your browser.
👍13🔥6
"در دنیای #هوش_مصنوعی، #دیوید_سیلور برای من نمادی از تواضع و موفقیت است. چه در زمان حضور در #دیپ_مایند، پیش از پیوستن به #گوگل، و چه پس از آن، او همواره دانشمند و مدیری فعال و تأثیرگذار بوده است. به راستی که میتوان او را مصداق ضربالمثل 'درخت هر چه پربارتر، افتادهتر' دانست. دورهی آموزشی او در زمینه #یادگیری_تقویتی، منبعی ارزشمند و الهامبخش است.
اخیراً در پادکستی با حضور ایشان، نکات بسیار مهمی درباره کمبودهای الگوریتمهای فعلی مطرح شده که برای علاقهمندان به این حوزه بسیار روشنگر است. در این پادکست، سیلور بر اهمیت #یادگیری_تقویتی با استفاده از بازخورد انسانی در توسعه مدلهای زبان بزرگ تأکید میکند. اما نکتهی قابل توجه اینجاست که او هشدار میدهد ارائهی بازخورد انسانی در هر مرحله ممکن است مانع از کشف ایدههای نو توسط سیستمها شود. در واقع با توضیح اینکه چطور استفاده از RL در بازی AlphaGo توانایی فراتراز انسان را نشان میدهد، باید راه کاری برای بهتر شدن و فراتر رقتن از RLHF در مدلهای LLM را در پیش گرفت.
این پادکست تو یوتیوب منتشر سده و فکر میکنم خیلی برای علاقه مندان RL جذاب باشه
https://www.youtube.com/watch?v=zzXyPGEtseI
https://www.linkedin.com/in/ali-hadi-a9432551
YouTube
Is human data enough? With David Silver
In this episode of Google DeepMind: The Podcast, VP of Reinforcement Learning, David Silver, describes his vision for the future of AI, exploring the concept of the "era of experience" versus the current "era of human data". Using AlphaGo and AlphaZero as…
👍20❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini
هم اکنون در Google sheets در دسترس است
هم اکنون در Google sheets در دسترس است
🎉31👍5
Media is too big
VIEW IN TELEGRAM
Eric Schmidt
«اکنون کامپیوتر ها خود به خود در حال بهبود هستن و یاد میگیرن چطور برنامه ریزی کنن. بزودی دیگه نیاز نخواهند داشت که به ما گوش کنن. ظرف 6 سال، ذهن هایی هوشمندتر از مجموع انسانها، مقیاسپذیر، بازگشتی و آزاد ظهور خواهند کرد. مردم هنوز درک نمیکنن که چه اتفاقی در حال رخ دادنه»
«اکنون کامپیوتر ها خود به خود در حال بهبود هستن و یاد میگیرن چطور برنامه ریزی کنن. بزودی دیگه نیاز نخواهند داشت که به ما گوش کنن. ظرف 6 سال، ذهن هایی هوشمندتر از مجموع انسانها، مقیاسپذیر، بازگشتی و آزاد ظهور خواهند کرد. مردم هنوز درک نمیکنن که چه اتفاقی در حال رخ دادنه»
🤔10👀7👍4😱1