This media is not supported in your browser
VIEW IN TELEGRAM
❌ دیگر از ویدیوهای تار خبری نیست
روش جدید Deblur-GS ویدیوهای تار را بازیابی می کند. این روش ادعا میکند عملکرد و کیفیت رندر بالاتری را در مقایسه با روش های قبلی ارائه کرده است.
[I3D 2024] Deblur-GS: 3D Gaussian Splatting from Camera Motion Blurred Images
https://github.com/Chaphlagical/Deblur-GS
✴️مرتبط با MAXIM
#blur
روش جدید Deblur-GS ویدیوهای تار را بازیابی می کند. این روش ادعا میکند عملکرد و کیفیت رندر بالاتری را در مقایسه با روش های قبلی ارائه کرده است.
[I3D 2024] Deblur-GS: 3D Gaussian Splatting from Camera Motion Blurred Images
https://github.com/Chaphlagical/Deblur-GS
✴️مرتبط با MAXIM
#blur
Forwarded from School of AI
This media is not supported in your browser
VIEW IN TELEGRAM
فریمورک FeatUp بهطور مشترک توسط پژوهشگران MIT و Microsoft و Berkeley و Google در سمینار ICLR 2024 معرفی شده.
این فریمورک فارق از تسک یا مدل، ویژگیهای ازدسترفتهی دادهی بینایی (تصویر) در ژرفای مدل را بدون تاثیر در semantic مدل، با دقت قابلتوجهی بازسازی میکند.
سایت:
https://mhamilton.net/featup.html
مقاله:
https://arxiv.org/pdf/2403.10516
کد:
https://github.com/mhamilton723/FeatUp
این فریمورک فارق از تسک یا مدل، ویژگیهای ازدسترفتهی دادهی بینایی (تصویر) در ژرفای مدل را بدون تاثیر در semantic مدل، با دقت قابلتوجهی بازسازی میکند.
سایت:
https://mhamilton.net/featup.html
مقاله:
https://arxiv.org/pdf/2403.10516
کد:
https://github.com/mhamilton723/FeatUp
𝗕𝗲𝗻𝘁𝗼𝗠𝗟 vs 𝗧𝗼𝗿𝗰𝗵𝗦𝗲𝗿𝘃𝗲 vs 𝗧𝗲𝗻𝘀𝗼𝗿𝗙𝗹𝗼𝘄 𝗦𝗲𝗿𝘃𝗶𝗻𝗴 vs 𝗡𝗩𝗜𝗗𝗜𝗔 𝗧𝗿𝗶𝘁𝗼𝗻. Let the battle begin! ⚔️
https://www.linkedin.com/posts/axelmdz_mlops-machinelearning-datascience-activity-7194637600861618176-iQaF?utm_source=share&utm_medium=member_desktop
https://www.linkedin.com/posts/axelmdz_mlops-machinelearning-datascience-activity-7194637600861618176-iQaF?utm_source=share&utm_medium=member_desktop
جهت اطلاع رسانی دورهها، کلاسهای آنلاین، تخفیفها و غیره مبوط به کلاس ویژن، کانال دیگری نیز ایجاد گردیده که این اطلاعیه ها در بین پستهای این کانال گم نشه!
https://www.tg-me.com/class_vision
https://www.tg-me.com/class_vision
Telegram
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
کلاس ویژن، مرجع آموزهای تخصصی دیپ لرنینگ و بینایی کامپیوتر
سایت دوره
http://class.vision
👨💻👩 پشتیبانی:
@classvision_support
AI, TensorFlow, Keras, Deep Learning, Computer Vision, GNN, GCN, RNN, LSTM,GRU, GAN, ...
کانال آموزشی:
@cvision
سایت دوره
http://class.vision
👨💻👩 پشتیبانی:
@classvision_support
AI, TensorFlow, Keras, Deep Learning, Computer Vision, GNN, GCN, RNN, LSTM,GRU, GAN, ...
کانال آموزشی:
@cvision
⚡️مدل جدید GPT-4 Omni برای ChatGPT امروز معرفی شد و به صورت رایگان در دسترس همه است!
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️مدل جدید GPT-4 Omni برای ChatGPT امروز معرفی شد و به صورت رایگان در دسترس همه است!
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
میدانید دیروز شرکت OpenAI از GPT-4o جدیدترین نسخه ChatGPT رو نمایی کرد 🤖
🆕 با GPT-4o، آخرین پیشرفت OpenAI، که برای عملکرد فوق العاده سریع و کیفیت استثنایی در 50 زبان طراحی شده است، آشنا شویم...
1️⃣ با GPT-4o به راحتی متون، تصاویر و صدا را میتوان مدیریت کرد و به توسعه دهندگان این امکان را می دهد تا با استفاده از OpenAI API به راحتی نوآوری کنند.
2️⃣ مدل ارائه شده ی GPT-4o با سرعتی دو برابر ولی هزینه ی معادل نیمی از هزینه نسل قبلی خود، یعنی GPT-4 Turbo، نوید کارایی بی نظیر و مقرون به صرفه را می دهد.
3️⃣ هوش مصنوعی OpenAI با افتخار "هوش عاطفی" GPT-4o را برجسته می کند، که به طرز ماهرانه ای تعاملات و وقفه های کاربر را مدیریت می کند.
4️⃣ فراتر از ترجمه، GPT-4o با توانایی خود در تغییر تن صدا، افزودن درام یا ...، تحت تاثیر قرار میدهد.
5️⃣ اما این همه ماجرا نیست – اعضای تیم مهارت های ریاضی و کمک های کدنویسی GPT-4o را به نمایش گذاشتند و آن را به عنوان رقیب قدرتمندی برای GitHub Copilot مایکروسافت معرفی کردند.
@cvision
🆕 با GPT-4o، آخرین پیشرفت OpenAI، که برای عملکرد فوق العاده سریع و کیفیت استثنایی در 50 زبان طراحی شده است، آشنا شویم...
1️⃣ با GPT-4o به راحتی متون، تصاویر و صدا را میتوان مدیریت کرد و به توسعه دهندگان این امکان را می دهد تا با استفاده از OpenAI API به راحتی نوآوری کنند.
2️⃣ مدل ارائه شده ی GPT-4o با سرعتی دو برابر ولی هزینه ی معادل نیمی از هزینه نسل قبلی خود، یعنی GPT-4 Turbo، نوید کارایی بی نظیر و مقرون به صرفه را می دهد.
3️⃣ هوش مصنوعی OpenAI با افتخار "هوش عاطفی" GPT-4o را برجسته می کند، که به طرز ماهرانه ای تعاملات و وقفه های کاربر را مدیریت می کند.
4️⃣ فراتر از ترجمه، GPT-4o با توانایی خود در تغییر تن صدا، افزودن درام یا ...، تحت تاثیر قرار میدهد.
5️⃣ اما این همه ماجرا نیست – اعضای تیم مهارت های ریاضی و کمک های کدنویسی GPT-4o را به نمایش گذاشتند و آن را به عنوان رقیب قدرتمندی برای GitHub Copilot مایکروسافت معرفی کردند.
@cvision
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از ویژگی های برجسته این مدل جدید صدای واقعی آن است که مطابق با ترجیحات شما سازگار می شود.
@cvision
@cvision
This media is not supported in your browser
VIEW IN TELEGRAM
این مدل، GPT-4o می تواند کمیک نیز تولید کند!
یاد گرفته است که شخصیت های شما را به خاطر بسپارد و آنها را در صحنه های مختلف خلق کند.
یاد گرفته است که شخصیت های شما را به خاطر بسپارد و آنها را در صحنه های مختلف خلق کند.
این بنده خدا هم با ورژن جدید chatgpt کارتون دخترشو درست کرده...
https://twitter.com/danielkempe/status/1790096679384883217
به اسم فروشگاه و اسم رو بسته دست دختره هم توجه کنید :)
https://twitter.com/danielkempe/status/1790096679384883217
به اسم فروشگاه و اسم رو بسته دست دختره هم توجه کنید :)
This media is not supported in your browser
VIEW IN TELEGRAM
پاسخ روشن ایلان ماسک به یک خبرنگار 🔥
سوال: به نظر شما چه کسی برنده کاخ سفید در سال 2024 خواهد بود؟
پاسخ ایلان ماسک: فکر می کنید چه کسی برنده کاخ سفید در سال 2032 خواهد شد؟
کدام نوع هوش مصنوعی؟
ترنسفورمر یا دیفیوژن؟
سوال: به نظر شما چه کسی برنده کاخ سفید در سال 2024 خواهد بود؟
پاسخ ایلان ماسک: فکر می کنید چه کسی برنده کاخ سفید در سال 2032 خواهد شد؟
کدام نوع هوش مصنوعی؟
ترنسفورمر یا دیفیوژن؟
Forwarded from School of AI
توسعهدهندگان از همین امروز میتوانند در فریمورک LangChain از مدل GPT-4o از طریق API استفاده کنند.
در این کد نمونه، آدرس یک تصویر به مدل داده شده و از مدل خواسته شده محتوای تصویر را شرح دهد.
https://python.langchain.com/v0.1/docs/integrations/chat/openai/
در این کد نمونه، آدرس یک تصویر به مدل داده شده و از مدل خواسته شده محتوای تصویر را شرح دهد.
https://python.langchain.com/v0.1/docs/integrations/chat/openai/
Forwarded from کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
اگر دوست داشتید ما را در اینستاگرام نیز دنبال کنید:
@class.vision
🙏https://www.instagram.com/class.vision/
@class.vision
🙏https://www.instagram.com/class.vision/
خلاصه ارائه دیروز OpenAI و شفافسازی برخی اصطلاحات و زمانبندی
دیروز OpenAI ارائه خیلی جالبی داشت که سریع ترند شد! بیایید باهم خلاصهوار به اون نگاهی بندازیم و چند تا اصطلاح و زمانبندی رو روشن کنیم.
پیشنهاد میکنم دو تا داکیومنت کوتاه رو که دیروز منتشر شدن بخونید:
1️⃣ [لینک اول توضیح دسترسی به GPT-4، GPT-4 Turbo و GPT-4o]
2️⃣ [لینک دوم درباره قابلیتهای صوتی جدید چتجیپیتی و رایگان شدن آن]
شاید با دیدن قابلیتهای صوتی جدید در چتجیپیتی وسوسه شدید اون رو امتحان کنید، ولی متاسفانه باید فعلا صبر کنید😩.
چتجیپیتی فعلا به روش قدیمی جواب شما رو میده. یعنی متن رو به صوت و برعکس تبدیل میکنه، نه با اون سرعت و هوشمندیای که توی نمایشها دیدیم.
در حال حاضر، چتجیپیتی از قابلیت “حالت صوتی” که از اول وجود داشته برای پشتیبانی از صدا استفاده میکنه. قابلیتهای صوتی و تصویری جدید GPT-4o به زودی به چتجیپیتی اضافه میشه. (بیشتر در این مورد پایین توضیح میدیم).
یعنی مدل هوشمند جدید با روش قدیمی (کندتر) با شما صحبت میکنه. مدل سریعتر و جدیدتر به زودی در دسترس قرار میگیره، بله، و حتی بعدا میتونه آواز هم بخونه!
اون اپلیکیشن با تمام امکاناتی که توی نمایش دیدیم، آمادهست، ولی فعلا فقط برای مک. به تدریج در مناطق و حسابهای کاربری مختلف عرضه میشه. چتجیپیتی به شما اطلاع میده.
برای ویندوز فعلا خبری نیست: قراره اواخر امسال نسخه ویندوز هم عرضه بشه.
درباره محدودیت پیام: "کاربران پلاس میتونن تا ۸۰ پیام هر ۳ ساعت با GPT-4o و تا ۴۰ پیام هر ۳ ساعت با GPT-4 ارسال کنن. ممکنه این محدودیت در ساعات اوج ترافیک برای اینکه GPT-4 و GPT-4o برای تعداد بیشتری از افراد در دسترس باشه، کاهش پیدا کنه." برای حسابهای رایگان، این محدودیت میتونه خیلی کم باشه، مخصوصا اگه سرور نزدیک شما شلوغ باشه. حتی گاهی اوقات فقط ۲ تا ۴ پیام. اول از همه محدودیت حسابهای رایگان کم میشه و به ۳.۵ تا پیام در هر ۳ ساعت تغییر میکنه.
ظرفیت حافظه مدل GPT-4o هم 128 کیلوبایت هست. خیلی زیاده. برای ۹۵ درصد از کاربران خیلی زیاده. به طور کلی این مقدار، حجم متن و پیامهای یه چت رو شامل میشه که مدل برای پاسخ دادن به شما توی حافظه نگه میداره تا بر اساس اطلاعاتی که "تو مغزش داره" جواب بده.
مدل جدید تصاویر رو بهتر درک میکنه: قابلیتهای تصویری GPT-4o عملکرد بهتری نسبت به GPT-4 توربو داره.
دو برابر سریعتره (این توی چتجیپیتی قابل توجهه): GPT-4o دو برابر سریعتر از GPT-4 توربو هست.
پشتیبانی GPT-4o از زبانهای غیرانگلیسی نسبت به GPT-4 توربو بهبود پیدا کرده.
برای علاقهمندان به API:
قیمت: GPT-4o نسبت به GPT-4 توربو ۵۰ درصد ارزونتره و قیمتش ۵ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی هست.
محدودیت سرعت: محدودیت سرعت GPT-4o پنج برابر بیشتر از GPT-4 توربو هست - تا ۱۰ میلیون توکن در دقیقه.
این قابلیتهای چندوجهی به تدریج فعال میشن. مثلا تبدیل صدا به صدا، تصویر به تصویر، و مکالمه با ویدیو. فکر میکنم به زودی شاهد آپدیت DALL·E 3 یا یه روش کاملا جدید برای تولید تصویر باشیم. باید صبر کنیم.
در همین حال، GPT-4o در تستهای مختلف عملکرد بهتری نسبت به مدلهای دیگه داره و به صورت رایگان در چتجیپیتی در دسترسه.
🖇مطالب مرتبط:
https://www.tg-me.com/cvision/3513
https://www.tg-me.com/cvision/3514
https://www.tg-me.com/cvision/3517
https://www.tg-me.com/cvision/3518
https://www.tg-me.com/cvision/3519
@cvision
دیروز OpenAI ارائه خیلی جالبی داشت که سریع ترند شد! بیایید باهم خلاصهوار به اون نگاهی بندازیم و چند تا اصطلاح و زمانبندی رو روشن کنیم.
پیشنهاد میکنم دو تا داکیومنت کوتاه رو که دیروز منتشر شدن بخونید:
1️⃣ [لینک اول توضیح دسترسی به GPT-4، GPT-4 Turbo و GPT-4o]
2️⃣ [لینک دوم درباره قابلیتهای صوتی جدید چتجیپیتی و رایگان شدن آن]
شاید با دیدن قابلیتهای صوتی جدید در چتجیپیتی وسوسه شدید اون رو امتحان کنید، ولی متاسفانه باید فعلا صبر کنید😩.
چتجیپیتی فعلا به روش قدیمی جواب شما رو میده. یعنی متن رو به صوت و برعکس تبدیل میکنه، نه با اون سرعت و هوشمندیای که توی نمایشها دیدیم.
در حال حاضر، چتجیپیتی از قابلیت “حالت صوتی” که از اول وجود داشته برای پشتیبانی از صدا استفاده میکنه. قابلیتهای صوتی و تصویری جدید GPT-4o به زودی به چتجیپیتی اضافه میشه. (بیشتر در این مورد پایین توضیح میدیم).
یعنی مدل هوشمند جدید با روش قدیمی (کندتر) با شما صحبت میکنه. مدل سریعتر و جدیدتر به زودی در دسترس قرار میگیره، بله، و حتی بعدا میتونه آواز هم بخونه!
اون اپلیکیشن با تمام امکاناتی که توی نمایش دیدیم، آمادهست، ولی فعلا فقط برای مک. به تدریج در مناطق و حسابهای کاربری مختلف عرضه میشه. چتجیپیتی به شما اطلاع میده.
برای ویندوز فعلا خبری نیست: قراره اواخر امسال نسخه ویندوز هم عرضه بشه.
درباره محدودیت پیام: "کاربران پلاس میتونن تا ۸۰ پیام هر ۳ ساعت با GPT-4o و تا ۴۰ پیام هر ۳ ساعت با GPT-4 ارسال کنن. ممکنه این محدودیت در ساعات اوج ترافیک برای اینکه GPT-4 و GPT-4o برای تعداد بیشتری از افراد در دسترس باشه، کاهش پیدا کنه." برای حسابهای رایگان، این محدودیت میتونه خیلی کم باشه، مخصوصا اگه سرور نزدیک شما شلوغ باشه. حتی گاهی اوقات فقط ۲ تا ۴ پیام. اول از همه محدودیت حسابهای رایگان کم میشه و به ۳.۵ تا پیام در هر ۳ ساعت تغییر میکنه.
ظرفیت حافظه مدل GPT-4o هم 128 کیلوبایت هست. خیلی زیاده. برای ۹۵ درصد از کاربران خیلی زیاده. به طور کلی این مقدار، حجم متن و پیامهای یه چت رو شامل میشه که مدل برای پاسخ دادن به شما توی حافظه نگه میداره تا بر اساس اطلاعاتی که "تو مغزش داره" جواب بده.
مدل جدید تصاویر رو بهتر درک میکنه: قابلیتهای تصویری GPT-4o عملکرد بهتری نسبت به GPT-4 توربو داره.
دو برابر سریعتره (این توی چتجیپیتی قابل توجهه): GPT-4o دو برابر سریعتر از GPT-4 توربو هست.
پشتیبانی GPT-4o از زبانهای غیرانگلیسی نسبت به GPT-4 توربو بهبود پیدا کرده.
برای علاقهمندان به API:
قیمت: GPT-4o نسبت به GPT-4 توربو ۵۰ درصد ارزونتره و قیمتش ۵ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی هست.
محدودیت سرعت: محدودیت سرعت GPT-4o پنج برابر بیشتر از GPT-4 توربو هست - تا ۱۰ میلیون توکن در دقیقه.
این قابلیتهای چندوجهی به تدریج فعال میشن. مثلا تبدیل صدا به صدا، تصویر به تصویر، و مکالمه با ویدیو. فکر میکنم به زودی شاهد آپدیت DALL·E 3 یا یه روش کاملا جدید برای تولید تصویر باشیم. باید صبر کنیم.
در همین حال، GPT-4o در تستهای مختلف عملکرد بهتری نسبت به مدلهای دیگه داره و به صورت رایگان در چتجیپیتی در دسترسه.
🖇مطالب مرتبط:
https://www.tg-me.com/cvision/3513
https://www.tg-me.com/cvision/3514
https://www.tg-me.com/cvision/3517
https://www.tg-me.com/cvision/3518
https://www.tg-me.com/cvision/3519
@cvision
Openai
How can I access GPT-4, GPT-4 Turbo and GPT-4o? | OpenAI Help Center
Learn how to get access to GPT-4o in ChatGPT and GPT-4, GPT-4 Turbo, and GPT-4o the OpenAI API
⚡️ گوگل I/O 2024: هوش مصنوعی، اندروید 15 و دنیایی از نوآوری ها! ⚡️
غول فناوری، گوگل، در رویداد I/O 2024، از جدیدترین دستاوردهای خود در زمینه هوش مصنوعی، اندروید و موارد دیگر رونمایی کرد.
اندروید 15 نیز با آپدیت های جذاب و کارآمد، تجربه کار با گوشی های هوشمند را متحول خواهد کرد.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️
غول فناوری، گوگل، در رویداد I/O 2024، از جدیدترین دستاوردهای خود در زمینه هوش مصنوعی، اندروید و موارد دیگر رونمایی کرد.
اندروید 15 نیز با آپدیت های جذاب و کارآمد، تجربه کار با گوشی های هوشمند را متحول خواهد کرد.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️
قابلیت Ask Photos: جستجوی هوشمندانه در دنیای تصاویرتان!
قابلیت Ask Photos، که به تازگی توسط گوگل در Google Photos معرفی شده، انقلابی در نحوه جستجو و مدیریت تصاویر ایجاد کرده است. این قابلیت به شما امکان می دهد تا با استفاده از زبان طبیعی و به جای کلمات کلیدی، به سادگی و به سرعت تصاویر مورد نظرتان را پیدا کنید.
تصور کنید: می خواهید عکس هایتان را بر اساس مکان، زمان، افراد حاضر در عکس یا حتی اشیاء موجود در آنها جستجو کنید. Ask Photos با درک دقیق محتوای تصاویر، به شما کمک می کند تا به راحتی به این خواسته خود برسید.
علاوه بر این، Ask Photos می تواند برای یافتن تصاویر مشابه، بهترین عکس از یک رویداد خاص و یا حتی خاطراتتان در مورد یک مکان خاص نیز مورد استفاده قرار گیرد.
این قابلیت در حال حاضر برای مشترکین Google One در زبان انگلیسی در دسترس است و به زودی برای سایر زبان ها و کاربران نیز ارائه خواهد شد.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️
قابلیت Ask Photos، که به تازگی توسط گوگل در Google Photos معرفی شده، انقلابی در نحوه جستجو و مدیریت تصاویر ایجاد کرده است. این قابلیت به شما امکان می دهد تا با استفاده از زبان طبیعی و به جای کلمات کلیدی، به سادگی و به سرعت تصاویر مورد نظرتان را پیدا کنید.
تصور کنید: می خواهید عکس هایتان را بر اساس مکان، زمان، افراد حاضر در عکس یا حتی اشیاء موجود در آنها جستجو کنید. Ask Photos با درک دقیق محتوای تصاویر، به شما کمک می کند تا به راحتی به این خواسته خود برسید.
علاوه بر این، Ask Photos می تواند برای یافتن تصاویر مشابه، بهترین عکس از یک رویداد خاص و یا حتی خاطراتتان در مورد یک مکان خاص نیز مورد استفاده قرار گیرد.
این قابلیت در حال حاضر برای مشترکین Google One در زبان انگلیسی در دسترس است و به زودی برای سایر زبان ها و کاربران نیز ارائه خواهد شد.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️
♨️ با AI Overviews، دنیای اطلاعات در دستان شماست! ♨️
این قابلیت جدید گوگل، به شما کمک میکند تا به سرعت و به سادگی، خلاصهای جامع و دقیق از هر موضوعی که به آن علاقه دارید، دریافت کنید.
قابلیت AI Overviews با استفاده از هوش مصنوعی قدرتمند گوگل، منابع مختلف مانند مقالات، وبسایتها و حتی کتابها را تجزیه و تحلیل میکند و مهمترین نکات را به صورت خلاصهای خواندنی به شما ارائه میدهد.
با AI Overviews میتوانید:
💢 در زمان خود صرفهجویی کنید و به سرعت به اطلاعات مورد نیازتان دسترسی پیدا کنید.
💢 دانش خود را در هر زمینهای افزایش دهید، بدون اینکه نیاز به مطالعهی حجم زیادی از مطالب داشته باشید.
💢 موضوعات پیچیده را به سادگی درک کنید و از جزئیات مهم آنها آگاه شوید.
قابلیت AI Overviews در حال حاضر به زبان انگلیسی در دسترس است، اما به زودی به زبانهای دیگر نیز ترجمه خواهد شد.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️
این قابلیت جدید گوگل، به شما کمک میکند تا به سرعت و به سادگی، خلاصهای جامع و دقیق از هر موضوعی که به آن علاقه دارید، دریافت کنید.
قابلیت AI Overviews با استفاده از هوش مصنوعی قدرتمند گوگل، منابع مختلف مانند مقالات، وبسایتها و حتی کتابها را تجزیه و تحلیل میکند و مهمترین نکات را به صورت خلاصهای خواندنی به شما ارائه میدهد.
با AI Overviews میتوانید:
💢 در زمان خود صرفهجویی کنید و به سرعت به اطلاعات مورد نیازتان دسترسی پیدا کنید.
💢 دانش خود را در هر زمینهای افزایش دهید، بدون اینکه نیاز به مطالعهی حجم زیادی از مطالب داشته باشید.
💢 موضوعات پیچیده را به سادگی درک کنید و از جزئیات مهم آنها آگاه شوید.
قابلیت AI Overviews در حال حاضر به زبان انگلیسی در دسترس است، اما به زودی به زبانهای دیگر نیز ترجمه خواهد شد.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️
چشم به آینده با هوش مصنوعی Astra گوگل!
در رویداد Google I/O 2024، شاهد رونمایی از پروژهی Astra، یک دستیار هوش مصنوعی فوقالعاده، بودیم.
گوگل با رونمایی از «پروژه Astra» مستقیماً قابلیتهای جدید ChatGPT را هدف گرفت.
پروژه Astra با استفاده از هوش مصنوعی قدرتمند Gemini، به شما کمک میکند تا با دنیای اطرافتان به گونهای جدید تعامل داشته باشید.
طبق ویدئویی که گوگل روز گذشته بهنمایش گذاشت، این دستیار هوشمند میتواند:
♨️ محیط اطراف شما را درک کند و به سوالات در مورد آن پاسخ دهد.
♨️ اشیاء گمشده شما را پیدا کند.
♨️ منابع ایجاد صدا را در محیط تان مشخص کند.
... و بسیاری کارهای شگفتانگیز دیگر!
پروژه Astra نه تنها روی گوشیهای هوشمند، بلکه روی عینکهای هوشمند نیز قابل استفاده است. ️ این امر تجربهای کاملاً جدید و فراگیر از هوش مصنوعی را به ارمغان میآورد.
پروژهی Astra هنوز در مراحل اولیه توسعه قرار دارد و به برنامهی انتشار عمومی آن اشارهای نشده است.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️
در رویداد Google I/O 2024، شاهد رونمایی از پروژهی Astra، یک دستیار هوش مصنوعی فوقالعاده، بودیم.
گوگل با رونمایی از «پروژه Astra» مستقیماً قابلیتهای جدید ChatGPT را هدف گرفت.
پروژه Astra با استفاده از هوش مصنوعی قدرتمند Gemini، به شما کمک میکند تا با دنیای اطرافتان به گونهای جدید تعامل داشته باشید.
طبق ویدئویی که گوگل روز گذشته بهنمایش گذاشت، این دستیار هوشمند میتواند:
♨️ محیط اطراف شما را درک کند و به سوالات در مورد آن پاسخ دهد.
♨️ اشیاء گمشده شما را پیدا کند.
♨️ منابع ایجاد صدا را در محیط تان مشخص کند.
... و بسیاری کارهای شگفتانگیز دیگر!
پروژه Astra نه تنها روی گوشیهای هوشمند، بلکه روی عینکهای هوشمند نیز قابل استفاده است. ️ این امر تجربهای کاملاً جدید و فراگیر از هوش مصنوعی را به ارمغان میآورد.
پروژهی Astra هنوز در مراحل اولیه توسعه قرار دارد و به برنامهی انتشار عمومی آن اشارهای نشده است.
♨️♨️♨️♨️♨️
〰️〰️〰️〰️〰️
💡 @cvision 💡
〰️〰️〰️〰️〰️