Telegram Web Link
از یه LLM مثل جی‌پی‌تی۴ بخوای بوی یه چادر مسافرتی خیس بارون رو حس کنه، خیلی مودبانه میگه نه. ولی اگه ازش بخوای اون بو رو برات توصیف کنه، شروع می‌کنه به شعر گفتن از «هوای پر از انتظار» و «بوی تازه و خاکی»، بدون اینکه اصلا بارون دیده باشه یا دماغ داشته باشه که بتونه اینجوری قضاوت کنه! یه توضیح ممکن اینه که هوش مصنوعی داره فقط از روی متن‌هایی که تو داده‌های آموزشی زیادش بوده، تقلید می‌کنه، نه اینکه واقعا بوی بارون یا چیزی دیگه رو درک کنه.

اما اینکه چشم ندارن، یعنی مدل‌های زبانی هیچوقت نمی‌تونن بفهمن که شیر از گربه خونگی بزرگتره؟

فیلسوفا و دانشمندان مدت‌ها فکر می‌کردن که توانایی فهمیدن معنی زبان، نشونه‌ی هوش انسانیه و درمورد اینکه چه چیزایی لازم داریم تا بتونیم این کار رو انجام بدیم، زیاد اندیشیدن

دانشمندان آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) در تلاش برای کشف راز کارکرد مدل‌های زبانی، نتایج جالبی پیدا کردن. به نظر می‌رسه این مدل‌ها برای بهتر جواب دادن، دارن سعی می‌کنن دنیای واقعی رو خودشون بفهمند.

این تیم اول یه سری پازل ساده به اسم کارل ساختن. این پازلا درباره دادن دستور به یه ربات تو یه دنیای شبیه‌سازی شده بود. بعد این مدل رو با راه حل های این پازلا آموزش دادن، اما بدون اینکه نشون بدن راه حل ها چطور کار می‌کنن. در آخر، با استفاده از یه تکنیک هوش مصنوعی به اسم "probing"، دانشمندان رفتن داخل ذهن مدل و دیدن که وقتی داره جواب جدید می‌سازه، چطور فکر می‌کنه.

بعد از اینکه مدل رو با تعداد زیادی پازل آموزش دادن، مدل خودش یه تصویر ذهنی از دنیایی که توش پازلا حل می‌شد، ساخته. این خیلی جالبه چون مدل هیچ وقت این دنیا رو ندیده بود.
یعنی مدل توانسته با استفاده از اطلاعات پازلاها، خودش یه دنیای مجازی بسازه و درکش کنه. این باعث شده که دانشمندا به این فکر کنن که شاید برای یادگیری زبان، به اطلاعات کمتری از اون چیزی که فکر می‌کردیم نیاز داریم. همچنین، این احتمال وجود داره که مدل‌های زبانی در آینده بتونن خیلی بهتر از الان زبان رو بفهمند.

نویسندگان مقاله میگن اولش که شروع کردیم، مدل زبانی دستورهای بیخود و الکی می‌داد. اما کم کم که آموزشش دادیم، رسیدیم به جایی که مدل تونست تو ۹۲.۴ درصد مواقع دستورهای درست بده. این خیلی برامون هیجان‌انگیز بود چون فکر کردیم اگه مدل بتونه با این دقت کار کنه، شاید بتونه معنی کلمات رو هم بفهمه. این شد نقطه شروع ما برای فهمیدن اینکه آیا مدل‌های زبانی واقعا متن رو می‌فهمن یا نه. حالا می‌بینیم که این مدل‌ها خیلی بیشتر از اینکه فقط کلمات رو کنار هم بچینن، کار بلدن

ادمه دارد ...

https://arxiv.org/pdf/2305.11169
17👍11
Tensorflow(@CVision)
از یه LLM مثل جی‌پی‌تی۴ بخوای بوی یه چادر مسافرتی خیس بارون رو حس کنه، خیلی مودبانه میگه نه. ولی اگه ازش بخوای اون بو رو برات توصیف کنه، شروع می‌کنه به شعر گفتن از «هوای پر از انتظار» و «بوی تازه و خاکی»، بدون اینکه اصلا بارون دیده باشه یا دماغ داشته باشه…
probe

وظیفه داشت بفهمه مدل زبانی چطور فکر می‌کنه و دستورها چه معنی میدن. معلوم شد که مدل زبانی یه تصویر ذهنی از حرکت ربات برای هر دستور می‌سازه. هر چی مدل زبانی بهتر می‌تونست پازل‌ها رو حل کنه، این تصویر ذهنی هم دقیق‌تر می‌شد. این یعنی مدل زبانی داشت کم کم معنی دستورها رو می‌فهمید. بعد از یه مدت، مدل زبانی تونست دستورهای کاملی بده که ربات رو درست حرکت می‌داد.

مدل زبانی مثل بچه کوچیکه یاد می‌گیره حرف بزنه. اولش فقط تکرار می‌کنه و حرفاش بی‌معنیه. بعدش یاد می‌گیره کلمات چطور کنار هم قرار می‌گیرن (قواعد زبان). اینجوری می‌تونه دستورهایی بده که شبیه جواب درست باشه، ولی بازم کار نمی‌کنه.
کم کم دستورهای مدل زبانی بهتر می‌شن. وقتی مدل زبانی معنی کلمات رو می‌فهمه، شروع می‌کنه به دادن دستورهایی که دقیقا همون کاری رو می‌کنن که خواسته شده، مثل یه بچه که جمله‌های درست می‌سازه.

این تحقیق مستقیما به یه سوال مهم تو هوش مصنوعی میپردازه: آیا قابلیت‌های عجیب مدل‌های زبانی بزرگ فقط به خاطر پیدا کردن الگو تو داده‌های زیاد هست یا این مدل‌ها واقعا معنی چیزی که دارن روش کار می‌کنن رو می‌فهمن؟

نویسنده مقاله میگه این تحقیق نشون می‌ده که مدل زبانی یه مدل ذهنی از دنیای شبیه‌سازی شده می‌سازه، حتی اگه اصلا یاد نگرفته باشه این کار رو بکنه.

این آزمایش بیشتر از قبل نشون داد که مدل‌های زبانی می‌تونن معنی عمیق کلمات رو بفهمن. با این حال، نویسنده قبول داره که مقاله شون محدودیت‌هایی داره: اونا از یه زبان برنامه‌نویسی خیلی ساده و یه مدل کوچیک استفاده کردن. تو کار بعدی شون می‌خوان از یه محیط کلی‌تر استفاده کنن. هرچند این تحقیق نمی‌گه چطور مدل زبانی رو سریع‌تر آموزش بدیم که معنی رو بفهمه، ولی فکر می‌کنه تحقیقات بعدی می‌تونن با استفاده از این یافته‌ها، روش آموزش مدل‌های زبانی رو بهتر کنن.
👍62
This media is not supported in your browser
VIEW IN TELEGRAM
تن الن تورینگ هم توی گور می‌لرزه وقتی بهش بگی هوش مصنوعی خلاصه شد در مدل های با میلیاردها پارامتر که بر روی پیشبینی کلمه بعدی آموزش دیده اند
🔥32👍14😁11🤔1
دوستانی که قبلا محتوا خریدند، و قصد ثبت نام دارند، لطفا به پشتیبانی پیام دهند که مبلغ محتوا کسر گردد
ما آتش رو اختراع کردیم، بارها و بارها خرابکاری کردیم، و بعدش کپسول آتش‌نشانی، راه خروج اضطراری، آژیر آتش و آتش‌نشانی رو اختراع کردیم!

هر پستانداری روی این سیاره به طور غریزی تعادل طبیعی با محیط اطرافش برقرار می‌کنه، اما شما انسان‌ها این کار را نمی‌کنید. شما به جایی نقل مکان می‌کنید و تکثیر و تکثیر می‌شین تا تمام منابع طبیعی مصرف شه و در نهایت تنها راه بقای شما گسترش به محل دیگست. موجود دیگری روی این سیاره وجود داره که از الگوی مشابهی پیروی می‌کنه. میدونید چیه؟ یک ویروس!

Life 3.0 📚

https://youtu.be/rEXUxVzJhuM?feature=shared
👍16🤔31😢1
قبلاً اگه می‌خواستید یه فیلم دو ساعته رو به یه هوش مصنوعی نشون بدین و ازش سوال بپرسین، باید کلی صبر می‌کردین تا جوابتونو بده. تازه خیلی وقتا هم جواب درست و حسابی نمی‌داد!

ولی حالا یه مدل جدید به اسم mPLUG-Owl3 توسط علی بابا منتشر شده. این مدل می‌تونه تو عرض فقط ۴ ثانیه یه فیلم دو ساعته رو کامل ببینه و بعدش هر سوالی که ازش بپرسین رو جواب بده.

فرقی هم نداره که ازش بپرسین وسط فیلم چه اتفاقی افتاد یا آخرش چی شد، این مدل همه چی رو یادش می‌مونه و جوابتونو با جزئیات میده. انگار که خودش داره فیلم رو براتون تعریف می‌کنه


mPLUG-Owl3 
یک مدل زبانی بزرگ چندحالته هست که برای حل چالش‌ درک دنباله‌های طولانی تصاویر طراحی شده، بدین منظور ماژولی بنام hyper attention  رو پیشنهاد میدن که سرعت درک دنباله‌های تصویری طولانی در مدل‌های زبانی بزرگ چندحالته رو تا شش برابر افزایش میده و پردازش دنباله‌های تصویری تا هشت برابر طولانی‌تر رو امکان‌پذیر می‌کنه

https://www.arxiv.org/abs/2408.04840
👍17
This media is not supported in your browser
VIEW IN TELEGRAM
🎓ثبت نام دوره تعاملی هوش مصنوعی و دیپ لرنینگ🎓

📢کلاس ویژن با همکاری مجموعه دانش‌بنیان شناسا برگزار میکند
🧠دوره کامل یادگیری عمیق با TensorFlow/Keras🧑‍💻👩‍💻

🔗لینک ثبت نام و اطلاعات دوره

✔️ آموزش‌های آنلاین و جلسات رفع اشکال (15 جلسه)
✔️ محتوای ضبط‌شده (بالغ بر 40 ساعت)
✔️ گواهی پایان دوره

✔️ تسهیل ورود به بازارکار

👤مدرس: علیرضا اخوان‌پور
- مدرس دانشگاه،
- مدیر فنی مجموعه دانش‌بنین شناسا؛
- مدرس و مشاور هوش مصنوعی



🗓شروع از 19 شهریور
~~~~~~~~~~~~~
🎉کد تخفیف ویژه، برای ثبت نام زود هنگام:
deep_early_register

📞سوالات و راهنمایی پیرامون دوره و روال ثبت نام: @classvision_support
🔍اطلاعات تکمیلی و اطلاعیه های بعدی: @class_vision
🔗لینک ثبت نام و اطلاعات دوره
👍93😁2
ویدیوی معرفی دو تبلیغ بالا با این سرویس رایگان هوش مصنوعی ایجاد شده است.
تصویر با
https://app.leonardo.ai/
و تبدیل تصویر به ویدیو با:
https://lumalabs.ai/

————————
https://www.tg-me.com/cvision/3660
https://www.tg-me.com/cvision/3661
2👍2
This media is not supported in your browser
VIEW IN TELEGRAM
📢🎉ثبت نام دومین دوره جامع یادگیری عمیق کلاس ویژن آغاز شد.

کد تخفیف 700.000 تومانی ویژه ثبت نام زود هنگام برای 10 نفر ثبت نامی اول

deep_early_register


🔗لینک ثبت نام و اطلاعات دوره

دسترسی مادام العمر به محتوای کلاس
دسترسی به محتوا + کلاسهای رفع اشکال + تمرین و پروژه و تصحیح + مدرک + معرفی به بازارکار
🧑‍🏫مدرس: علیرضا اخوان‌پور
🎁در انتهای دوره دانشجویان برتر به شرکت های فعال در زمینه هوش مصنوعی برای انجام مصاحبه معرفی خواهند شد.
🕔کلاس های  رفع اشکال از بازه 19 شهریور تا 25 آذر با مدرس دوره
👍61😁1🤯1
دوره‌ی openCV تو مکتب خونه امروز 60 درصد تخفیف خورده...

لینک خرید
8😁2🔥1
Restoring speaker voices with zero-shot cross-lingual voice transfer for TTS
https://research.google/blog/restoring-speaker-voices-with-zero-shot-cross-lingual-voice-transfer-for-tts/
👍2
Forwarded from School of AI (Hamidreza Hosseinkhani)
This media is not supported in your browser
VIEW IN TELEGRAM
اگر در زمینه‌ی بینایی رایانه (Computer Vision) فعال باشید، حتما Roboflow رو می‌شناسید.

مهم‌ترین قابلیتی که Roboflow به متخصصان CV ارائه می‌ده، قابلیت Annotate کردن تصاویر و آماده‌سازی و میزبانی دیتاست‌ست.

این ابزار از مدل‌های بنیادین مثل GroundingDINO و SAM استفاده کرده و تا جای ممکن، عمل Annotation رو به‌صورت خودکار انجام می‌ده.

امروز SAM2 به روبوفلو اضافه شد که عمل‌كرد بی‌نظیر اون رو در تصویر می‌بینید.
👍223
صحبت های خانم Fei-Fei Li در مورد قدرت الگوریتم ها در دستیابی به هوش فضایی در تد.

به طور خلاصه :

حدود 540 میلیون سال پیش، زمین توی تاریکی مطلق بود، ولی این تاریکی به خاطر نبود نور نبود، بلکه به خاطر این بود که هیچ موجودی توانایی دیدن نداشت. هیچ‌کس نمی‌تونست نور رو حس کنه و به همین دلیل نور و زندگی که تو دریاها وجود داشت، نادیده می‌موند. تا اینکه موجوداتی به نام تریلوبیت‌ها برای اولین بار تونستن نور رو حس کنن و این توانایی باعث یه تحول بزرگ تو زندگی روی زمین شد و در نهایت به تکامل هوش تو جهان حیوانی انجامید.

با گذشت زمان و پیشرفت تکنولوژی، انسان‌ها تونستن با ترکیب الگوریتم‌های شبکه عصبی، سخت‌افزارهای پیشرفته و داده‌های بزرگ، ماشین‌هایی بسازن که مثل انسان‌ها بتونن دنیا رو ببینن و درک کنن. این پیشرفت تو زمینه بینایی ماشین و هوش مصنوعی باعث شد که این ماشین‌ها بتونن تصاویر و ویدئوهای جدیدی رو بر اساس یه جمله توصیفی ایجاد کنن یا فضاهای سه‌بعدی پیچیده‌ای رو از یه تصویر بسازن.

پیشرفت‌های اخیر تو هوش مصنوعی فقط به دیدن محدود نشده، بلکه حالا ماشین‌ها می‌تونن کارهای پیچیده‌ای رو تو دنیای سه‌بعدی انجام بدن. این تغییرات مخصوصاً تو زمینه‌هایی مثل رباتیک و بهداشت کاربردهای زیادی دارن، مثلاً ربات‌های خودمختاری که می‌تونن کارهای روزمره رو انجام بدن و کیفیت زندگی انسان‌ها رو بهتر کنن. البته برای اینکه به طور کامل به این آینده برسیم، لازمه که فناوری‌هایی توسعه بدیم که همیشه انسان رو در اولویت قرار بدن و به بهبود رفاه جمعی و حفظ کرامت انسانی کمک کنن.

https://youtu.be/y8NtMZ7VGmU?si=hXHMVvWwptRJUjuY
👍12🎉3👌1
Tensorflow(@CVision)
اعضای اصلی تیم Stable Diffusion تأسیس یک شرکت جدید را اعلام کردن Robin Rombach که یکی از نویسندگان اصلی Stable Diffusion هستش و در ماه مارس از Stability AI جدا شد، به همراه چندین همکار سابق خود، به طور رسمی خبر تشکیل یک شرکت جدید رو اعلام کرد نام این شرکت…
می‌تونید با ۱۰ الی ۱۵ تصویر در ۱۰۰۰ گام لورا Flux رو برای هر نوع دست‌خطی، حتی دست‌خط خودتون، آموزش بدین

این قابلیت خیلی جالبه، مخصوصاً با توجه به اینکه Flux هنوز توی مراحل اولیه‌شه.

https://huggingface.co/fofr/flux-tolkien-handwriting
👍7
آیدان گومز(جوانترین عضو از نویسندگان مقاله transformer)، مدیرعامل و یکی از بنیان‌گذاران شرکت Cohere، توی مصاحبه‌اش گفت که فقط فروش مدل‌ها برای موفقیت کافی نیست. او توضیح میده که افزایش مقیاس مدل‌ها تنها راه پیشرفت نیست و استارتاپ‌های هوش مصنوعی باید از خدمات ابری دوری کنند تا بتونند با OpenAI رقابت کنند. به نظرش، کیفیت داده‌ها هم خیلی مهمه و تو پنج سال آینده باید منتظر پیشرفت‌های بزرگ توی رباتیک باشیم.

او افزود که پیشرفت بزرگ بعدی توی هوش مصنوعی به رباتیک مربوط میشه. هزینه‌ها داره کم میشه و باید مدل‌های بهتری داشته باشیم. خیلی از مشکلات قدیمی توی رباتیک حل شده و ربات‌ها الان می‌تونند بهتر استدلال و برنامه‌ریزی کنند. ممکنه تو پنج تا ده سال آینده ربات‌های انسان‌نمای عمومی با هزینه کم و قابلیت‌های بالا رو ببینیم.

گومز معتقده تکنولوژی‌های جدید توی محصولات و اپلیکیشن‌ها می‌تونند تغییرات مثبت و مفیدی توی تعاملات اجتماعی و تولید محتوا ایجاد کنند. به نظرش، هوش مصنوعی می‌تونه توی آموزش و تعاملات مفید باشه، ولی جایگزین روابط انسانی نمیشه. همچنین به نگرانی‌ها درباره کاهش مشاغل هم اشاره کرده و گفته که تکنولوژی ممکنه توی بعضی زمینه‌ها مثل پشتیبانی مشتری جایگزین‌هایی ایجاد کنه، اما به طور کلی این تغییرات به نفع رشد و کارایی انسان‌ها خواهد بود.


https://www.youtube.com/watch?v=FUGosOgiTeI
👍11🔥3
هزینه 1 میلیون توکن GPT تو 18 ماه از 180 دلار به 0.75 دلار کاهش پیدا کرده.

مدل زبانی بزرگ لاما ۳ که متا ساخته، اونقدر که باید مورد استقبال قرار نگرفته و این باعث شده بحث بین مدل‌های منبع‌باز و منبع بسته داغ‌تر بشه.

Lama 3
برای جذب مشتری تو آمازون وب سرویس (AWS) به مشکل بر خورده. بیشتر مشتریان سازمانی آمازون به جای Lama، مدل زبانی منبع بسته کلود که آنتروپیک توسعه داده رو ترجیح میدن.

منابع داخلی مایکروسافت هم میگن که Lama انتخاب اولشون برای فروش نیست و ترجیح میدن Lama رو به شرکت‌هایی پیشنهاد بدن که تخصص داده‌ای بالا دارن، مثل شرکت‌هایی که مهندس و متخصص داده دارن.
6👍1
Tensorflow(@CVision)
هزینه 1 میلیون توکن GPT تو 18 ماه از 180 دلار به 0.75 دلار کاهش پیدا کرده. مدل زبانی بزرگ لاما ۳ که متا ساخته، اونقدر که باید مورد استقبال قرار نگرفته و این باعث شده بحث بین مدل‌های منبع‌باز و منبع بسته داغ‌تر بشه. Lama 3 برای جذب مشتری تو آمازون وب سرویس…
متا الآن با یه چالش مواجه شده که ممکنه مجبور شه برای محصولات هوش مصنوعی خودش یه تیم فروش اختصاصی تشکیل بده تا بتونه مستقیم نیازهای مشتری‌ها رو برطرف کنه. این مشکلات نشون میده که تجاری‌سازی مدل‌های بزرگ زبانی منبع‌باز چقدر سخت و پیچیده‌ است. عملکرد و بازدهی تجاری مدل‌های منبع‌باز نتونسته انتظارات مشتریان سازمانی رو برآورده کنه.

وقتی صحبت از "منبع‌باز یا منبع بسته" میشه، شرکت‌های بزرگ تولیدکننده مدل‌های زبانی مواضع متفاوتی بسته به استراتژی تجاری و تکنولوژی خودشون دارن.

سوال اینجاست که شرکت‌ها چطوری باید یه مدل زبانی رو انتخاب کنن و چطور میشه بین این دو رویکرد یه تعادل خوب پیدا کرد؟

فرق اساسی بین مدل‌های بزرگ منبع‌باز و نرم‌افزارهای منبع‌باز اینه که مدل‌های بزرگ اطلاعات مهمی مثل کد منبع آموزش، داده‌های پیش‌آماده‌سازی شده و داده‌های تنظیم شده که روی عملکرد مدل تاثیر میذاره رو منتشر نمی‌کنن. پس برخلاف نرم‌افزارهای منبع‌باز که جامعه توسعه‌دهندگان می‌تونن توش مشارکت کنن و بهبودش بدن، آموزش مدل‌های پایه فقط دست خود شرکت‌ها باقی می‌مونه.

اما کدوم مدل گرون‌تره، منبع‌باز یا منبع بسته؟

مدل‌های منبع‌باز رایگان به نظر میان و این تصور رو ایجاد می‌کنن که ارزون‌تر هستن. ولی کاربرد مدل‌های بزرگ فقط یه تکنولوژی نیست، بلکه یه راه‌حل جامع شامل "تکنولوژی + خدماته" و شرکت‌ها باید کل هزینه‌ها رو در نظر بگیرن. برای اینکه تو کسب‌وکار به همون عملکردی که مدل‌های منبع بسته ارائه میدن، با مدل‌های منبع‌باز برسیم، نیاز به سرمایه‌گذاری زیاد از لحاظ نیروی انسانی، هزینه مالی و زمان داریم که در نهایت هزینه کلی رو بالا میبره.

مدل‌های منبع‌باز بیشتر به درد پژوهش‌های دانشگاهی می‌خورن و برای پروژه‌های تجاری بزرگ که خدمات رو به مشتری‌ها ارائه میدن، مناسب نیستن. تو پروژه‌های جدی که هزینه‌های میلیونی یا حتی ده‌ها میلیونی دارن، مدل‌های منبع بسته همچنان نقش اصلی رو بازی می‌کنن.

مدل‌های منبع‌باز ارزون نیستن
👍12
چن تیان‌چیاو با همکاری مجله ساینس یه جایزه 30 هزار دلاری برای تحقیقات علمی که بر پایه هوش مصنوعی هست، راه‌اندازی کرده. مقاله‌ای که این جایزه رو ببره، توی مجله ساینس منتشر می‌شه.

اخیراً موسسه علوم اعصاب تیان‌چیائو و کریسی چن (که به اختصار بهش می‌گن "موسسه") با مجله ساینس همکاری کرده تا یه جایزه بین‌المللی برای تشویق دانشمندای جوون که با کمک هوش مصنوعی تونستن تو زمینه‌های علمی پیشرفتای مهمی کنن، به وجود بیاره.

چن تیان‌چیائو، که یه زمانی یکی از چهره‌های شناخته‌شده در صنعت اینترنت چین بود، بعد از 8 سال کار تو حوزه علوم اعصاب و تقریباً 2 سال سرمایه‌گذاری کامل روی توسعه نسل جدید هوش مصنوعی و به دست آوردن نتایج قابل توجه، این جایزه بین‌المللی رو راه‌اندازی کرده.

بر اساس اطلاعاتی که توی وبسایت‌های موسسه و مجله ساینس اومده، این جایزه از دانشمندای جوون از سراسر دنیا که با استفاده از هوش مصنوعی تو زمینه‌های مختلف علوم طبیعی (مثل علوم زیستی و فیزیک) به دستاوردای مهمی رسیدن، دعوت می‌کنه تا مقالاتشون رو که حداکثر 1000 کلمه دارن، ارسال کنن.

شرط شرکت تو این مسابقه اینه که شما حداکثر 10 سال پیش دکتراش رو گرفته باشید. برنده اصلی این جایزه 30 هزار دلار می‌گیره و چند نفر از برنده‌های برتر هم 10 هزار دلار جایزه نقدی به همراه اشتراک 5 ساله نسخه دیجیتال مجله ساینس دریافت می‌کنن. همه مقالات برگزیده هم تو مجله ساینس چاپ می‌شن.

ثبت‌نام برای این جایزه الان شروع شده و مهلت ارسال مقالات تا 13 دسامبر 2024 هست. برای اطلاعات بیشتر و نحوه ثبت‌نام، می‌تونین روی لینک زیر کلیک کنین:

https://www.science.org/content/page/how-enter-chen-institute-science-prize-ai-accelerated-research
👌1
This media is not supported in your browser
VIEW IN TELEGRAM
GameNGen
اولین موتور بازیه که کاملاً با یه مدل عصبی کار می‌کنه و تعامل ریل تایم با محیط‌های پیچیده رو تو مسیرهای طولانی با کیفیت بالا ممکن می‌کنه.

 این موتور بازی که توسط deepmind معرفی شده 
 می‌تونه بازی کلاسیک DOOM رو با بیشتر از 20 فریم در ثانیه روی یه TPU به صورت تعاملی شبیه‌سازی کنه. 

حالا تصویر ایجاد یه رمان بصری که خودش رو در حین بازی تولید می‌کنه می‌تونه بسیار هیجان انگیز باشه

https://arxiv.org/abs/2408.14837
👍12
2025/07/14 00:07:45
Back to Top
HTML Embed Code: