Telegram Web Link
❄️ گروه توسعه فناوری‌های راهبردی ستاد توسعه فناوری‌های حوزه اقتصاد دیجیتال و هوشمندسازی معاونت علمی و فناوری ریاست جمهوری قصد دارد با هدف کمک به توسعه کسب و کار های هوشمند ایرانی، از طرح های فناورانه در حوزه دستیار های متنی و صوتی در قالب اعطاء تسهیلات بلاعوض و وام حمایت نماید.
در این راستا کارگروه هوش مصنوعی این گروه اقدام به انجام فراخوان ناظر به این موضوع مهم نموده است.

متقاضیان لازم است درخواست پیشنهاد طرح را مطابق موضوع مورد بررسی طبق لینک های بیان شده در ادامه مطالعه نموده و کاربرگ مربوطه، طرح پیشنهادی و سایر موارد مورد نیاز را حداکثر تا تاریخ 18 آبان ماه 98 به این ستاد ارسال نمایند.
لازم به ذکر است که جزئیات و کاربرگ های مورد نیاز در لینک های ذیل وجود دارد:

🔸 دستیار مجازی انسان‌نمای هوشمند :
http://fna.ir/adf

🔸 تولید پیکره و فناوری گفتگوی روزمره زبان فارسی برپایه یادگیرنده های مبتنی بر مغز :
http://fna.ir/adg


@bigdataworkgroup
@irandeeplearning
Forwarded from AAIC
مجموعه سخنرانی های هوش مصنوعی با موضوعات:
🔹 پردازش زبان طبیعی
🔹 پردازش صوت
🔹 پردازش تصویر و ویدئو
🔹 یادگیری ماشین
🔹 یادگیری عمیق
🔹 اینترنت اشیاء

با حضور جمع کثیری از اساتید برجسته حوزه هوش مصنوعی و یادگیری ماشین

🗓 زمان: چهارشنبه و پنج شنبه 29 و 30 آبان 1398
🏢مکان: دانشگاه صنعتی امیرکبیر

جهت کسب اطلاعات بیشتر و ثبت نام جهت حضور در سخنرانی ها به وب سایت رویداد مراجعه نمایید.

@aaic_aut

http://aaic.aut.ac.ir/events/fall2019
Forwarded from علی یونسی
میتوانید سری 13 قسمتی «مقدمه ای بر نوروساینس» را به رایگان در آپارات در این آدرس مشاهده کنید


https://www.aparat.com/satim
Forwarded from Deleted Account
Timeline of the GANs covered in this paper. we split it in six fronts (architectural, conditional
techniques, normalization and constraint, loss functions, image-to-image translation and validation metrics), each represented
by a different color and a different line/border style.

https://arxiv.org/abs/1910.13076
این روزها، دنیای مدل های زبان طبیعی توسط Transformer و BERT محصور شده‌اند. اما اگر به سال ۲۰۱۷ برگردیم و مقاله حساس Attention Is All You Need را از گاهشمار حذف کنیم دیگر Multi-head attention وجود نداشت و فقط شکل اصلی LSTM باقی می‌ماند. با این تصور سوال این است که مدل های زبان طبیعی چگونه تکامل میافتند؟

پرسیدن سوالاتی از این دست می‌تواند گاهی ما را از گیرافتادن در کمینه های محلی که به وفور در تاریخ علم رخ می‌دهد نجات دهد. این جمله به معنای نفی ادبیات گذشته نیست بلکه بدین معناست که فاصله گرفتن از رویکرد های گذشته و تکیه نکردن بیش از حد بر روی آنها در مواردی بسیار مفید به نظر می‌رسد.

مدل هایی که از معماری Transformer الهام می‌گیرند فرضشان بر این است که هیچ ساختار سلسله مراتبی در داده ها نیست و هر لایه دارای چندین head هست. این مورد خود باعث می‌شود که محاسبات برای سخت افزار به شدت پیچیده شود و از طرفی هیچ کس به وضوح نمی‌داند که تعداد چند head در واقع کافیست. این موارد باعث میشود که احساس نیاز به یک سخت افزار قوی دوچندان شود از طرفی آموزش مدل توسط سخت افزار های رایج همانند یک کامپیوتر خانگی خارج از تصور است.

این مقاله کمی از معماری های رایج فاصله می‌گیرد و با معرفی مدل SHA-RNN داعیه صحت قاعده تیغ اُکام است.

https://zhuanlan.zhihu.com/p/94350362


جزییات معماری در مقاله:

https://arxiv.org/abs/1911.11423
This article is an attempt to explain all the matrix calculus you need in order to understand the training of deep neural networks. We assume no math knowledge beyond what you learned in calculus 1, and provide links to help you refresh the necessary math where needed. Note that you do not need to understand this material before you start learning to train and use deep learning in practice; rather, this material is for those who are already familiar with the basics of neural networks, and wish to deepen their understanding of the underlying math.

https://explained.ai/matrix-calculus/index.html
Forwarded from Deleted Account
SinGAN

With SinGAN, you can train a generative model from a single natural image, and then generate random samples form the given image

SinGAN can be also use to a line of image manipulation task

https://arxiv.org/abs/1905.01164
🗒 PyTorch: A Modern Library for Machine Learning

🖥 وبینار
زمان : دوشنبه 25 آذر ماه ساعت15:30
🔗 ثبتنام: http://fna.ir/aqt

@bigdataworkgroup
@irandeeplearning
📌 فراخوان دعوت به ارايه بحث و یا برگزاری کارگاه آموزشی در پژوهشگاه دانش های بنیادی (IPM)

📝 زمینه‌های مد نظر: علوم شناختی، علوم اعصاب، علوم داده، علوم و مهندسی کامپیوتر، هوش مصنوعی،‌ مهندسی برق، فلسفه ذهن، زبان شناسی، روان شناسی و مردم شناسی

⚠️ اولویت با طرح هایی است که زودتر ارسال شده‌اند.

🔗 forms.gle/PJE1AQHzowELmiw56
🌐 scs.ipm.ac.ir

🔔 اطلاع رسانی‌های آتی با همکاری کانال تلگرامی @convent انجام خواهد شد
🗒 Energy-Efficient Convolutional Neural Networks Using Stochastic Computing

👤 دکتر حسن نجفی از دانشگاه لوئیزیانا

🏫 پژوهشگاه دانش‌های بنیادین (IPM)، فرمانیه، نزدیک ساختمان کوه نور

زمان : پنجشنبه 28 آذر ماه ساعت15

@bigdataworkgroup
@irandeeplearning
Forwarded from سلسله جلسات "پیوست"
📚 سلسله جلسات "پیوست"

🔵جلسه دهم
🌀یادگیری و استنباط بیزی

🗣محمدرضا صمصامی
🕙 یکشنبه، 24 آذر، ساعت17:30 تا 19
🏛 كلاس 217 دانشكده علوم رياضى


چنانچه از بیرون دانشگاه تمایل به شرکت در این جلسه را دارید، خواهشمندیم فرم زیر را جهت هماهنگی ورود به دانشگاه حداکثر تا دوازده شب جمعه پر کنید.
🔗https://docs.google.com/forms/d/e/1FAIpQLSdgyjyjdSgVg1Ib2xLZFEGg3Y8J-FUWv0oqkkZjOVuecaUO1Q/viewform?usp=sf_link

همچنین اگر از بیرون دانشگاه در جلسه شرکت می کنید خواهشمندیم جهت ورود به دانشگاه از درب خیابان آزادی تردد بفرمایید.
🆔 @hamband_peyvast
🆔 @hamband_math_cs
Forwarded from Farhood F
مناظره یاشوا بنجیو و گری مارکوس به صورت زنده از لینک زیر قابل مشاهده است
https://montrealartificialintelligence.com/aidebate/

https://www.facebook.com/MontrealAI/videos/498403850881660/
NLP 2019 Highlights

2019 was an impressive year for the field of natural language processing (NLP). In this report, I want to highlight some of the most important stories related to machine learning and NLP that I came across in 2019. I will mostly focus on NLP but I will also highlight a few interesting stories related to AI in general. The headlines are in no particular order. Stories may include publications, engineering efforts, yearly reports, the release of educational resources, etc.

https://github.com/omarsar/nlp_highlights
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#پروژه_متن_باز

سلام.
با توجه به فقدان داده فارسی برای کارهایی مثل توصیف تصویر تصمیم گرفتیم دیتاست MS-COCO مربوط به image captioning را به صورت متن باز ترجمه کنیم.
سایت زیر در همین راستا آماده شده است:

http://imagecaptioning.ir

لطفا با مشارکت در آن و همچنین معرفی به دوستان خود مارا یاری کنید.

برای شروع داده های آموزش سال 2014 انتخاب شده است که ترجمه ها برای همگان در دسترس خواهد بود.
BERT
یکی از قوی ترین مدل های NLP در تاریخ است ، اما همچنین در حال حاضر پرمصرف ترین مدل در صنعت است، به طوریکه هزینه سربار محاسباتی بسیار بیشتر از ImageNet است. محققان گوگل یک بهینه ساز جدید را پیشنهاد داده‌اند که با موفقیت زمان آموزش BERT را از 3 روز به 76 دقیقه کاهش داده است. این مقاله در ICLR 2020 پذیرفته شده است.

https://arxiv.org/abs/1904.00962
2025/07/07 00:29:59
Back to Top
HTML Embed Code: