Forwarded from کارگروه کلانداده - دانشگاه صنعتی شریف
❄️ گروه توسعه فناوریهای راهبردی ستاد توسعه فناوریهای حوزه اقتصاد دیجیتال و هوشمندسازی معاونت علمی و فناوری ریاست جمهوری قصد دارد با هدف کمک به توسعه کسب و کار های هوشمند ایرانی، از طرح های فناورانه در حوزه دستیار های متنی و صوتی در قالب اعطاء تسهیلات بلاعوض و وام حمایت نماید.
در این راستا کارگروه هوش مصنوعی این گروه اقدام به انجام فراخوان ناظر به این موضوع مهم نموده است.
✅ متقاضیان لازم است درخواست پیشنهاد طرح را مطابق موضوع مورد بررسی طبق لینک های بیان شده در ادامه مطالعه نموده و کاربرگ مربوطه، طرح پیشنهادی و سایر موارد مورد نیاز را حداکثر تا تاریخ 18 آبان ماه 98 به این ستاد ارسال نمایند.
لازم به ذکر است که جزئیات و کاربرگ های مورد نیاز در لینک های ذیل وجود دارد:
🔸 دستیار مجازی انساننمای هوشمند :
http://fna.ir/adf
🔸 تولید پیکره و فناوری گفتگوی روزمره زبان فارسی برپایه یادگیرنده های مبتنی بر مغز :
http://fna.ir/adg
@bigdataworkgroup
@irandeeplearning
در این راستا کارگروه هوش مصنوعی این گروه اقدام به انجام فراخوان ناظر به این موضوع مهم نموده است.
✅ متقاضیان لازم است درخواست پیشنهاد طرح را مطابق موضوع مورد بررسی طبق لینک های بیان شده در ادامه مطالعه نموده و کاربرگ مربوطه، طرح پیشنهادی و سایر موارد مورد نیاز را حداکثر تا تاریخ 18 آبان ماه 98 به این ستاد ارسال نمایند.
لازم به ذکر است که جزئیات و کاربرگ های مورد نیاز در لینک های ذیل وجود دارد:
🔸 دستیار مجازی انساننمای هوشمند :
http://fna.ir/adf
🔸 تولید پیکره و فناوری گفتگوی روزمره زبان فارسی برپایه یادگیرنده های مبتنی بر مغز :
http://fna.ir/adg
@bigdataworkgroup
@irandeeplearning
Forwarded from AAIC
مجموعه سخنرانی های هوش مصنوعی با موضوعات:
🔹 پردازش زبان طبیعی
🔹 پردازش صوت
🔹 پردازش تصویر و ویدئو
🔹 یادگیری ماشین
🔹 یادگیری عمیق
🔹 اینترنت اشیاء
✅ با حضور جمع کثیری از اساتید برجسته حوزه هوش مصنوعی و یادگیری ماشین
🗓 زمان: چهارشنبه و پنج شنبه 29 و 30 آبان 1398
🏢مکان: دانشگاه صنعتی امیرکبیر
جهت کسب اطلاعات بیشتر و ثبت نام جهت حضور در سخنرانی ها به وب سایت رویداد مراجعه نمایید.
@aaic_aut
http://aaic.aut.ac.ir/events/fall2019
🔹 پردازش زبان طبیعی
🔹 پردازش صوت
🔹 پردازش تصویر و ویدئو
🔹 یادگیری ماشین
🔹 یادگیری عمیق
🔹 اینترنت اشیاء
✅ با حضور جمع کثیری از اساتید برجسته حوزه هوش مصنوعی و یادگیری ماشین
🗓 زمان: چهارشنبه و پنج شنبه 29 و 30 آبان 1398
🏢مکان: دانشگاه صنعتی امیرکبیر
جهت کسب اطلاعات بیشتر و ثبت نام جهت حضور در سخنرانی ها به وب سایت رویداد مراجعه نمایید.
@aaic_aut
http://aaic.aut.ac.ir/events/fall2019
Forwarded from علی یونسی
میتوانید سری 13 قسمتی «مقدمه ای بر نوروساینس» را به رایگان در آپارات در این آدرس مشاهده کنید
https://www.aparat.com/satim
https://www.aparat.com/satim
Forwarded from Deleted Account
Timeline of the GANs covered in this paper. we split it in six fronts (architectural, conditional
techniques, normalization and constraint, loss functions, image-to-image translation and validation metrics), each represented
by a different color and a different line/border style.
https://arxiv.org/abs/1910.13076
techniques, normalization and constraint, loss functions, image-to-image translation and validation metrics), each represented
by a different color and a different line/border style.
https://arxiv.org/abs/1910.13076
این روزها، دنیای مدل های زبان طبیعی توسط Transformer و BERT محصور شدهاند. اما اگر به سال ۲۰۱۷ برگردیم و مقاله حساس Attention Is All You Need را از گاهشمار حذف کنیم دیگر Multi-head attention وجود نداشت و فقط شکل اصلی LSTM باقی میماند. با این تصور سوال این است که مدل های زبان طبیعی چگونه تکامل میافتند؟
پرسیدن سوالاتی از این دست میتواند گاهی ما را از گیرافتادن در کمینه های محلی که به وفور در تاریخ علم رخ میدهد نجات دهد. این جمله به معنای نفی ادبیات گذشته نیست بلکه بدین معناست که فاصله گرفتن از رویکرد های گذشته و تکیه نکردن بیش از حد بر روی آنها در مواردی بسیار مفید به نظر میرسد.
مدل هایی که از معماری Transformer الهام میگیرند فرضشان بر این است که هیچ ساختار سلسله مراتبی در داده ها نیست و هر لایه دارای چندین head هست. این مورد خود باعث میشود که محاسبات برای سخت افزار به شدت پیچیده شود و از طرفی هیچ کس به وضوح نمیداند که تعداد چند head در واقع کافیست. این موارد باعث میشود که احساس نیاز به یک سخت افزار قوی دوچندان شود از طرفی آموزش مدل توسط سخت افزار های رایج همانند یک کامپیوتر خانگی خارج از تصور است.
این مقاله کمی از معماری های رایج فاصله میگیرد و با معرفی مدل SHA-RNN داعیه صحت قاعده تیغ اُکام است.
https://zhuanlan.zhihu.com/p/94350362
جزییات معماری در مقاله:
https://arxiv.org/abs/1911.11423
پرسیدن سوالاتی از این دست میتواند گاهی ما را از گیرافتادن در کمینه های محلی که به وفور در تاریخ علم رخ میدهد نجات دهد. این جمله به معنای نفی ادبیات گذشته نیست بلکه بدین معناست که فاصله گرفتن از رویکرد های گذشته و تکیه نکردن بیش از حد بر روی آنها در مواردی بسیار مفید به نظر میرسد.
مدل هایی که از معماری Transformer الهام میگیرند فرضشان بر این است که هیچ ساختار سلسله مراتبی در داده ها نیست و هر لایه دارای چندین head هست. این مورد خود باعث میشود که محاسبات برای سخت افزار به شدت پیچیده شود و از طرفی هیچ کس به وضوح نمیداند که تعداد چند head در واقع کافیست. این موارد باعث میشود که احساس نیاز به یک سخت افزار قوی دوچندان شود از طرفی آموزش مدل توسط سخت افزار های رایج همانند یک کامپیوتر خانگی خارج از تصور است.
این مقاله کمی از معماری های رایج فاصله میگیرد و با معرفی مدل SHA-RNN داعیه صحت قاعده تیغ اُکام است.
https://zhuanlan.zhihu.com/p/94350362
جزییات معماری در مقاله:
https://arxiv.org/abs/1911.11423
知乎专栏
用最简陋的LSTM,媲美各种Transformer:单头注意力RNN,大神新作引热议
栗子 发自 凹非寺 量子位 报道 | 公众号 QbitAI如今,语言模型的世界,几乎被Transformer/BERT占领了。但如果回到2017年,把轰动世界的论文Attention Is All You Need从时间线上抹掉呢?多头注意力不存在了,只剩…
This article is an attempt to explain all the matrix calculus you need in order to understand the training of deep neural networks. We assume no math knowledge beyond what you learned in calculus 1, and provide links to help you refresh the necessary math where needed. Note that you do not need to understand this material before you start learning to train and use deep learning in practice; rather, this material is for those who are already familiar with the basics of neural networks, and wish to deepen their understanding of the underlying math.
https://explained.ai/matrix-calculus/index.html
https://explained.ai/matrix-calculus/index.html
explained.ai
The Matrix Calculus You Need For Deep Learning
Most of us last saw calculus in school, but derivatives are a critical part of machine learning, particularly deep neural networks, which are trained by optimizing a loss function. This article is an attempt to explain all the matrix calculus you need in…
Forwarded from Deleted Account
SinGAN
With SinGAN, you can train a generative model from a single natural image, and then generate random samples form the given image
SinGAN can be also use to a line of image manipulation task
https://arxiv.org/abs/1905.01164
With SinGAN, you can train a generative model from a single natural image, and then generate random samples form the given image
SinGAN can be also use to a line of image manipulation task
https://arxiv.org/abs/1905.01164
arXiv.org
SinGAN: Learning a Generative Model from a Single Natural Image
We introduce SinGAN, an unconditional generative model that can be learned from a single natural image. Our model is trained to capture the internal distribution of patches within the image, and...
Forwarded from کارگروه کلانداده - دانشگاه صنعتی شریف
🗒 PyTorch: A Modern Library for Machine Learning
🖥 وبینار
⏱ زمان : دوشنبه 25 آذر ماه ساعت15:30
🔗 ثبتنام: http://fna.ir/aqt
@bigdataworkgroup
@irandeeplearning
🖥 وبینار
⏱ زمان : دوشنبه 25 آذر ماه ساعت15:30
🔗 ثبتنام: http://fna.ir/aqt
@bigdataworkgroup
@irandeeplearning
Forwarded from رویدادهای ملی و بین المللی
📌 فراخوان دعوت به ارايه بحث و یا برگزاری کارگاه آموزشی در پژوهشگاه دانش های بنیادی (IPM)
📝 زمینههای مد نظر: علوم شناختی، علوم اعصاب، علوم داده، علوم و مهندسی کامپیوتر، هوش مصنوعی، مهندسی برق، فلسفه ذهن، زبان شناسی، روان شناسی و مردم شناسی
⚠️ اولویت با طرح هایی است که زودتر ارسال شدهاند.
🔗 forms.gle/PJE1AQHzowELmiw56
🌐 scs.ipm.ac.ir
🔔 اطلاع رسانیهای آتی با همکاری کانال تلگرامی @convent انجام خواهد شد
📝 زمینههای مد نظر: علوم شناختی، علوم اعصاب، علوم داده، علوم و مهندسی کامپیوتر، هوش مصنوعی، مهندسی برق، فلسفه ذهن، زبان شناسی، روان شناسی و مردم شناسی
⚠️ اولویت با طرح هایی است که زودتر ارسال شدهاند.
🔗 forms.gle/PJE1AQHzowELmiw56
🌐 scs.ipm.ac.ir
🔔 اطلاع رسانیهای آتی با همکاری کانال تلگرامی @convent انجام خواهد شد
Forwarded from کارگروه کلانداده - دانشگاه صنعتی شریف
🗒 Energy-Efficient Convolutional Neural Networks Using Stochastic Computing
👤 دکتر حسن نجفی از دانشگاه لوئیزیانا
🏫 پژوهشگاه دانشهای بنیادین (IPM)، فرمانیه، نزدیک ساختمان کوه نور
⏱ زمان : پنجشنبه 28 آذر ماه ساعت15
@bigdataworkgroup
@irandeeplearning
👤 دکتر حسن نجفی از دانشگاه لوئیزیانا
🏫 پژوهشگاه دانشهای بنیادین (IPM)، فرمانیه، نزدیک ساختمان کوه نور
⏱ زمان : پنجشنبه 28 آذر ماه ساعت15
@bigdataworkgroup
@irandeeplearning
Forwarded from سلسله جلسات "پیوست"
📚 سلسله جلسات "پیوست"
🔵جلسه دهم
🌀یادگیری و استنباط بیزی
🗣محمدرضا صمصامی
🕙 یکشنبه، 24 آذر، ساعت17:30 تا 19
🏛 كلاس 217 دانشكده علوم رياضى
چنانچه از بیرون دانشگاه تمایل به شرکت در این جلسه را دارید، خواهشمندیم فرم زیر را جهت هماهنگی ورود به دانشگاه حداکثر تا دوازده شب جمعه پر کنید.
🔗https://docs.google.com/forms/d/e/1FAIpQLSdgyjyjdSgVg1Ib2xLZFEGg3Y8J-FUWv0oqkkZjOVuecaUO1Q/viewform?usp=sf_link
همچنین اگر از بیرون دانشگاه در جلسه شرکت می کنید خواهشمندیم جهت ورود به دانشگاه از درب خیابان آزادی تردد بفرمایید.
🆔 @hamband_peyvast
🆔 @hamband_math_cs
🔵جلسه دهم
🌀یادگیری و استنباط بیزی
🗣محمدرضا صمصامی
🕙 یکشنبه، 24 آذر، ساعت17:30 تا 19
🏛 كلاس 217 دانشكده علوم رياضى
چنانچه از بیرون دانشگاه تمایل به شرکت در این جلسه را دارید، خواهشمندیم فرم زیر را جهت هماهنگی ورود به دانشگاه حداکثر تا دوازده شب جمعه پر کنید.
🔗https://docs.google.com/forms/d/e/1FAIpQLSdgyjyjdSgVg1Ib2xLZFEGg3Y8J-FUWv0oqkkZjOVuecaUO1Q/viewform?usp=sf_link
همچنین اگر از بیرون دانشگاه در جلسه شرکت می کنید خواهشمندیم جهت ورود به دانشگاه از درب خیابان آزادی تردد بفرمایید.
🆔 @hamband_peyvast
🆔 @hamband_math_cs
Forwarded from Farhood F
مناظره یاشوا بنجیو و گری مارکوس به صورت زنده از لینک زیر قابل مشاهده است
https://montrealartificialintelligence.com/aidebate/
https://www.facebook.com/MontrealAI/videos/498403850881660/
https://montrealartificialintelligence.com/aidebate/
https://www.facebook.com/MontrealAI/videos/498403850881660/
NLP 2019 Highlights
2019 was an impressive year for the field of natural language processing (NLP). In this report, I want to highlight some of the most important stories related to machine learning and NLP that I came across in 2019. I will mostly focus on NLP but I will also highlight a few interesting stories related to AI in general. The headlines are in no particular order. Stories may include publications, engineering efforts, yearly reports, the release of educational resources, etc.
https://github.com/omarsar/nlp_highlights
2019 was an impressive year for the field of natural language processing (NLP). In this report, I want to highlight some of the most important stories related to machine learning and NLP that I came across in 2019. I will mostly focus on NLP but I will also highlight a few interesting stories related to AI in general. The headlines are in no particular order. Stories may include publications, engineering efforts, yearly reports, the release of educational resources, etc.
https://github.com/omarsar/nlp_highlights
GitHub
GitHub - omarsar/nlp_highlights: The most important NLP highlights of 2018 (PDF Report)
The most important NLP highlights of 2018 (PDF Report) - GitHub - omarsar/nlp_highlights: The most important NLP highlights of 2018 (PDF Report)
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#پروژه_متن_باز
سلام.
با توجه به فقدان داده فارسی برای کارهایی مثل توصیف تصویر تصمیم گرفتیم دیتاست MS-COCO مربوط به image captioning را به صورت متن باز ترجمه کنیم.
سایت زیر در همین راستا آماده شده است:
http://imagecaptioning.ir
لطفا با مشارکت در آن و همچنین معرفی به دوستان خود مارا یاری کنید.
برای شروع داده های آموزش سال 2014 انتخاب شده است که ترجمه ها برای همگان در دسترس خواهد بود.
سلام.
با توجه به فقدان داده فارسی برای کارهایی مثل توصیف تصویر تصمیم گرفتیم دیتاست MS-COCO مربوط به image captioning را به صورت متن باز ترجمه کنیم.
سایت زیر در همین راستا آماده شده است:
http://imagecaptioning.ir
لطفا با مشارکت در آن و همچنین معرفی به دوستان خود مارا یاری کنید.
برای شروع داده های آموزش سال 2014 انتخاب شده است که ترجمه ها برای همگان در دسترس خواهد بود.
BERT
یکی از قوی ترین مدل های NLP در تاریخ است ، اما همچنین در حال حاضر پرمصرف ترین مدل در صنعت است، به طوریکه هزینه سربار محاسباتی بسیار بیشتر از ImageNet است. محققان گوگل یک بهینه ساز جدید را پیشنهاد دادهاند که با موفقیت زمان آموزش BERT را از 3 روز به 76 دقیقه کاهش داده است. این مقاله در ICLR 2020 پذیرفته شده است.
https://arxiv.org/abs/1904.00962
یکی از قوی ترین مدل های NLP در تاریخ است ، اما همچنین در حال حاضر پرمصرف ترین مدل در صنعت است، به طوریکه هزینه سربار محاسباتی بسیار بیشتر از ImageNet است. محققان گوگل یک بهینه ساز جدید را پیشنهاد دادهاند که با موفقیت زمان آموزش BERT را از 3 روز به 76 دقیقه کاهش داده است. این مقاله در ICLR 2020 پذیرفته شده است.
https://arxiv.org/abs/1904.00962
Online speech recognition with wav2letter@anywhere
https://ai.facebook.com/blog/online-speech-recognition-with-wav2letteranywhere/
https://ai.facebook.com/blog/online-speech-recognition-with-wav2letteranywhere/
Facebook
Online speech recognition with wav2letter@anywhere
We have open-sourced wav2letter@anywhere, an inference framework for online speech recognition that delivers state-of-the-art performance.
Congrats to Mohammad Rastegari and Ali Farhadi!
https://www.geekwire.com/2020/exclusive-apple-acquires-xnor-ai-edge-ai-spin-paul-allens-ai2-price-200m-range/
The company was founded based on the idea of the following paper:
M. Rastegari, V. Ordonez, J. Redmon, A. Farhadi, XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks, ECCV, 2016
https://arxiv.org/abs/1603.05279
https://www.geekwire.com/2020/exclusive-apple-acquires-xnor-ai-edge-ai-spin-paul-allens-ai2-price-200m-range/
The company was founded based on the idea of the following paper:
M. Rastegari, V. Ordonez, J. Redmon, A. Farhadi, XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks, ECCV, 2016
https://arxiv.org/abs/1603.05279
GeekWire
Exclusive: Apple acquires Xnor.ai, edge AI spin-out from Paul Allen’s AI2, for price in $200M range
Apple has acquired Xnor.ai, a Seattle startup specializing in low-power, edge-based artificial intelligence tools, sources with knowledge of the deal told GeekWire.