Telegram Web Link
Forwarded from Shenasa-ai.ir
https://www.linkedin.com/posts/shenasa-ai_shenasaenglish-persian-parallel-dataset-activity-7324707430267801600-h-Yf


🔹 مجموعه‌داده‌ای شامل ۴ میلیون جمله موازی انگلیسی-فارسی برای ارتقاء سیستم‌های ترجمه ماشینی منتشر شد.


در این پروژه، علاوه بر ارائه یک دیتاست بزرگ‌مقیاس، از نمایش موقعیت نسبی (Relative Position Representations) در مدل‌های ترجمه عصبی استفاده شده که منجر به بهبود عملکرد شده است.


📦 دسترسی به دیتاست در Hugging Face:

🔗 https://huggingface.co/datasets/shenasa/English-Persian-Parallel-Dataset


📄 مقاله:
Enhancing English-Persian Neural Machine Translation with a Large-Scale Parallel Dataset and Relative Position Representations
🔗 https://ieeexplore.ieee.org/abstract/document/10967409


#NLP #MachineTranslation #PersianNLP #AI #DeepLearning #HuggingFace #DataScience
ارائه آنلاین چالش‌های مدل‌های زبانی و بینایی ماشین🔥

با حضور مجتبی کمیلی، مهندس تحقیقاتی در فیسبوک
شنبه ۲۰ اردیبهشت | ساعت ۱۸ تا ۱۹ 🕕

منتظر شما هستیم تا با هم وارد عمق مفاهیم هوش مصنوعی بشیم!

برگزاری + پرسش و پاسخ آنلاین در بستر تلگرام


@podcast3o14
در اپلیکیشن BoldVoice، لهجه به‌ عنوان یه پدیده زبانی پیچیده مورد بررسی قرار می‌گیره که شامل الگوهای صوتی مثل شکل‌ گیری مصوت‌ ها، زیر و بم صدا و ریتم گفتاره. هدف این پلتفرم، تحلیل و آموزش لهجه نه از منظر انسانی (زبان‌شناسی سنتی)، بلکه از طریق الگوریتم‌ های یادگیری ماشینه. به بیان دیگه، کامپیوتر باید بتونه بدون درک زبانی انسان‌ محور، تفاوت‌ ها و شدت لهجه رو تشخیص بده.

برای رسیدن به این هدف، تیم BoldVoice مفهومی به نام accent fingerprint معرفی کرده. این اثر انگشت در واقع یک بردار عددیه (embedding) که با پردازش  صدای کاربر توسط یه مدل هوش مصنوعی تولید میشه.

 این بردار، ویژگی‌های عمیق و نهفته گفتار رو در فضای نهان (latent space) نمایش میده که در اون فاصله‌ ها نشان‌ دهنده میزان شباهت یا تفاوت لهجه‌ها و جهت‌ ها نشان‌ دهنده مسیرهای احتمالی تغییر یا پیشرفت لهجه هستن.

از این رو، تحلیل لهجه از سطح توصیف کیفی به سطح عددی و قابل محاسبه ارتقا پیدا می‌کنه. در مثالی کاربردی، این فناوری برای کمک به ویکتور (کارآموزی با لهجه غیر بومی) به‌کار گرفته شد تا بتونه لهجه خودش رو به لهجه آمریکایی مربی متخصص، الیزا، نزدیک‌ تر کنه. این مقاله نشان میده که چطور میشه با تحلیل داده‌ های صوتی و بردارهای نهان، آموزش لهجه رو از یه فرآیند ذهنی و کیفی به فرآیندی کمی، هد فمند و شخصی‌ سازی‌ شده تبدیل کرد.

https://accent-strength.boldvoice.com/
Ace-step

مدل تولید موسیقی متن باز چند زبانه با 3.5 میلیارد پارامتر منتشر شد.

این مدل از 19 زبان، سبک‌ های ساز، تکنیک‌های آوازی و موارد دیگه پشتیبانی می‌کنه و ادعا می‌کنه که بهترین مدل متن باز تولید موسیقی هست.

https://github.com/ace-step/ACE-Step
Tensorflow(@CVision)
Ace-step مدل تولید موسیقی متن باز چند زبانه با 3.5 میلیارد پارامتر منتشر شد. این مدل از 19 زبان، سبک‌ های ساز، تکنیک‌های آوازی و موارد دیگه پشتیبانی می‌کنه و ادعا می‌کنه که بهترین مدل متن باز تولید موسیقی هست. https://github.com/ace-step/ACE-Step
Audio
با یه آهنگ در مورد کانال تست کنیم(سبک country )

(Verse 1)
On Telegram, there's a channel we know,
"Tensorflow" it's called, putting on quite a show.
Every day, the latest AI news they impart,
In Persian language, a source of pride in our heart.

(Chorus)
Tensorflow, Tensorflow, a channel so cool,
Artificial intelligence news, following every rule.
About deep learning and neural networks they speak,
Of everything related to this world so unique.

(Verse 2)
Articles and tutorials, everything you can find,
Whatever your question, the answer is aligned.
Iranians created it, a hearty "well done" we say,
The power of AI, they showcase every day.

(Chorus)
Tensorflow, Tensorflow, a channel so cool,
Artificial intelligence news, following every rule.
About deep learning and neural networks they speak,
Of everything related to this world so unique.
audio.wav
914.9 KB
A TTS model capable of generating ultra-realistic dialogue in one pass.

[S1] I love TensorFlow channel on telegram(coughs)
[S2] I love TensorFlow channel on telegram
[S1] I love TensorFlow channel on telegram(laughs)


https://github.com/nari-labs/dia?tab=readme-ov-file
Chatgpt 4o Prompt:
A black and white photograph shows the blurred silhouette of a [SUBJECT] behind a frosted or translucent surface. The [PART] is sharply defined and pressed against the surface, creating a stark contrast with the rest of the hazy, indistinct figure. The background is a soft gradient of gray tones, enhancing the mysterious and artistic atmosphere
افزایش وضوح تصویر ورودی برای بهبود عملکرد مدل‌های زبانی دیداری (VLMs)، به‌ویژه در درک تصاویر دارای متن، بسیار مهمه. اما مدل‌های تصویری معروف مثل ViT در وضوح‌ های بالا با مشکل کندی و حجم زیاد داده مواجه هستن.

اپل مدلی به نام FastVLM معرفی کرده که با حفظ دقت، سرعت پردازش رو بالا می‌بره و اندازه مدل رو کوچک‌ تر نگه می‌داره. این مدل از یک رمزگذار تصویری جدید به نام FastViTHD استفاده می‌کنه که برای تصاویر با وضوح بالا، تعداد کمتری توکن تولید و سریع‌ تر عمل می‌کنه.

در آزمایش‌ها، FastVLM سرعت پاسخ‌ دهی اولیه رو بیش از ۳ برابر بهتر کرده و عملکردی مشابه مدل‌ های قوی قبلی داره، در حالی که بسیار سریع‌تر و سبک‌تره، و مستقیما روی iPhone به صورت لوکال قابلیت اجرایی رو داره.

https://www.arxiv.org/abs/2412.13303
This media is not supported in your browser
VIEW IN TELEGRAM
تشخیص اشیا به صورت ریل تایم با مدل ۵۰۰ میلیون پارامتری
SmolVLM

https://github.com/ngxson/smolvlm-realtime-webcam
دیپ‌ مایند از «AlphaEvolve» که یه عامل برنامه‌ نویسی مبتنی بر Gemini برای کشف الگوریتم‌ ها هست رونمایی کرد.

میگه ما از AlphaEvolve برای حل بیش از ۵۰ مسئله باز در زمینه‌های تحلیل، هندسه، ترکیبیات و نظریه اعداد استفاده کردیم.

در ۷۵٪ از موارد، این سیستم تونست بهترین راه‌ حل‌های شناخته‌ شده قبلی رو دوباره کشف کنه. در ۲۰٪ از موارد، راه‌حل‌ های بهتری نسبت به بهترین راه‌ حل‌های قبلی ارائه داد و در نتیجه، به کشفیات جدیدی منجر شد.

به عنوان یه مورد کاربردی در هوش مصنوعی این سیستم تونسته یکی از عملیات‌های سنگین و مهم در معماری مدل‌های بزرگ (یعنی ضرب ماتریس) رو بهینه کنه، که این از مهم‌ترین گلوگاه‌های سرعت و مصرف منابع در مدل‌های هوش مصنوعیه. 

میگه این سیستم با پیدا کردن روش‌های هوشمندانه‌ تر برای تقسیم عملیات بزرگ ضرب ماتریس به زیر مسئله‌های کوچک‌ تر و قابل‌مدیریت‌ تر، AlphaEvolve تونسته این بخش حیاتی از معماری Gemini رو ۲۳٪ سریع‌ تر کنه!

بهینه‌سازی کرنل نه‌ تنها یکی از کاربردی‌ ترین زمینه‌ ها برای مدل‌های هوش مصنوعیه، بلکه به‌ نوعی نشون دهنده بلوغ اونها در درک عملکرد سیستم‌ های واقعی و تعامل با کد سطح پایینه. آینده‌ ای که مدل‌های هوش مصنوعی طراحی سخت‌ افزار یا compiler-level optimization انجام بدن، چندان دور نیست!

https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/AlphaEvolve.pdf
Tensorflow(@CVision)
تشخیص اشیا به صورت ریل تایم با مدل ۵۰۰ میلیون پارامتری SmolVLM https://github.com/ngxson/smolvlm-realtime-webcam
This media is not supported in your browser
VIEW IN TELEGRAM
این نمونه که یکی از کاربران امروز منتشر کرد صد درصد به‌ صورت محلی در مرورگر و با استفاده از WebGPU اجرا میشه، و از کتابخانه Transformers.js بهره می‌بره.  این یعنی شما فقط کافیه وارد لینک شید و دمو رو اجرا کنید، بدون اینکه نیازی به نصب چیزی روی سیستم داشته باشین


کد منبع به صورت یک فایل  index.html هست که میتونید اون رو در بخش "Files" در صفحه دمو پیدا کنید.

https://huggingface.co/spaces/webml-community/smolvlm-realtime-webgpu
آموزش معماری DeepSeek از صفر تا صد، مجموعه‌ای شامل ۲۰ ویدئوی آموزشی

این مجموعه شامل ۲۰ جلسه آموزشی هست که مفاهیمی مثل Multi-Head Latent Attention و Mixture of Experts رو با جزئیات کامل بررسی می‌کنه.

1️⃣ DeepSeek Series Introduction
https://youtu.be/QWNxQIq0hMo

2️⃣ DeepSeek Basics
https://youtu.be/WjhDDeZ7DvM

3️⃣ Journey of a Token into the LLM Architecture
https://youtu.be/rkEYwH4UGa4

4️⃣ Attention Mechanism Explained in 1 Hour
https://youtu.be/K45ze9Yd5UE

5️⃣ Self Attention Mechanism - Handwritten from Scratch
https://youtu.be/s8mskq-nzec

6️⃣ Causal Attention Explained: Don't Peek into the Future
https://youtu.be/c6Kkj6iLeBg

7️⃣ Multi-Head Attention Visually Explained
https://youtu.be/qbN4ulK-bZA

8️⃣ Multi-Head Attention Handwritten from Scratch
https://youtu.be/rvsEW-EsD-Y

9️⃣ Key Value Cache from Scratch
https://youtu.be/IDwTiS4_bKo

🔟 Multi-Query Attention Explained
https://youtu.be/Z6B51Odtn-Y

1️⃣1️⃣ Understand Grouped Query Attention (GQA)
https://youtu.be/kx3rETIxo4Q

1️⃣2️⃣ Multi-Head Latent Attention From Scratch
https://youtu.be/NlDQUj1olXM

1️⃣3️⃣ Multi-Head Latent Attention Coded from Scratch in Python
https://youtu.be/mIaWmJVrMpc

1️⃣4️⃣ Integer and Binary Positional Encodings
https://youtu.be/rP0CoTxe5gU

1️⃣5️⃣ All About Sinusoidal Positional Encodings
https://youtu.be/bQCQ7VO-TWU

1️⃣6️⃣ Rotary Positional Encodings
https://youtu.be/a17DlNxkv2k

1️⃣7️⃣ How DeepSeek Implemented Latent Attention | MLA + RoPE
https://youtu.be/m1x8vA_Tscc

1️⃣8️⃣ Mixture of Experts (MoE) Introduction
https://youtu.be/v7U21meXd6Y

1️⃣9️⃣ Mixture of Experts Hands-on Demonstration
https://youtu.be/yw6fpYPJ7PI

2️⃣0️⃣ Mixture of Experts Balancing Techniques
https://youtu.be/nRadcspta_8
این مقاله نشون میده که عملکرد مدل‌های زبانی بزرگ، در مکالمات چند‌ مرحله‌ای به‌ طور قابل توجهی کاهش پیدا میکنه. بیشتر معیارهای ارزیابی بر روی تنظیمات دستورالعمل‌های کاملا مشخص و تک‌ مرحله‌ای تمرکز دارن. 

این تحقیق نشون میده که LLM ها اغلب در مراحل اولیه، فرضیات نادرستی می‌سازن و در ادامه‌ی گفتگو به همان فرضیات تکیه می‌کنن و هرگز اونها رو اصلاح نمیکنن.

نتیجه‌ اینه که اگه یه مکالمه‌ ی چند مرحله‌ای به نتایج مطلوب نرسید، بهتره که گفتگو رو از نو و به‌ صورت یک گفتگوی تازه آغاز کنیم و تمام اطلاعات مربوط به مکالمه‌ی قبلی را در همان نوبت اول گفتگو جدید بگنجونید. همون‌طور که در شکل بالا می‌بینید این مساله مخصوصا در کاربرد هایی مثل مشاوره، برنامه‌نویسی، یا پرسش‌های تحلیلی پیچیده اهمیت زیادی داره

https://arxiv.org/abs/2505.06120
Tensorflow(@CVision)
دیپ‌ مایند از «AlphaEvolve» که یه عامل برنامه‌ نویسی مبتنی بر Gemini برای کشف الگوریتم‌ ها هست رونمایی کرد. میگه ما از AlphaEvolve برای حل بیش از ۵۰ مسئله باز در زمینه‌های تحلیل، هندسه، ترکیبیات و نظریه اعداد استفاده کردیم. در ۷۵٪ از موارد، این سیستم تونست…
#تکملیی

الگوریتم AlphaEvolve تونست الگوریتم معروف استراسن که در سال ۱۹۶۹ معرفی شده بود رو بهبود بده، بطوریکه موفق شد ضرب ماتریس‌های ۴×۴ با مقادیر مختلط رو تنها با استفاده از ۴۸ ضرب عددی (اسکالر) انجام بده، در حالی که رکورد قبلی ۴۹ ضرب بود. شاید در نگاه اول این تفاوت یک عددی چشمگیر به نظر نرسه، اما این رکورد برای پنجاه و شش سال شکسته نشده بود.

برای درک بهتر اهمیت چند نکته رو باید گفت:

ضرب ماتریسی یکی از بنیادی‌ ترین عملیات در علوم کامپیوتره، از رندر گرافیکی گرفته تا شبکه‌های عصبی و شبیه‌سازی‌های علمی.

دستاورد استراسن در سال ۱۹۶۹ به‌قدری مهم بود که دهه‌ ها در کلاس‌های الگوریتم دانشگاهی تدریس میشد.

در طول بیش از نیم قرن، ریاضیدانان و دانشمندان کامپیوتر برجسته‌ای روی این مسئله کار کرده بودن و موفق به بهبود اون نشده بودن.

این دستاورد شبیه به شکستن یک رکورد جهانیه که از زمان فرود انسان روی ماه باقی مانده بود.

نکته عجیب‌ تر اینه که AlphaEvolve حتی برای این کار طراحی نشده بود. سیستم قبلی یعنی AlphaTensor که مشخصا برای بهینه‌ سازی ضرب ماتریس طراحی شده بود، نتونسته بود الگوریتم استراسن برای ماتریس‌های مختلط رو شکست بده، اما این سیستم عمومی جدید، بدون تمرکز خاص، براحتی مسئله‌ای رو حل کرده که نسل‌ها برای انسان‌ ها حل‌ناشدنی بوده.

پیامدهای این دستاورد عظیمه، اینجا در مورد بهبود سرعت در کل حوزه محاسبات صحبت می‌کنیم. با توجه به تعداد بی‌ شمار ضرب ماتریسی که هر ثانیه در رایانه‌های سراسر جهان انجام میشه، حتی بهبود کوچکی مانند این، می‌تونه به صرفه‌جویی عظیم در منابع، زمان و انرژی منجر شه!

فراتر از مزایای عملی، این دستاورد نشون‌ دهنده لحظه‌ای واقعیه که هوش مصنوعی تونسته دانش بشر رو در یک حوزه‌ بنیادین ریاضی پیش ببره. این سیستم صرفا یک ترفند پیاده‌سازی یا بهینه‌ سازی پیدا نکرده، بلکه یک الگوریتم اثبات‌ شده و بهتر کشف کرده که انسان‌ها بیش از نیم قرن نتونسته بودن به اون برسن.

در این ویدیو موارد جالبی در این خصوص بحث میشه، که بخشی از اون اینجا عنوان شد

https://youtu.be/vC9nAosXrJw?feature=shared
Tensorflow(@CVision)
دیپ‌ مایند از «AlphaEvolve» که یه عامل برنامه‌ نویسی مبتنی بر Gemini برای کشف الگوریتم‌ ها هست رونمایی کرد. میگه ما از AlphaEvolve برای حل بیش از ۵۰ مسئله باز در زمینه‌های تحلیل، هندسه، ترکیبیات و نظریه اعداد استفاده کردیم. در ۷۵٪ از موارد، این سیستم تونست…
آموزش مدل های هوش مصنوعی اغلب شامل پیمایش فضاهای پارامتری با ابعاد بسیار بالا برای یافتن هایپر پارامترهای بهینه، معماری‌های مناسب شبکه عصبی و برنامه‌ های آموزش مناسبه.

https://youtu.be/NrO20Jb-hy0?feature=shared

توانایی AlphaEvolve در اکستریم‌ سازی (یافتن نقاط بیشینه یا کمینه) توابع در چنین فضاهایی می‌تونه برای خودکارسازی و بهبود این وظایف بهینه‌سازی بکار گرفته شه، که در نتیجه به همگرایی سریع‌ تر و مدل‌هایی با عملکرد بهتر منجر خواهد شد.

ترنس تائو، ریاضی‌دان برجسته و برنده مدال فیلدز، اخیرا اعلام کرده که با تیم DeepMind در حال همکاری بر روی توسعه ابزاری نوین برای بهینه‌ سازی توابع در فضاهای پارامتری با ابعاد بالاست.

این ابزار قادره توابعی مانند F(x) رو که در فضای پارامترهای با ابعاد بالا تعریف شدن رو بیشینه یا کمینه کنه، حتی زمانی که ساختارهای پنهان و پیچیده‌ای دارن که الگوریتم‌های سنتی قادر به درک اونها نیستن.

تائو در پاسخ به این پرسش که آیا این ابزار می‌تونه جایگزینی برای بهینه‌سازهای سنتی مانند گرادیان نزولی (SGD) در آموزش شبکه‌های عصبی بزرگ باشه، اظهار داره که این امر کاملا محتمله، به‌ویژه در وظایف با مقیاس بزرگ که نظارت انسانی کافی برای تنظیم دستی هایپر پارامترها وجود نداره و پیشنهاد میده که این ابزار می‌توانه به‌عنوان یک لایه meta-optimizer بر روی ابزارهای موجود عمل کنه، به‌طوری که تصمیم بگیره کدام ترکیب از این ابزارها استفاده شه و چه مقادیری از هایپر پارامترها به اونها اختصاص داده شه.

https://mathstodon.xyz/@tao/114508029896631083
Media is too big
VIEW IN TELEGRAM
چین با راه‌ اندازی بزرگ‌ ترین ناوگان کامیون‌ های معدنی برقی و بدون راننده در جهان، گام بزرگی در مسیر توسعه هوش مصنوعی صنعتی برداشته. این ناوگان که توسط گروه دولتی Huaneng در معدن زغال‌سنگ Yimin مستقر شده، از فناوری خودران شرکت Huawei بهره میبره

100 کامیون هوشمند این پروژه، بدون نیاز به راننده و در شرایط سخت محیطی، به‌طور کاملا خودکار بارگیری، حمل و تخلیه مواد رو انجام میدن. 

این پروژه بخشی از استراتژی ملی چین برای دیجیتال سازی صنایع سنتی مانند صنایع معدنیه و انتظار میره بهره‌وری حمل‌ و نقل رو بطور چشمگیری افزایش و هزینه‌های عملیاتی رو کاهش بده. هدف‌ گذاری شده که تا سه سال آینده، تعداد این کامیون‌ها در این معدن به ۳۰۰ دستگاه برسه و در سطح کشور به ۱۰ هزار دستگاه خودران تا سال ۲۰۲۶ افزایش پیدا کنه.

https://www.scmp.com/tech/big-tech/article/3310470/china-deploys-worlds-largest-fleet-driverless-mining-trucks-powered-huawei-tech
2025/07/07 22:34:20
Back to Top
HTML Embed Code: