Telegram Web Link
Please open Telegram to view this post
VIEW IN TELEGRAM
خیلی ساده میتونید نوتبوک کگل رو ببرید رو کولب و عشق کنید

@silicon_brain I از هوش مصنوعی عقب نمانید
ساخت مدل زبانی روی دیتابیس به صورت خودکار
LAMOGEL: Language Model Generation Lifecycle
یه پروژه تو گیتهاب داشتم برای یه بیزنسی کار کرده بودم. امروز پابلیکش کردم تا دیگران هم استفاده کنن.
به چه دردی میخوره؟
اگه میخواین روی دیتابیس بیزینس خودتون یه مدل زبانی پیشرفته که مفاهیم و فضای کاری شما رو درک کرده باشه سریع و خودکار بسازید از LAMOGEL استفاده کنید
مراحل:
1. اتصال به دیتابیس
2. پیش‌پردازش داده‌ها
3. تقسیم دیتا: دیتا رو به دو بخش پیش آموزش (Pre-training) و تنظیم دقیق (Fine-tuning) تقسیم میکنه. تا اولش LM رو آموزش بده و بعدش با متریک‌ها ارزیابی کنه و برای تسک NLP مورد نظر شما تیون کنه.
4.آموزش مدل MLM
5.ذخیره مدل: مدل آموزشی ساخته‌شده رو تو مسیر مشخصی و تو Huggingface ذخیره میکنه.
کانفیگ آسان:
همه هایپرپارامترهای مورد نیاز، مثل نرخ یادگیری، تعداد داده‌های فاین‌تیون و غیره رو از فایل Config.py میتونین ست کنین و پروژه رو اینجوری ایزی ران کنید😁
python app.py

لینک گیتهاب
لطفا تو گیتهاب استار ⭐️ بدین تا انگیزه ای باشه برای همه افرادی که ریپو هاشون رو پابلیک میکنن

@silicon_brain | از هوش مصنوعی عقب نمانید
این سایت لهجه انگلیسی شما رو تشخیص میده😁
تو یه تست دیگه سعی کردم بیشتر با لهجه ترکی ادا کنم کلماتو و میزان Turkish بیشتر شد. خیلی باحاله

سایت BoldVoice Accent Oracle با استفاده از هوش مصنوعی، لهجه شما رو موقع صحبت کردن به انگلیسی تشخیص می‌ده. شما یه متن انگلیسی رو می‌خونید و این ابزار با تحلیل صداتون، زبان مادری یا لهجه احتمالی‌تون رو حدس می‌زنه.
لینک سایت

این ابزار توسط BoldVoice توسعه داده شده؛ اپلیکیشنی که به غیرانگلیسی‌زبان‌ها کمک می‌کنه با درس‌های ویدیویی از مربیان هالیوود و بازخوردهای مبتنی بر هوش مصنوعی، تلفظشون رو بهتر کنن.

@silicon_brain | از هوش مصنوعی عقب نمانید
شرکت DeepSeek بالاتر از OpenAI و Anthropic

این شرکت مدل DeepSeek-V3 رو معرفی کرده که در برنامه‌نویسی و ریاضیات از GPT-4o و Claude Sonnet 3.5 بهتر عمل می‌کند. این مدل اوپن سورسه و با ۶۷۱ میلیارد پارامتر طراحی شده، اما برای هر توکن فقط ۳۷ میلیارد پارامتر فعال میشه


ویژگی‌های فنی کلیدی:
تو ۲.۸ میلیون ساعت GPU آموزش دیده که نسبت به مدل‌های مشابه زمان کمتریه.
Auxiliary-loss-free load balancing:
با این روش، محاسبات به‌طور یکنواخت در لایه‌های MoE توزیع میشه بدون اینکه پیچیدگی بیشتری ایجاد کنه.
پیش‌بینی چندتوکنی (MTP): این مدل میتونه چند توکن به‌طور همزمان پردازش کنه که باعث افزایش سرعت و کارایی در زمان استنتاج میشه.
یادگیری چندزبانه ۱۴.۸ تریلیون توکن آموزشی

عملکرد:
تو آزمون HumanEval Pass@1، DeepSeek-V3 امتیاز ۶۵.۲٪ کسب کرده که از Claude Sonnet 3.5 بالاتره. در آزمون‌های چندزبانه مانند XSum و TyDi QA نتایج رقابتی با GPT-4o و LLaMA 3 ارائه داده. در وظایف برنامه‌نویسی، ریاضیات و استدلال، این مدل دقت و کارایی بالایی نشان داده.

هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
کاربری به اسم frosty این سوالات رو تو Stack Overflow پرسیده و FBI هم از طریق این اسمش و کدهایی که تو سایتش استفاده کرده تونسته ردشو بزنه.

فریمورکی که هم که استفاده کرده CodeIgniter پی‌اچ‌پی بوده (یه فریمورکی برای توسعه سریع وب اپ). یه نفر بهش میگه که چتاشون لو رفته و باید سریع پاکش کنه که اومده سرچ کرده چطوری session رو تو CodeIgniter پاکش کنه 😅

این کاربر راس ویلیام اولبریکت، بنیان‌گذار سایت خرید و فروش مواد مخ.در در دارک وب به نام Silk Road بود که در اکتبر ۲۰۱۳ تحت عملیاتی مشترک از سوی اف‌بی‌آی، اداره مبارزه با مواد مخدر، وزارت دادگستری و آژانس امنیت ملی دستگیر و به حبس ابد محکوم شد.

خلاصه اگه خواستین کارای این شکلی بکنید حواستون باشه. جدیدا هم که استفاده از LLM ها خیلی زیاد شده باید حواستون باشه وقتی اطلاعات مهمی در مورد بیزینس یا خودتون ارائه میدین، حتما داده ها رو فیک کنید.

@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
سرعت انواع زبان‌های برنامه نویسی برای یک میلیارد تکرار حلقه تو در تو

@silicon_brain
ابزاری مفید برای پژوهش !

به کمک وب سایت connectedpapers.com میتونید در مورد مقاله ای خاص، پژوهش های مرتبط با اون رو پیدا کنید و با ساختار گراف با یک نگاه ارتباطش با سایر مقالاتو بررسی کنید.
همچنین این ساختار نشون میده که مقالات چه موضوعاتی رو پوشش میدن و میشه فهمید چه نویسنده هایی بیشتر با هم کار کردند، چه پژوهش هایی بیشتر بهشون رفرنس داده شده و کلی اطلاعات مفید دیگه. خلاصه خیلی خفنه!

اگه دارین مقاله مینویسین یا پژوهش خاصی میکنید، حتما ازش استفاده کنید.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
به نظرم CAG خیلی موضوع مهمی هست و باید بیشتر بهش بپردازیم!
حال میکنید چه مباحثی تر تمیزیو پوشش میدم؟ 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
ایلان ماسک : دیتاهای انسانی برای آموزش AI تموم شدن ‘exhausted’

جدیدا ماسک گفته که شرکت‌های AI کل دانش بشری رو برای آموزش مدل‌ها استفاده کردن و دیگه دیتایی برای تمرین دادن مدل‌ها نیست.
از اینجا به بعد فقط میشه از دیتاهای تولید شده با AI استفاده کرد. اگه نمیدونید منظورش چی هست یعنی میان با یه مدل قوی‌تر مثل o3 از OpenAI تو موضوعات مختلف محتوا تولید میکنن و از همین محتواها برای تمرین دادن مدل‌های دیگه مثل o3 mini یا gpt4o و ... استفاده میکنن.

قبلا هم خبر رسیده بود دارن برای gpt5 این کارو میکنن
ماسک میگه این کار یه مشکل بزرگ داره و اونم اینه که توهم‌های AI به وجود میاره.یعنی نمیدونی جواب درسته یا مدل توهم تولید کرده!

اندرو دانکن ،مدیر موسسه تورینگ این حرفو تایید کرده و گفته اونا هم تو تحقیقاتشون به همین نتیجه رسیدن.آموزش دادن مدل‌های AI با دیتاهایی که یک مدل دیگه تولید کرده در نهایت باعث یک‌جانبه شدن AI ها و از بین رفتن خلاقیت میشه.

احتمالا کیفیت gpt5 جواب خیلی از این سوال‌هارو بده چون اولین مدلی هست که به صورت گسترده با داده‌های تولید شده AI آموزش داده شده.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
مدل Luma و انتشار نسل جدید تولید کننده‌ی تصویر به نام Photon

Models
- Luma Photon: Standard model optimized for quality
- Photon Flash: High-speed variant optimized for efficiency

Key Capabilities
- Advanced natural language understanding
- Multi-turn iterative workflows
- Character consistency from single reference images
- Multi-image reference system
- High prompt adherence
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
2025/07/06 20:25:42
Back to Top
HTML Embed Code: