Please open Telegram to view this post
VIEW IN TELEGRAM
ساخت مدل زبانی روی دیتابیس به صورت خودکار
LAMOGEL: Language Model Generation Lifecycle
یه پروژه تو گیتهاب داشتم برای یه بیزنسی کار کرده بودم. امروز پابلیکش کردم تا دیگران هم استفاده کنن.
به چه دردی میخوره؟
اگه میخواین روی دیتابیس بیزینس خودتون یه مدل زبانی پیشرفته که مفاهیم و فضای کاری شما رو درک کرده باشه سریع و خودکار بسازید از LAMOGEL استفاده کنید
مراحل:
1. اتصال به دیتابیس
2. پیشپردازش دادهها
3. تقسیم دیتا: دیتا رو به دو بخش پیش آموزش (Pre-training) و تنظیم دقیق (Fine-tuning) تقسیم میکنه. تا اولش LM رو آموزش بده و بعدش با متریکها ارزیابی کنه و برای تسک NLP مورد نظر شما تیون کنه.
4.آموزش مدل MLM
5.ذخیره مدل: مدل آموزشی ساختهشده رو تو مسیر مشخصی و تو Huggingface ذخیره میکنه.
کانفیگ آسان:
همه هایپرپارامترهای مورد نیاز، مثل نرخ یادگیری، تعداد دادههای فاینتیون و غیره رو از فایل Config.py میتونین ست کنین و پروژه رو اینجوری ایزی ران کنید😁
لینک گیتهاب
لطفا تو گیتهاب استار ⭐️ بدین تا انگیزه ای باشه برای همه افرادی که ریپو هاشون رو پابلیک میکنن
@silicon_brain | از هوش مصنوعی عقب نمانید
LAMOGEL: Language Model Generation Lifecycle
یه پروژه تو گیتهاب داشتم برای یه بیزنسی کار کرده بودم. امروز پابلیکش کردم تا دیگران هم استفاده کنن.
به چه دردی میخوره؟
اگه میخواین روی دیتابیس بیزینس خودتون یه مدل زبانی پیشرفته که مفاهیم و فضای کاری شما رو درک کرده باشه سریع و خودکار بسازید از LAMOGEL استفاده کنید
مراحل:
1. اتصال به دیتابیس
2. پیشپردازش دادهها
3. تقسیم دیتا: دیتا رو به دو بخش پیش آموزش (Pre-training) و تنظیم دقیق (Fine-tuning) تقسیم میکنه. تا اولش LM رو آموزش بده و بعدش با متریکها ارزیابی کنه و برای تسک NLP مورد نظر شما تیون کنه.
4.آموزش مدل MLM
5.ذخیره مدل: مدل آموزشی ساختهشده رو تو مسیر مشخصی و تو Huggingface ذخیره میکنه.
کانفیگ آسان:
همه هایپرپارامترهای مورد نیاز، مثل نرخ یادگیری، تعداد دادههای فاینتیون و غیره رو از فایل Config.py میتونین ست کنین و پروژه رو اینجوری ایزی ران کنید😁
python app.py
لینک گیتهاب
لطفا تو گیتهاب استار ⭐️ بدین تا انگیزه ای باشه برای همه افرادی که ریپو هاشون رو پابلیک میکنن
@silicon_brain | از هوش مصنوعی عقب نمانید
این سایت لهجه انگلیسی شما رو تشخیص میده😁
تو یه تست دیگه سعی کردم بیشتر با لهجه ترکی ادا کنم کلماتو و میزان Turkish بیشتر شد. خیلی باحاله
سایت BoldVoice Accent Oracle با استفاده از هوش مصنوعی، لهجه شما رو موقع صحبت کردن به انگلیسی تشخیص میده. شما یه متن انگلیسی رو میخونید و این ابزار با تحلیل صداتون، زبان مادری یا لهجه احتمالیتون رو حدس میزنه.
لینک سایت
این ابزار توسط BoldVoice توسعه داده شده؛ اپلیکیشنی که به غیرانگلیسیزبانها کمک میکنه با درسهای ویدیویی از مربیان هالیوود و بازخوردهای مبتنی بر هوش مصنوعی، تلفظشون رو بهتر کنن.
@silicon_brain | از هوش مصنوعی عقب نمانید
تو یه تست دیگه سعی کردم بیشتر با لهجه ترکی ادا کنم کلماتو و میزان Turkish بیشتر شد. خیلی باحاله
سایت BoldVoice Accent Oracle با استفاده از هوش مصنوعی، لهجه شما رو موقع صحبت کردن به انگلیسی تشخیص میده. شما یه متن انگلیسی رو میخونید و این ابزار با تحلیل صداتون، زبان مادری یا لهجه احتمالیتون رو حدس میزنه.
لینک سایت
این ابزار توسط BoldVoice توسعه داده شده؛ اپلیکیشنی که به غیرانگلیسیزبانها کمک میکنه با درسهای ویدیویی از مربیان هالیوود و بازخوردهای مبتنی بر هوش مصنوعی، تلفظشون رو بهتر کنن.
@silicon_brain | از هوش مصنوعی عقب نمانید
شرکت DeepSeek بالاتر از OpenAI و Anthropic
این شرکت مدل DeepSeek-V3 رو معرفی کرده که در برنامهنویسی و ریاضیات از GPT-4o و Claude Sonnet 3.5 بهتر عمل میکند. این مدل اوپن سورسه و با ۶۷۱ میلیارد پارامتر طراحی شده، اما برای هر توکن فقط ۳۷ میلیارد پارامتر فعال میشه
ویژگیهای فنی کلیدی:
تو ۲.۸ میلیون ساعت GPU آموزش دیده که نسبت به مدلهای مشابه زمان کمتریه.
Auxiliary-loss-free load balancing:
با این روش، محاسبات بهطور یکنواخت در لایههای MoE توزیع میشه بدون اینکه پیچیدگی بیشتری ایجاد کنه.
پیشبینی چندتوکنی (MTP): این مدل میتونه چند توکن بهطور همزمان پردازش کنه که باعث افزایش سرعت و کارایی در زمان استنتاج میشه.
یادگیری چندزبانه ۱۴.۸ تریلیون توکن آموزشی
عملکرد:
تو آزمون HumanEval Pass@1، DeepSeek-V3 امتیاز ۶۵.۲٪ کسب کرده که از Claude Sonnet 3.5 بالاتره. در آزمونهای چندزبانه مانند XSum و TyDi QA نتایج رقابتی با GPT-4o و LLaMA 3 ارائه داده. در وظایف برنامهنویسی، ریاضیات و استدلال، این مدل دقت و کارایی بالایی نشان داده.
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
این شرکت مدل DeepSeek-V3 رو معرفی کرده که در برنامهنویسی و ریاضیات از GPT-4o و Claude Sonnet 3.5 بهتر عمل میکند. این مدل اوپن سورسه و با ۶۷۱ میلیارد پارامتر طراحی شده، اما برای هر توکن فقط ۳۷ میلیارد پارامتر فعال میشه
ویژگیهای فنی کلیدی:
تو ۲.۸ میلیون ساعت GPU آموزش دیده که نسبت به مدلهای مشابه زمان کمتریه.
Auxiliary-loss-free load balancing:
با این روش، محاسبات بهطور یکنواخت در لایههای MoE توزیع میشه بدون اینکه پیچیدگی بیشتری ایجاد کنه.
پیشبینی چندتوکنی (MTP): این مدل میتونه چند توکن بهطور همزمان پردازش کنه که باعث افزایش سرعت و کارایی در زمان استنتاج میشه.
یادگیری چندزبانه ۱۴.۸ تریلیون توکن آموزشی
عملکرد:
تو آزمون HumanEval Pass@1، DeepSeek-V3 امتیاز ۶۵.۲٪ کسب کرده که از Claude Sonnet 3.5 بالاتره. در آزمونهای چندزبانه مانند XSum و TyDi QA نتایج رقابتی با GPT-4o و LLaMA 3 ارائه داده. در وظایف برنامهنویسی، ریاضیات و استدلال، این مدل دقت و کارایی بالایی نشان داده.
هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
شرکت DeepSeek بالاتر از OpenAI و Anthropic این شرکت مدل DeepSeek-V3 رو معرفی کرده که در برنامهنویسی و ریاضیات از GPT-4o و Claude Sonnet 3.5 بهتر عمل میکند. این مدل اوپن سورسه و با ۶۷۱ میلیارد پارامتر طراحی شده، اما برای هر توکن فقط ۳۷ میلیارد پارامتر فعال…
Please open Telegram to view this post
VIEW IN TELEGRAM
Silicon Brain | جامعه هوش مصنوعی
شرکت DeepSeek بالاتر از OpenAI و Anthropic این شرکت مدل DeepSeek-V3 رو معرفی کرده که در برنامهنویسی و ریاضیات از GPT-4o و Claude Sonnet 3.5 بهتر عمل میکند. این مدل اوپن سورسه و با ۶۷۱ میلیارد پارامتر طراحی شده، اما برای هر توکن فقط ۳۷ میلیارد پارامتر فعال…
اینم لینک دسترسی خیلی ایزی به دیپ سیک:
https://chat.deepseek.com/
من امتحان کردم خیلی قوی به نظر میرسه، به فیلترشکن هم نیاری نداره که باعث میشه برای ما بهتر از ChatGPT و Sonnet باشه (حداقل فعلا😅)
https://chat.deepseek.com/
من امتحان کردم خیلی قوی به نظر میرسه، به فیلترشکن هم نیاری نداره که باعث میشه برای ما بهتر از ChatGPT و Sonnet باشه (حداقل فعلا😅)
کاربری به اسم frosty این سوالات رو تو Stack Overflow پرسیده و FBI هم از طریق این اسمش و کدهایی که تو سایتش استفاده کرده تونسته ردشو بزنه.
فریمورکی که هم که استفاده کرده CodeIgniter پیاچپی بوده (یه فریمورکی برای توسعه سریع وب اپ). یه نفر بهش میگه که چتاشون لو رفته و باید سریع پاکش کنه که اومده سرچ کرده چطوری session رو تو CodeIgniter پاکش کنه 😅
این کاربر راس ویلیام اولبریکت، بنیانگذار سایت خرید و فروش مواد مخ.در در دارک وب به نام Silk Road بود که در اکتبر ۲۰۱۳ تحت عملیاتی مشترک از سوی افبیآی، اداره مبارزه با مواد مخدر، وزارت دادگستری و آژانس امنیت ملی دستگیر و به حبس ابد محکوم شد.
خلاصه اگه خواستین کارای این شکلی بکنید حواستون باشه. جدیدا هم که استفاده از LLM ها خیلی زیاد شده باید حواستون باشه وقتی اطلاعات مهمی در مورد بیزینس یا خودتون ارائه میدین، حتما داده ها رو فیک کنید.
@silicon_brain | از هوش مصنوعی عقب نمانید
فریمورکی که هم که استفاده کرده CodeIgniter پیاچپی بوده (یه فریمورکی برای توسعه سریع وب اپ). یه نفر بهش میگه که چتاشون لو رفته و باید سریع پاکش کنه که اومده سرچ کرده چطوری session رو تو CodeIgniter پاکش کنه 😅
این کاربر راس ویلیام اولبریکت، بنیانگذار سایت خرید و فروش مواد مخ.در در دارک وب به نام Silk Road بود که در اکتبر ۲۰۱۳ تحت عملیاتی مشترک از سوی افبیآی، اداره مبارزه با مواد مخدر، وزارت دادگستری و آژانس امنیت ملی دستگیر و به حبس ابد محکوم شد.
خلاصه اگه خواستین کارای این شکلی بکنید حواستون باشه. جدیدا هم که استفاده از LLM ها خیلی زیاد شده باید حواستون باشه وقتی اطلاعات مهمی در مورد بیزینس یا خودتون ارائه میدین، حتما داده ها رو فیک کنید.
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
ابزاری مفید برای پژوهش !
به کمک وب سایت connectedpapers.com میتونید در مورد مقاله ای خاص، پژوهش های مرتبط با اون رو پیدا کنید و با ساختار گراف با یک نگاه ارتباطش با سایر مقالاتو بررسی کنید.
همچنین این ساختار نشون میده که مقالات چه موضوعاتی رو پوشش میدن و میشه فهمید چه نویسنده هایی بیشتر با هم کار کردند، چه پژوهش هایی بیشتر بهشون رفرنس داده شده و کلی اطلاعات مفید دیگه. خلاصه خیلی خفنه!
اگه دارین مقاله مینویسین یا پژوهش خاصی میکنید، حتما ازش استفاده کنید.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
به کمک وب سایت connectedpapers.com میتونید در مورد مقاله ای خاص، پژوهش های مرتبط با اون رو پیدا کنید و با ساختار گراف با یک نگاه ارتباطش با سایر مقالاتو بررسی کنید.
همچنین این ساختار نشون میده که مقالات چه موضوعاتی رو پوشش میدن و میشه فهمید چه نویسنده هایی بیشتر با هم کار کردند، چه پژوهش هایی بیشتر بهشون رفرنس داده شده و کلی اطلاعات مفید دیگه. خلاصه خیلی خفنه!
اگه دارین مقاله مینویسین یا پژوهش خاصی میکنید، حتما ازش استفاده کنید.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
به نظرم CAG خیلی موضوع مهمی هست و باید بیشتر بهش بپردازیم!
حال میکنید چه مباحثی تر تمیزیو پوشش میدم؟ 😁
حال میکنید چه مباحثی تر تمیزیو پوشش میدم؟ 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
ایلان ماسک : دیتاهای انسانی برای آموزش AI تموم شدن ‘exhausted’
جدیدا ماسک گفته که شرکتهای AI کل دانش بشری رو برای آموزش مدلها استفاده کردن و دیگه دیتایی برای تمرین دادن مدلها نیست.
از اینجا به بعد فقط میشه از دیتاهای تولید شده با AI استفاده کرد. اگه نمیدونید منظورش چی هست یعنی میان با یه مدل قویتر مثل o3 از OpenAI تو موضوعات مختلف محتوا تولید میکنن و از همین محتواها برای تمرین دادن مدلهای دیگه مثل o3 mini یا gpt4o و ... استفاده میکنن.
قبلا هم خبر رسیده بود دارن برای gpt5 این کارو میکنن
ماسک میگه این کار یه مشکل بزرگ داره و اونم اینه که توهمهای AI به وجود میاره.یعنی نمیدونی جواب درسته یا مدل توهم تولید کرده!
اندرو دانکن ،مدیر موسسه تورینگ این حرفو تایید کرده و گفته اونا هم تو تحقیقاتشون به همین نتیجه رسیدن.آموزش دادن مدلهای AI با دیتاهایی که یک مدل دیگه تولید کرده در نهایت باعث یکجانبه شدن AI ها و از بین رفتن خلاقیت میشه.
احتمالا کیفیت gpt5 جواب خیلی از این سوالهارو بده چون اولین مدلی هست که به صورت گسترده با دادههای تولید شده AI آموزش داده شده.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
جدیدا ماسک گفته که شرکتهای AI کل دانش بشری رو برای آموزش مدلها استفاده کردن و دیگه دیتایی برای تمرین دادن مدلها نیست.
از اینجا به بعد فقط میشه از دیتاهای تولید شده با AI استفاده کرد. اگه نمیدونید منظورش چی هست یعنی میان با یه مدل قویتر مثل o3 از OpenAI تو موضوعات مختلف محتوا تولید میکنن و از همین محتواها برای تمرین دادن مدلهای دیگه مثل o3 mini یا gpt4o و ... استفاده میکنن.
قبلا هم خبر رسیده بود دارن برای gpt5 این کارو میکنن
ماسک میگه این کار یه مشکل بزرگ داره و اونم اینه که توهمهای AI به وجود میاره.یعنی نمیدونی جواب درسته یا مدل توهم تولید کرده!
اندرو دانکن ،مدیر موسسه تورینگ این حرفو تایید کرده و گفته اونا هم تو تحقیقاتشون به همین نتیجه رسیدن.آموزش دادن مدلهای AI با دیتاهایی که یک مدل دیگه تولید کرده در نهایت باعث یکجانبه شدن AI ها و از بین رفتن خلاقیت میشه.
احتمالا کیفیت gpt5 جواب خیلی از این سوالهارو بده چون اولین مدلی هست که به صورت گسترده با دادههای تولید شده AI آموزش داده شده.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
مدل Luma و انتشار نسل جدید تولید کنندهی تصویر به نام Photon
Models
- Luma Photon: Standard model optimized for quality
- Photon Flash: High-speed variant optimized for efficiency
Key Capabilities
- Advanced natural language understanding
- Multi-turn iterative workflows
- Character consistency from single reference images
- Multi-image reference system
- High prompt adherence
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
Models
- Luma Photon: Standard model optimized for quality
- Photon Flash: High-speed variant optimized for efficiency
Key Capabilities
- Advanced natural language understanding
- Multi-turn iterative workflows
- Character consistency from single reference images
- Multi-image reference system
- High prompt adherence
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید