Silicon Brain | جامعه هوش مصنوعی
بازی مهم امشب رئال مادرید و آرسنال رو به مدل های خفن گفتم با تکنولوژی Reason و Deep Research پیش بینی کنن و زمان زیادی در مورد این نتایج فکر کردن: GPT-4 Turbo: ⚽️ Real Madrid 1 - 1 Arsenal Gemini 2.5: ⚽️ Real Madrid 2 - 1 Arsenal Grok 3: ⚽️ Real Madrid…
نتیجه:
هیچوقت از AI برای پیش بینی فوتبال استفاده نکنین 😂
هیچوقت از AI برای پیش بینی فوتبال استفاده نکنین 😂
🤣43👍3😁3👻2⚡1👎1
OpenAI: تفکر با تصویر و اتصال زنجیری ابزار برای رسیدن به هدف!
جدیدا
از نظر عملکرد هم
در کنارش
این مدلها با API رسمی
مدل
@silicon_brain | از هوش مصنوعی عقل نمانید
جدیدا
OpenAI
یه سری مدل جدید معرفی کرده که این مدلها فقط با متن سر و کار ندارن؛ میتونن با تصاویر هم فکر کنن! یعنی مثلاً از روی نمودارها، عکسهای دستنویس، اسکرینشات نرمافزارها یا دیاگرامهای پیچیده، اطلاعات و مفهوم استخراج کنن و بر اساسش استدلال کنن. حتی اگه عکس یه معادله ریاضی باشه، میتونن بفهمن و باهاش کار کنن.از نظر عملکرد هم
o3
فعلاً بهترین رتبه رو توی تستهای مرتبط با استدلال و منطق گرفته؛ توی رقابتهایی مثل SWE-bench و Codeforces تونسته از بقیه مدلها پیشی بگیرهدر کنارش
o4-mini
که بیشتر برای مواقعی ساخته شده که سرعت و حجم پاسخدهی برات مهمه ولی همچنان نیاز به یه مدل با قدرت استدلال داری. این مدل توی رقابتهای مثل AIME امتیاز بالایی گرفته این مدلها با API رسمی
OpenAI
قابل دسترسی هستن و حتی کاربرهای رایگان هم میتونن از o4-mini
در حالت «Think» استفاده کنن. مدل
o4-mini
نسبت به o3
سرعت بیشتری داره و سقف استفاده بالاتری رو هم ساپورت میکنه.@silicon_brain | از هوش مصنوعی عقل نمانید
👍7❤3🔥2
تفاوت فنی Gemini و Gemma چیه؟
مدلهای
مدل Gemini یک مدل زبانی بزرگ و چندمنظوره هست که توسط
از سوی دیگر،
@silicon_brain | از هوش مصنوعی عقب نمانید
مدلهای
Gemini
و Gemma
، هر دو توسط Google
منتشر شدن اما اهداف و ویژگیهای متفاوتی دارن.
مدل Gemini یک مدل زبانی بزرگ و چندمنظوره هست که توسط
DeepMind
توسعه یافته و میتونه انواع دادهها مثل متن، تصویر، صدا، ویدئو و کد رو بهصورت همزمان پردازش کنه. این مدل از معماری Transformer با ترکیب Mixture-of-Experts (MoE) بهره میبره تا وظایف پیچیده رو با کارایی بالا انجام بده. نسخههای مختلفی از Gemini وجود داره از جمله Ultra، Pro، Flash و Nano، که هر کدومش برای کاربردهای خاصی طراحی شدن. نسخه Gemini 1.5 Pro میتونه تا ۱ میلیون توکن رو در یک واحد پردازش کنه از سوی دیگر،
Gemma
یک خانواده از مدلهای سبک و open-source
هستش که بر پایه تحقیقات Gemini توسعه یافته. این مدل برای استفاده در محیطهای با منابع محدود مثل لپتاپ، موبایل و پروژههای تحقیقاتی طراحی شده. Gemma از معماری Transformer
با بهینهسازیهایی مانند افزایش نسبت توجه محلی به جهانی برای کاهش مصرف حافظه استفاده میکنه در نسخه Gemma 3، پنجره متنی تا ۱۲۸ هزار توکن افزایش یافته. @silicon_brain | از هوش مصنوعی عقب نمانید
👍11❤3👏1
در ادامه پست قبلی بگم که چرا از نظر بیزینس بعضی از شرکت ها مثل
استراتژی متنباز:
شرکت
همچنین، با متنباز کردن مدلها، Meta میتونه بازخوردهای بیشتری دریافت کنه و مدلهاش رو سریعتر بهبود بده. این کار به توسعهٔ سریعتر فناوری و افزایش شفافیت کمک میکنه.
استراتژی انحصاری:
اما
این استراتژی به
بعضیا هم مثل گوگل هر دو روشو رو با هم انجام میدن تا از مزیت های هر دو روش همزمان برخورددار بشن
@silicon_brain | از هوش مصنوعی عقب نمانید
Meta
مدلهاشون رو بهصورت open-source
منتشر میکنن، در حالی که بعضیا دیگه مثل OpenAI
انحصاری نگه میدارن. و بعضیا مثل Google
هر دو استراتژی رو در پیش میگیرن:استراتژی متنباز:
شرکت
Meta
با انتشار مدلهای LLaMA
بهصورت متنباز، دنبال اینه که با جذب برنامه نویسا و محقق ها، افراد بیشتری بتونن با این مدلها کار کنن، اونا رو بهبود بدن و در پروژههای خودشون استفاده کنن. این استراتژی به Meta
کمک میکنه تا در جامعهٔ هوش مصنوعی نفوذ بیشتری پیدا کنه و بهعنوان پیشرو در این حوزه شناخته بشه.همچنین، با متنباز کردن مدلها، Meta میتونه بازخوردهای بیشتری دریافت کنه و مدلهاش رو سریعتر بهبود بده. این کار به توسعهٔ سریعتر فناوری و افزایش شفافیت کمک میکنه.
استراتژی انحصاری:
اما
OpenAI
مدلاشو بهصورت انحصاری نگه میداره. این موضوع بهشون اجازه میده کنترل بیشتری روی نحوه استفاده از مدلها داشته باشه و همزمان پلن های درآمدیشو هم جلو ببره. با ارائهٔ مدلها بهصورت سرویس، میتونن از کاربران هزینه دریافت کنن و مدلهاشون رو بهعنوان محصولات تجاری عرضه کنن.این استراتژی به
OpenAI
کمک میکنه تا از رقبا جلوتر بمونه و از فناوری خودش محافظت کنه. اما ممکنه باعث بشه برنامه نویسا و محقق ها نتونن بهراحتی با مدلهاشون کار کنن یا اونها رو برای نیازهای خاص خودشون تنظیم کنن.بعضیا هم مثل گوگل هر دو روشو رو با هم انجام میدن تا از مزیت های هر دو روش همزمان برخورددار بشن
@silicon_brain | از هوش مصنوعی عقب نمانید
👍7❤3🤗2
@silicon_brain_AI Agents Basics.pdf
3.9 MB
عاملهای هوش مصنوعی (AI Agents)
این داکیومنت ارزشمند توسط گوگل منتشر شده
سرفصلها:
@silicon_brain | از هوش مصنوعی عقب نمانید
این داکیومنت ارزشمند توسط گوگل منتشر شده
سرفصلها:
-معرفی عاملهای هوش مصنوعی و تفاوت آنها با مدلهای زبانی (Language Models)
- بررسی معماری شناختی (Cognitive Architecture) عاملها
-استفاده از ابزارها (Tools) برای تعامل با دادههای واقعی
- پیادهسازی عاملهای هوش مصنوعی با LangChain و Vertex AI
-نمونهکدهای کاربردی برای استفاده از عاملها در محیطهای تولیدی
@silicon_brain | از هوش مصنوعی عقب نمانید
👍8❤3👎1
a-practical-guide-to-building-agents.pdf
7 MB
اینم داکیومنت ساخت Agent که OpenAI منتشر کرده
پست قلبی هم نسخه منتشر شده توسط گوگل بود
@silicon_brain I از هوش مصنوعی عقب نمانید
پست قلبی هم نسخه منتشر شده توسط گوگل بود
@silicon_brain I از هوش مصنوعی عقب نمانید
❤7👍3👎1
آینده
من زیاد ندیدم بعد از ظهور چت بات ها کسی کسی در مورد
با رشد چتباتها و LLMها ، رفتار کاربرا توی اینترنت داره عوض میشه. قبلاً یکی میخواست یه چیزی بدونه، میرفت تو گوگل سرچ میکرد، کلی لینک میدید و از بینشون انتخاب میکرد. ولی الان خیلیها مستقیم از چتبات میپرسن و جواب رو همونجا میگیرن، بدون اینکه لازم باشه وارد سایت خاصی بشن.
یعنی یه بخشی از ترافیکی که قبلاً از گوگل به سایتها میومد، ممکنه کم بشه. وقتی ترافیک کم بشه، ارزش SEO (بهینهسازی سایت برای موتورهای جستجو) هم یکم میاد پایین. چون دیگه همه چیز وابسته به سرچ گوگل نیست.
@silicon_brain | از هوش مصنوعی عقب نمانید
SEO
به چه سمتی میره؟ من زیاد ندیدم بعد از ظهور چت بات ها کسی کسی در مورد
SEO
صحبت کنه با رشد چتباتها و LLMها ، رفتار کاربرا توی اینترنت داره عوض میشه. قبلاً یکی میخواست یه چیزی بدونه، میرفت تو گوگل سرچ میکرد، کلی لینک میدید و از بینشون انتخاب میکرد. ولی الان خیلیها مستقیم از چتبات میپرسن و جواب رو همونجا میگیرن، بدون اینکه لازم باشه وارد سایت خاصی بشن.
یعنی یه بخشی از ترافیکی که قبلاً از گوگل به سایتها میومد، ممکنه کم بشه. وقتی ترافیک کم بشه، ارزش SEO (بهینهسازی سایت برای موتورهای جستجو) هم یکم میاد پایین. چون دیگه همه چیز وابسته به سرچ گوگل نیست.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍24👎2❤1
تکنولوژی MCP، آداپتور جهانی برای تمامی AIها
قبلا اگه میخواستی به
با اومدن
در حال حاضر هم بیش از ۱۰۰ تا ابزار استاندارد
MCP Python SDK
FastMCP
@silicon_brain | از هوش مصنوعی عقب نمانید
قبلا اگه میخواستی به
LLM
ها بگی یه فعالیت بیرونی انجام بدن (مثلا تو وب بگرده یا یک مخزنی رو تو گیتهاب بررسی کنه و هر ابزار دیگه)، باید برای هر مدل یک روند کاستوم نوشته میشد که مشخصا این روش هزینه بالایی داره و تعداد سرویس هایی که تو پروژتون باش درگیر میشی خیلی بالا میره و یک اکوسیستم تکهتکه درست میشه!با اومدن
Model Context Protocol (MCP)
یک پروتکل ثابت ایجاد شده که همه مدل ها از اون پیروی میکنن ، یعنی شما به هر مدل زبانی ای بگی مثلا لیست ۱۰ ایمیل آخر من رو بده به لطف MCP
میره و اون کار رو در قالب استانداری انجام میده.در حال حاضر هم بیش از ۱۰۰ تا ابزار استاندارد
MCP
داریم که اکثر کتابخانه هایی که برای ساخت agent هستن ازشون پشتیبانی میکنن ولی این دو تا رو من پیشنهاد میکنمMCP Python SDK
FastMCP
@silicon_brain | از هوش مصنوعی عقب نمانید
👍13❤3
Forwarded from DeepMind AI Expert (Farzad 🦅)
سام آلتمن، مدیر عامل OpenAI، گفته:
کاربرایی که به ChatGPT "لطفا" و "متشکرم" میگن، دهها میلیون دلار هزینه منابع محاسباتی اضافی غیرضروری به شرکت تحمیل میکنن!
تازه این عبارات مودبانه نیاز به قدرت پردازش بیشتری هم دارن!!
https://www.perplexity.ai/page/politeness-to-chatgpt-raises-o-qu9DjX3DRp6v5fwHtNVYQA
#مقاله #ایده_جذاب #ایجنت #متن_باز #پردازش_زبان_طبیعی #هوش_مصنوعی
پ.ن: برای کمک به خودتون هم شده از به کاربردن هر کلمه محبت امیزی به هوش مصنوعی خودداری کنید تا مدل هدف شما رو بیشتر بفهمه و مدل از بایاس شدن و متوهم شدن برای جلوگیری به عمل اومده باشه.
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
کاربرایی که به ChatGPT "لطفا" و "متشکرم" میگن، دهها میلیون دلار هزینه منابع محاسباتی اضافی غیرضروری به شرکت تحمیل میکنن!
تازه این عبارات مودبانه نیاز به قدرت پردازش بیشتری هم دارن!!
https://www.perplexity.ai/page/politeness-to-chatgpt-raises-o-qu9DjX3DRp6v5fwHtNVYQA
#مقاله #ایده_جذاب #ایجنت #متن_باز #پردازش_زبان_طبیعی #هوش_مصنوعی
پ.ن: برای کمک به خودتون هم شده از به کاربردن هر کلمه محبت امیزی به هوش مصنوعی خودداری کنید تا مدل هدف شما رو بیشتر بفهمه و مدل از بایاس شدن و متوهم شدن برای جلوگیری به عمل اومده باشه.
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍9😁6👎2
یک pipeline یادگیری ماشین طراحی کردی، که شامل مراحل preprocessing، training و deployment هست. حالا میخوای با استفاده از ابزارهای MLOps، این pipeline رو قابل تکرار (reproducible) و قابل versioning کنی
Anonymous Quiz
4%
ذخیره فایل مدل نهایی در یک پوشه local با نام تاریخ روز آموزش
47%
استفاده از Git برای version کردن کد و استفاده از DVC یا MLflow برای version کردن دادهها و مدلها
7%
ذخیره hyperparameterها در یک فایل JSON و بارگذاری دستی در هر اجرا
8%
استفاده از Jupyter Notebook برای اجرای pipeline و ذخیره نتایج در سلولها
33%
دیدن نتایج
👍4👏2
استاندارد ورژنینگ چطوری عمل میکنه؟
یک شماره نسخه رو در نظر بگیر مثلاً: v2.3.1
باید بدونی که همیشه ورژنینگ از این فرمت تبعیت میکنه:
نسخه اصلی - MAJOR
عدد اول (مثل 2 در v2.3.1)
زمانی باید عددش بره بالا که تغییرات ناسازگار با نسخههای قبلی باشه یا مثلا API یا ساختار کد شکسته شده یا تغییر بنیادی داشته
مثال: تغییر تسک پروژه از classification به regression، تغییر نام یا ساختار توابع اصلی
نسخه فرعی - MINOR
عدد دوم (مثل 3 در v2.3.1)
زمانی باید عددش بره بالا که ویژگیهای جدید سازگار با نسخه قبلی اضافه شده و اینکار بدون شکستن ساختار قبلی انجام شده
مثال: اضافه شدن یک تابع جدید برای تحلیل دادهها
اصلاح جزئی - PATCH
عدد سوم (مثل 1 در v2.3.1)
زمانی باید عددش بره بالا که باگ فیکسها یا بهینهسازیهای کوچک بدون افزودن قابلیت جدید انجام بشه
مثال: اصلاح خطای محاسبه دقت مدل یا تغییر مقدار پیشفرض یک hyperparameter
@silicon_brain | از هوش مصنوعی عقب نمانید
یک شماره نسخه رو در نظر بگیر مثلاً: v2.3.1
باید بدونی که همیشه ورژنینگ از این فرمت تبعیت میکنه:
MAJOR.MINOR.PATCH
نسخه اصلی - MAJOR
عدد اول (مثل 2 در v2.3.1)
زمانی باید عددش بره بالا که تغییرات ناسازگار با نسخههای قبلی باشه یا مثلا API یا ساختار کد شکسته شده یا تغییر بنیادی داشته
مثال: تغییر تسک پروژه از classification به regression، تغییر نام یا ساختار توابع اصلی
نسخه فرعی - MINOR
عدد دوم (مثل 3 در v2.3.1)
زمانی باید عددش بره بالا که ویژگیهای جدید سازگار با نسخه قبلی اضافه شده و اینکار بدون شکستن ساختار قبلی انجام شده
مثال: اضافه شدن یک تابع جدید برای تحلیل دادهها
اصلاح جزئی - PATCH
عدد سوم (مثل 1 در v2.3.1)
زمانی باید عددش بره بالا که باگ فیکسها یا بهینهسازیهای کوچک بدون افزودن قابلیت جدید انجام بشه
مثال: اصلاح خطای محاسبه دقت مدل یا تغییر مقدار پیشفرض یک hyperparameter
@silicon_brain | از هوش مصنوعی عقب نمانید
👍9❤3
به نظرم به کارگیری هوش مصنوعی در مشاغل برای کشور های پیشرفته بهتر از کشور های در حال توسعه (یا جهان سوم) هست. چرا؟
تو کشورهای پیشرفته که جمعیت کاری کمتر یا مسنتری دارن، استفاده از AI برای جایگزینی نیروی انسانی تو خیلی از مشاغل تکراری یا نیازمند دقت بالا منطقیتره. AI میتونه کمبود نیروی انسانی رو جبران کنه و رشد اقتصادی رو همزمان حفظ کنه.
تو کشورهای جهان سوم با نیروی کار زیاد اما آموزشندیده، جایگزینی انسان با AI میتونه باعث افزایش بیکاری و شکاف طبقاتی بشه (مخصوصا اگه بدون برنامهریزی انجام بشه).
قطعا موضوع مطرح شده دلیلی بر این نیست که تو کشورهای در حال توسعه نباید هوش مصنوعی استفاده بشه. اما استفاده شدن بدون برنامه ریزی پتانسیل ایجاد بحرانو داره!
@silicon_brain | از هوش مصنوعی عقب نمانید
تو کشورهای پیشرفته که جمعیت کاری کمتر یا مسنتری دارن، استفاده از AI برای جایگزینی نیروی انسانی تو خیلی از مشاغل تکراری یا نیازمند دقت بالا منطقیتره. AI میتونه کمبود نیروی انسانی رو جبران کنه و رشد اقتصادی رو همزمان حفظ کنه.
تو کشورهای جهان سوم با نیروی کار زیاد اما آموزشندیده، جایگزینی انسان با AI میتونه باعث افزایش بیکاری و شکاف طبقاتی بشه (مخصوصا اگه بدون برنامهریزی انجام بشه).
قطعا موضوع مطرح شده دلیلی بر این نیست که تو کشورهای در حال توسعه نباید هوش مصنوعی استفاده بشه. اما استفاده شدن بدون برنامه ریزی پتانسیل ایجاد بحرانو داره!
@silicon_brain | از هوش مصنوعی عقب نمانید
👍17❤1👏1
آقای
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
Yann LeCun
:اگر به کاربردهای LLM علاقهمند هستید، روی آنها کار کنید — این مدلها ابزارهای مفیدی هستند.
اما توجه داشته باشید:
که LLMها مسیر رسیدن به هوش مصنوعی در سطح انسان نیستند.
اگر واقعاً میخواهید نسل بعدی سیستمهای هوش مصنوعی را بسازید، این مسیر را دنبال کنید:
🔹 بهجای مدلهای تولیدی (Generative Models)، از معماریهای تعبیهی مشترک (Joint-Embedding Architectures) استفاده کنید.
🔹 بهجای مدلهای احتمالاتی (Probabilistic Models)، مدلهای مبتنی بر انرژی (Energy-Based Models) را در نظر بگیرید.
🔹 بهجای روشهای کنتراستی (Contrastive Methods)، روشهای منظمشده (Regularised Methods) را به کار ببرید.
🔹 بهجای یادگیری تقویتی (Reinforcement Learning)، از کنترل پیشبینی مدل (Model-Predictive Control) بهره بگیرید.
🔹 فقط زمانی از RL استفاده کنید که برنامهریزی به نتیجه مورد انتظار نرسد و نیاز به اصلاح مدل جهان یا منتقد وجود داشته باشد.
اگر به ساخت هوش مصنوعی در سطح انسان علاقه دارید، وقت خود را صرف LLMها نکنید.
و اگر دانشجو یا پژوهشگر دانشگاهی هستید، سراغ مدل های نسل بعدی بروید.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍17🔥3❤1👎1👏1
دوره جامع Generative AI مایکروسافت
این دوره در 21 فصل و به صورت رایگان در دسترسه
سرفصل ها
لینک گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
این دوره در 21 فصل و به صورت رایگان در دسترسه
سرفصل ها
1. Introduction to Generative AI and LLMs
2. Exploring and Comparing Different LLMs
3. Using Generative AI Responsibly
4. Understanding Prompt Engineering Fundamentals
5. Creating Advanced Prompts
6. Building Text Generation Applications
7. Building Chat Applications
8. Building Search Apps with Vector Databases
9. Building Image Generation Applications
10. Building Low Code AI Applications
11. Integrating External Applications with Function Calling
12. Designing UX for AI Applications
13. Securing Your Generative AI Applications
14. The Generative AI Application Lifecycle
15. Retrieval Augmented Generation (RAG) and Vector Databases
16. Open Source Models and Hugging Face
17. AI Agents
18. Fine-Tuning LLMs
19. Building with SLMs
20. Building with Mistral Models
21. Building with Meta Models
لینک گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
👍12👏2❤1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
پیشبینی صد سال پیش آرتور سی کلارک
اونایی که تو این زمینهها فعالیت دارن دچار بایاس ذهنی پیشرفت هستن. خیلی وقتها متوجه نیستیم که این پیشرفت های ریز مداوم مارو تو مهم ترین عصر انتقال هوشمندی قرار داده و ما همه وظیفه این انتقالو داریم
@silicon_brain I از هوش مصنوعی عقب نمانید
اونایی که تو این زمینهها فعالیت دارن دچار بایاس ذهنی پیشرفت هستن. خیلی وقتها متوجه نیستیم که این پیشرفت های ریز مداوم مارو تو مهم ترین عصر انتقال هوشمندی قرار داده و ما همه وظیفه این انتقالو داریم
@silicon_brain I از هوش مصنوعی عقب نمانید
👍15❤4👎1🤩1
ساختار جدید بیزینسی OpenAI
این شرکت ساختار جدیدی رو تعریف کرده: از مدل capped-profit خداحافظی کرده و تبدیل شده به یه Public Benefit Corporation (PBC). یعنی شرکتی که هدفش فقط سودآوری نیست، و یه مأموریت عمومی هم داره. هیئتمدیرهی قبلی که غیرانتفاعی (nonprofit) بود، حالا کنترل کامل این ساختار رو به دست گرفته و حتی سهمی از
آلتمن گفته این حرکت باعث میشه OpenAI در طول زمان سرمایهای در حد تریلیون دلار جذب کنه تا توسعهی AGI رو به سطح خیلی بالاتری ببره.
فعلاً هیچ تغییری توی ابزارها و سرویسهای موجود ایجاد نمیشه. دسترسی به APIها، قیمتگذاری و سرویسهایی مثل
نکتهی مهم دیگه اینه که OpenAI قصد داره در آینده مدلهای قویتری رو open source کنه. یعنی بعضی از مدلهای خیلی پیشرفته رو تحت شرایط آزاد منتشر کنه تا برنامهنویسا بتونن باهاشون کار کنن.
@silicon_brain | از هوش مصنوعی عقب نمانید
این شرکت ساختار جدیدی رو تعریف کرده: از مدل capped-profit خداحافظی کرده و تبدیل شده به یه Public Benefit Corporation (PBC). یعنی شرکتی که هدفش فقط سودآوری نیست، و یه مأموریت عمومی هم داره. هیئتمدیرهی قبلی که غیرانتفاعی (nonprofit) بود، حالا کنترل کامل این ساختار رو به دست گرفته و حتی سهمی از
OpenAI
هم داره.آلتمن گفته این حرکت باعث میشه OpenAI در طول زمان سرمایهای در حد تریلیون دلار جذب کنه تا توسعهی AGI رو به سطح خیلی بالاتری ببره.
این مدل ترکیبی شبیه کاریه که شرکتهای Anthropic و x.ai هم انجام دادن.
فعلاً هیچ تغییری توی ابزارها و سرویسهای موجود ایجاد نمیشه. دسترسی به APIها، قیمتگذاری و سرویسهایی مثل
GPT-4
، ChatGPT
و DALL·E
همونطور باقی میمونه. نیازی به مهاجرت یا تغییر فنی نیست. مستندات مثل model spec و model cards هم همچنان در دسترسن.نکتهی مهم دیگه اینه که OpenAI قصد داره در آینده مدلهای قویتری رو open source کنه. یعنی بعضی از مدلهای خیلی پیشرفته رو تحت شرایط آزاد منتشر کنه تا برنامهنویسا بتونن باهاشون کار کنن.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍8❤2🤩1
پیشرفت چشمگیر DeepSeek-Prover-V2 در ترکیب منطق غیررسمی و رسمی
مدل DeepSeek-Prover-V2 توسط محققان DeepSeek-AI برای پر کردن شکاف بین استدلال غیررسمی و رسمی در ریاضیات معرفی شده.
این مدل، توانایی تبدیل شهود ریاضی رو به اثباتهای دقیق و قابل راستیآزمایی داره.
مدل DeepSeek-Prover-V2 با تقسیم مسائل پیچیده به بخشهای کوچکتر و حفظ دقت لازم، بررسی مسائل پیچیده رو آسانتر میکنه. این مدل با استفاده از یادگیری تقویتی و دادههای آموزشی زیاد، تونسته عملکرد بسیار خوبی در چندین بنچمارک معتبر داشته باشه.
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
مدل DeepSeek-Prover-V2 توسط محققان DeepSeek-AI برای پر کردن شکاف بین استدلال غیررسمی و رسمی در ریاضیات معرفی شده.
این مدل، توانایی تبدیل شهود ریاضی رو به اثباتهای دقیق و قابل راستیآزمایی داره.
مدل DeepSeek-Prover-V2 با تقسیم مسائل پیچیده به بخشهای کوچکتر و حفظ دقت لازم، بررسی مسائل پیچیده رو آسانتر میکنه. این مدل با استفاده از یادگیری تقویتی و دادههای آموزشی زیاد، تونسته عملکرد بسیار خوبی در چندین بنچمارک معتبر داشته باشه.
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
👍13❤5🤩1
مدیرعامل گیتهاب Thomas Dohmke که سورس های دنیا دستشه صحبتای جالبی داشته
گفته که هوش مصنوعی میتونه روند کدنویسی رو تسریع کنه و دسترسی به فناوری رو دموکراتیک کنه اما جایگزین کدنویسی نیست.
ایشون بر این باوره که هوش مصنوعی با سرعتبخشیدن به فرآیندها و افزایش بهرهوری، میتونه به برنامهنویسها کمک کنه بدون اینکه نیاز به مهارتهای انسانی کاهش پیدا کنه. Dohmke معتقده که آموزش برنامهنویسی باید از سنین پایین تو مدارس تدریس بشه و همچنان نیاز حیاتی برای مهارتهای انسانی در رفع مشکلات پیچیده نرمافزاری لازمه
@silicon_brain I از هوش مصنوعی عقب نمانید
گفته که هوش مصنوعی میتونه روند کدنویسی رو تسریع کنه و دسترسی به فناوری رو دموکراتیک کنه اما جایگزین کدنویسی نیست.
ایشون بر این باوره که هوش مصنوعی با سرعتبخشیدن به فرآیندها و افزایش بهرهوری، میتونه به برنامهنویسها کمک کنه بدون اینکه نیاز به مهارتهای انسانی کاهش پیدا کنه. Dohmke معتقده که آموزش برنامهنویسی باید از سنین پایین تو مدارس تدریس بشه و همچنان نیاز حیاتی برای مهارتهای انسانی در رفع مشکلات پیچیده نرمافزاری لازمه
@silicon_brain I از هوش مصنوعی عقب نمانید
👍21👎3❤2👏2🤩1
Forwarded from هشتگ تبلیغ تخصصی
ــــــــــــــــــــــــــــــــــــ
⁉️ چرا این دوره:
ــــــــــــــــــــــــــــــــــــ
⁉️ مخاطبین این دوره چه کسانی هستند؟
💥 دانشجویان و فارغ التحصیلان کارشناسی وتحصیلات تکمیلی در رشتههای فنی مهندسی، علوم انسانی و رشتههای علوم پایه
💥 اعضای تیم هوش مصنوعی شاغل در استارتاپها، سازمانها و کسبوکارها
💥 علاقمندان به حوزه صنعت، یادگیری ماشین، پردازش تصویر و بینایی ماشین
💥 دانشجویانی که قصد نوشتن پایان نامه در این حوزه را دارند
💥 افرادی که قصد مهاجرت کاری یا تحصیلی دارند
ــــــــــــــــــــــــــــــــــــــ
از طریق لینک زیر اقدام نمایید
ـــــــــــــــــــــــــــــــــــ
02188905269
02191096546
@onacademy
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🤩1
جمنای و درک ویدیو!
گوگل دو مدل جدید از
میتونه تا ۶ ساعت ویدیو رو با context window دو میلیون token بررسی کنه، که پیشرفت بزرگیه.
توی taskهای مثل dense captioning (مثلاً دیتاست YouCook2) و moment retrieval (مثل QVHighlights) هم عملکردش خوب بوده
این مدل از لحاظ
از لحاظ
- توی یه keynote ده دقیقهای، ۱۶ بخش محصول مختلف رو تشخیص بده.
- ۱۷ بار تکرار یه حرکت خاص رو توی ویدیو بشماره — اونم با دقت فریمبهفریم!
ویدیو رو به بخشهای برچسبخورده تقسیم کنه بدون اینکه دستی لازم باشه.
کل ویدیو رو با تمام context تحلیل کنه.
از طریق Gemini API یا AI Studio میتونی بهش دسترسی داشته باشی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
گوگل دو مدل جدید از
Gemini
برای درک ویدیو و ساخت اپلیکیشن از یوتیوب معرفی کرده. مدل اصلی که اسمش Gemini 2.5 Pro
هست، قابلیت تحلیل ویدیوهای چندساعته رو داره و تو تستها حتی از GPT-4.1 هم بهتر عمل کرده (با ورودی مشابه)میتونه تا ۶ ساعت ویدیو رو با context window دو میلیون token بررسی کنه، که پیشرفت بزرگیه.
توی taskهای مثل dense captioning (مثلاً دیتاست YouCook2) و moment retrieval (مثل QVHighlights) هم عملکردش خوب بوده
این مدل از لحاظ
multimodal integration
هم قویه. میتونه ورودیهای مختلف مثل لینک یوتیوب، فایل ویدیو، یا سوالات متنی رو با هم ترکیب کنه. از لحاظ
temporal reasoning
هم خوبه و میتونه:- توی یه keynote ده دقیقهای، ۱۶ بخش محصول مختلف رو تشخیص بده.
- ۱۷ بار تکرار یه حرکت خاص رو توی ویدیو بشماره — اونم با دقت فریمبهفریم!
ویدیو رو به بخشهای برچسبخورده تقسیم کنه بدون اینکه دستی لازم باشه.
کل ویدیو رو با تمام context تحلیل کنه.
از طریق Gemini API یا AI Studio میتونی بهش دسترسی داشته باشی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
❤11👍2🤩1