Telegram Web Link
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Andrew Ng:

امروزه برخی افراد دیگران را از یادگیری برنامه‌نویسی دلسرد می‌کنند به این دلیل که معتقدند هوش مصنوعی آن را خودکار خواهد کرد. این توصیه به عنوان یکی از بدترین توصیه‌های شغلی در تاریخ شناخته خواهد شد. من با برنده جایزه تورینگ و نوبل که نوشته بود: «بسیار محتمل‌تر است که شغل برنامه‌نویسی منقرض شود [...] تا اینکه به اوج قدرت برسد. هر چه می‌گذرد، رایانه‌ها بیشتر خودشان برنامه‌نویسی خواهند کرد»، مخالفم. اظهاراتی که افراد را از یادگیری کدنویسی بازمی‌دارند، مضر هستند!

هرچه برنامه‌نویسی آسان‌تر شود، باید افراد بیشتری برنامه‌نویسی کنند، نه کمتر!

در چند دهه گذشته، برنامه‌نویسی از زبان اسمبلی به زبان‌های سطح بالاتر مثل C، از دسکتاپ به فضای ابری، از ویرایشگرهای متنی خام به محیط‌های توسعه یکپارچه (IDE) و حالا به کدنویسی با کمک هوش مصنوعی که گاهی حتی نیازی به دیدن کد تولیدی نیست (که برخی برنامه‌نویس‌ها به آن «کدنویسی با حال و هوا» یا vibe coding می‌گویند) پیشرفت کرده است. با هر گام، این فرآیند آسان‌تر شده است.

قبلاً نوشته بودم که افراد آشنا با تکنولوژی، با هماهنگی ابزارهای هوش مصنوعی، در مسیر تبدیل شدن به حرفه‌ای‌های ۱۰ برابری هستند — افرادی که ۱۰ برابر میانگین افراد در حوزه خود تأثیر دارند. من هر روز بیشتر به این باور می‌رسم که بهترین راه برای بسیاری از افراد برای رسیدن به این نقطه، فقط مصرف‌کننده بودن برنامه‌های هوش مصنوعی نیست، بلکه یادگیری برنامه‌نویسی کافی برای استفاده مؤثر از ابزارهای کدنویسی با کمک هوش مصنوعی است.

وقتی داشتم روی دوره «هوش مصنوعی مولد برای همه» کار می‌کردم و لازم بود تصاویر پس‌زمینه هنری تولید کنم، با همکاری کار کردم که در رشته تاریخ هنر تحصیل کرده بود و زبان هنر را می‌دانست. او با استفاده از اصطلاحات مرتبط با سبک تاریخی، پالت رنگی، الهام‌گیری از هنرمندان و غیره — یعنی با زبان هنر — به Midjourney دستور می‌داد تا به نتیجه دلخواه برسد. من این زبان را نمی‌دانستم، و تلاش‌های محدود من برای ساخت پرامپت، به اندازه او مؤثر نبود.

به همین ترتیب، کسانی که زبان نرم‌افزار را از طریق دانش برنامه‌نویسی می‌فهمند، می‌توانند به مدل‌های زبانی یا محیط‌های توسعه دارای هوش مصنوعی دقیق‌تر بگویند چه می‌خواهند و نتایج بسیار بهتری بگیرند. اکنون بهترین زمان برای یادگیری برنامه‌نویسی، یادگیری زبان نرم‌افزار، و آموختن توانایی واداشتن کامپیوترها به انجام خواسته‌های شماست.

@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
ساخت اپ فول استک با Firebase Studio

گوگل یه ابزار جدید به اسم Firebase Studio معرفی کرده که یه محیط برنامه‌نویسی تحت وبه و با هوش مصنوعی کار می‌کنه. با این ابزار می‌تونی خیلی راحت اپلیکیشن‌های فول‌استک بسازی و دیپلوی کنی. این محیط همه چی رو تو یه جا جمع کرده؛ هم Project IDX، هم Genkit، هم مدل‌های Gemini.

یکی از جذاب‌ترین امکاناتش اینه که کافیه یه متن یا حتی یه نقاشی ساده بهش بدی، خودش برات یه اپ کامل می‌سازه!

با Firebase Studio، فقط با یه کلیک می‌تونی پروژه‌ت رو مستقیم روی Firebase App Hosting دیپلوی کنی.

این نسخه به‌صورت پیش‌نمایش برای همه در دسترسه و کاربران Google Developer Program میتونن تا ۳۰ ورک‌اسپیس رایگان استفاده کنن.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
ساخت مدل زبانی روی دیتابیس به صورت خودکار
LAMOGEL: Language Model Generation Lifecycle
یه پروژه تو گیتهاب داشتم برای یه بیزنسی کار کرده بودم. امروز پابلیکش کردم تا دیگران هم استفاده کنن.
به چه دردی میخوره؟
اگه میخواین روی دیتابیس بیزینس خودتون یه مدل زبانی پیشرفته که مفاهیم و فضای کاری شما رو درک کرده باشه سریع و خودکار بسازید از LAMOGEL استفاده کنید
مراحل:
1. اتصال به دیتابیس
2. پیش‌پردازش داده‌ها
3. تقسیم دیتا: دیتا رو به دو بخش پیش آموزش (Pre-training) و تنظیم دقیق (Fine-tuning) تقسیم میکنه. تا اولش LM رو آموزش بده و بعدش با متریک‌ها ارزیابی کنه و برای تسک NLP مورد نظر شما تیون کنه.
4.آموزش مدل MLM
5.ذخیره مدل: مدل آموزشی ساخته‌شده رو تو مسیر مشخصی و تو Huggingface ذخیره میکنه.
کانفیگ آسان:
همه هایپرپارامترهای مورد نیاز، مثل نرخ یادگیری، تعداد داده‌های فاین‌تیون و غیره رو از فایل Config.py میتونین ست کنین و پروژه رو اینجوری ایزی ران کنید😁
python app.py

لینک گیتهاب
لطفا تو گیتهاب استار ⭐️ بدین تا انگیزه ای باشه برای همه افرادی که ریپو هاشون رو پابلیک میکنن

@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
عملکرد مدل های مطرح امروزی

@silicon_brain | از هوش مصنوعی عقب نمانید
سیستم Multi-Agent گوگل

گوگل به‌تازگی یه فریم‌ورک متن‌باز به اسم Agent Development Kit (ADK) معرفی کرده که باهاش می‌تونی خیلی راحت agent‌ های هوشمند بسازی، ابزار براشون تعریف کنی، تست کنی و مستقیم روی زیرساخت‌های گوگل دیپلوی کنی.

این فریم‌ورک از همون اول از مدل‌های Gemini و مدل‌های دیگه مثل Claude، LLaMA، Mistral پشتیبانی می‌کنه و حتی می‌تونی مدل اختصاصی خودتو با یه custom connector بهش وصل کنی.

علاوه بر این، ADK با Vertex AI Agent Builder هم یکپارچه شده، یعنی به‌راحتی می‌تونی agent‌هات رو روی سرویس‌های سازمانی گوگل اجرا کنی و با prompt-based logic بین مدل‌ها مسیر دهی (routing) انجام بدی.

از لحاظ قابلیت‌های ابزارسازی، ADK بهت این امکان رو میده که ابزارهای دلخواهتو با Python تعریف و مدیریت کنی. ابزارهای پیش‌فرضی مثل google_search و code_exec توش وجود داره و به شکل ساختاریافته می‌تونی ورودی و خروجی ابزارها رو تست و دیباگ کنی.
لینک

@silicon_brain | از هوش مصنوعی عقب نمانید
داشتم آگهی های کاریابی رو تو لینکدین میدیدم. اکثر شرکتا دنبال نیروی Senior هستن! چرا این اتفاق افتاده؟
احتمالا داریم به سمتی میریم که در آینده نزدیک نیروی جونیور نقش کمرنگی توی پروژه ها خواهد داشت و شرکتها بجای استخدام 5نفر جونیور، 1 نفر سنیور استخدام میکنن+یه اکانت ChatGPT!

شکی نیست که هوش مصنوعی هیچوقت خطری برای کسایی که تخصصی کار میکنن نیست اما خیلی راحت جای کسایی رو میگیره که دستوپاشکسته دارن کار میکنن.


این شاید یه تلنگر باشه واسه هممون، تو هر حوزه ای که داریم کار میکنیم خیلی زود باید حرفه ای بشیم.
@silicon_brain | از هوش مصنوعی عقب نمانید
بازی مهم امشب رئال مادرید و آرسنال رو به مدل های خفن گفتم با تکنولوژی Reason و Deep Research پیش بینی کنن و زمان زیادی در مورد این نتایج فکر کردن:

GPT-4 Turbo:
⚽️ Real Madrid 1 - 1 Arsenal

Gemini 2.5:
⚽️ Real Madrid 2 - 1 Arsenal

Grok 3:
⚽️ Real Madrid 2 - 1 Arsenal

حتما میدونید که بازی رفت این بازی 3 بر صفر به نفع آرسنال تموم شده و پیش بینی این بازی پیچیدگی زیادی داره.
خیره ایشالا 😅
‏OpenAI: تفکر با تصویر و اتصال زنجیری ابزار برای رسیدن به هدف!

جدیدا OpenAI یه سری مدل جدید معرفی کرده که این مدل‌ها فقط با متن سر و کار ندارن؛ می‌تونن با تصاویر هم فکر کنن! یعنی مثلاً از روی نمودارها، عکس‌های دست‌نویس، اسکرین‌شات نرم‌افزارها یا دیاگرام‌های پیچیده، اطلاعات و مفهوم استخراج کنن و بر اساسش استدلال کنن. حتی اگه عکس یه معادله ریاضی باشه، می‌تونن بفهمن و باهاش کار کنن.

از نظر عملکرد هم o3 فعلاً بهترین رتبه رو توی تست‌های مرتبط با استدلال و منطق گرفته؛ توی رقابت‌هایی مثل SWE-bench و Codeforces تونسته از بقیه مدل‌ها پیشی بگیره

در کنارش o4-mini که بیشتر برای مواقعی ساخته شده که سرعت و حجم پاسخ‌دهی برات مهمه ولی همچنان نیاز به یه مدل با قدرت استدلال داری. این مدل توی رقابت‌های مثل AIME امتیاز بالایی گرفته

این مدل‌ها با API رسمی OpenAI قابل دسترسی هستن و حتی کاربرهای رایگان هم می‌تونن از o4-mini در حالت «Think» استفاده کنن.
مدل o4-mini نسبت به o3 سرعت بیشتری داره و سقف استفاده بالاتری رو هم ساپورت می‌کنه.

@silicon_brain | از هوش مصنوعی عقل نمانید
تفاوت فنی Gemini و Gemma چیه؟

مدل‌های Gemini و Gemma، هر دو توسط Google منتشر شدن اما اهداف و ویژگی‌های متفاوتی دارن.

​مدل Gemini یک مدل زبانی بزرگ و چندمنظوره هست که توسط DeepMind توسعه یافته و میتونه انواع داده‌ها مثل متن، تصویر، صدا، ویدئو و کد رو به‌صورت همزمان پردازش کنه. این مدل از معماری Transformer با ترکیب Mixture-of-Experts (MoE) بهره میبره تا وظایف پیچیده رو با کارایی بالا انجام بده. نسخه‌های مختلفی از Gemini وجود داره از جمله Ultra، Pro، Flash و Nano، که هر کدومش برای کاربردهای خاصی طراحی شدن. نسخه Gemini 1.5 Pro میتونه تا ۱ میلیون توکن رو در یک واحد پردازش کنه

از سوی دیگر، Gemma یک خانواده از مدل‌های سبک و open-source هستش که بر پایه تحقیقات Gemini توسعه یافته. این مدل‌ برای استفاده در محیط‌های با منابع محدود مثل لپ‌تاپ‌، موبایل و پروژه‌های تحقیقاتی طراحی شده. Gemma از معماری Transformer با بهینه‌سازی‌هایی مانند افزایش نسبت توجه محلی به جهانی برای کاهش مصرف حافظه استفاده میکنه در نسخه Gemma 3، پنجره متنی تا ۱۲۸ هزار توکن افزایش یافته.

@silicon_brain | از هوش مصنوعی عقب نمانید
در ادامه پست قبلی بگم که چرا از نظر بیزینس بعضی‌ از شرکت ها مثل Meta مدل‌هاشون رو به‌صورت open-source منتشر می‌کنن، در حالی که بعضیا دیگه مثل OpenAI انحصاری نگه می‌دارن. و بعضیا مثل Google هر دو استراتژی رو در پیش میگیرن:

استراتژی متن‌باز:
شرکت Meta با انتشار مدل‌های LLaMA به‌صورت متن‌باز، دنبال اینه که با جذب برنامه نویسا و محقق ها، افراد بیشتری بتونن با این مدل‌ها کار کنن، اونا رو بهبود بدن و در پروژه‌های خودشون استفاده کنن. این استراتژی به Meta کمک می‌کنه تا در جامعهٔ هوش مصنوعی نفوذ بیشتری پیدا کنه و به‌عنوان پیشرو در این حوزه شناخته بشه.​
همچنین، با متن‌باز کردن مدل‌ها، Meta می‌تونه بازخوردهای بیشتری دریافت کنه و مدل‌هاش رو سریع‌تر بهبود بده. این کار به توسعهٔ سریع‌تر فناوری و افزایش شفافیت کمک می‌کنه.​

استراتژی انحصاری:
اما OpenAI مدلاشو به‌صورت انحصاری نگه می‌داره. این موضوع بهشون اجازه می‌ده کنترل بیشتری روی نحوه استفاده از مدل‌ها داشته باشه و همزمان پلن های درآمدیشو هم جلو ببره. با ارائهٔ مدل‌ها به‌صورت سرویس، می‌تونن از کاربران هزینه دریافت کنن و مدل‌هاشون رو به‌عنوان محصولات تجاری عرضه کنن.​

این استراتژی به OpenAI کمک می‌کنه تا از رقبا جلوتر بمونه و از فناوری خودش محافظت کنه. اما ممکنه باعث بشه برنامه نویسا و محقق ها نتونن به‌راحتی با مدل‌هاشون کار کنن یا اون‌ها رو برای نیازهای خاص خودشون تنظیم کنن.​

بعضیا هم مثل گوگل هر دو روشو رو با هم انجام میدن تا از مزیت های هر دو روش همزمان برخورددار بشن

@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
a-practical-guide-to-building-agents.pdf
7 MB
اینم داکیومنت ساخت Agent که OpenAI منتشر کرده
پست قلبی هم نسخه منتشر شده توسط گوگل بود

@silicon_brain I از هوش مصنوعی عقب نمانید
آینده SEO به چه سمتی میره؟

من زیاد ندیدم بعد از ظهور چت بات ها کسی کسی در مورد SEO صحبت کنه

با رشد چت‌بات‌ها و LLMها ، رفتار کاربرا توی اینترنت داره عوض میشه. قبلاً یکی می‌خواست یه چیزی بدونه، می‌رفت تو گوگل سرچ می‌کرد، کلی لینک می‌دید و از بینشون انتخاب می‌کرد. ولی الان خیلی‌ها مستقیم از چت‌بات می‌پرسن و جواب رو همونجا می‌گیرن، بدون اینکه لازم باشه وارد سایت خاصی بشن.

یعنی یه بخشی از ترافیکی که قبلاً از گوگل به سایت‌ها میومد، ممکنه کم بشه. وقتی ترافیک کم بشه، ارزش SEO (بهینه‌سازی سایت برای موتورهای جستجو) هم یکم میاد پایین. چون دیگه همه چیز وابسته به سرچ گوگل نیست.

@silicon_brain | از هوش مصنوعی عقب نمانید
تکنولوژی MCP، آداپتور جهانی برای تمامی AIها

قبلا اگه میخواستی به LLM‌ ها بگی یه فعالیت بیرونی انجام بدن (مثلا تو وب بگرده یا یک مخزنی رو تو گیتهاب بررسی کنه و هر ابزار دیگه)، باید برای هر مدل یک روند کاستوم نوشته میشد که مشخصا این روش هزینه بالایی داره و تعداد سرویس هایی که تو پروژتون باش درگیر میشی خیلی بالا میره و یک اکوسیستم تکه‌تکه درست میشه!

با اومدن Model Context Protocol (MCP) یک پروتکل ثابت ایجاد شده که همه مدل ها از اون پیروی میکنن ، یعنی شما به هر مدل زبانی ای بگی مثلا لیست ۱۰ ایمیل آخر من رو بده به لطف MCP میره و اون کار رو در قالب استانداری انجام میده.

در حال حاضر هم بیش از ۱۰۰ تا ابزار استاندارد MCP داریم که اکثر کتابخانه هایی که برای ساخت agent هستن ازشون پشتیبانی میکنن ولی این دو تا رو من پیشنهاد میکنم
MCP Python SDK
FastMCP

@silicon_brain | از هوش مصنوعی عقب نمانید
2025/06/29 20:24:31
Back to Top
HTML Embed Code: