Telegram Web Link
آینده SEO به چه سمتی میره؟

من زیاد ندیدم بعد از ظهور چت بات ها کسی کسی در مورد SEO صحبت کنه

با رشد چت‌بات‌ها و LLMها ، رفتار کاربرا توی اینترنت داره عوض میشه. قبلاً یکی می‌خواست یه چیزی بدونه، می‌رفت تو گوگل سرچ می‌کرد، کلی لینک می‌دید و از بینشون انتخاب می‌کرد. ولی الان خیلی‌ها مستقیم از چت‌بات می‌پرسن و جواب رو همونجا می‌گیرن، بدون اینکه لازم باشه وارد سایت خاصی بشن.

یعنی یه بخشی از ترافیکی که قبلاً از گوگل به سایت‌ها میومد، ممکنه کم بشه. وقتی ترافیک کم بشه، ارزش SEO (بهینه‌سازی سایت برای موتورهای جستجو) هم یکم میاد پایین. چون دیگه همه چیز وابسته به سرچ گوگل نیست.

@silicon_brain | از هوش مصنوعی عقب نمانید
👍24👎21
تکنولوژی MCP، آداپتور جهانی برای تمامی AIها

قبلا اگه میخواستی به LLM‌ ها بگی یه فعالیت بیرونی انجام بدن (مثلا تو وب بگرده یا یک مخزنی رو تو گیتهاب بررسی کنه و هر ابزار دیگه)، باید برای هر مدل یک روند کاستوم نوشته میشد که مشخصا این روش هزینه بالایی داره و تعداد سرویس هایی که تو پروژتون باش درگیر میشی خیلی بالا میره و یک اکوسیستم تکه‌تکه درست میشه!

با اومدن Model Context Protocol (MCP) یک پروتکل ثابت ایجاد شده که همه مدل ها از اون پیروی میکنن ، یعنی شما به هر مدل زبانی ای بگی مثلا لیست ۱۰ ایمیل آخر من رو بده به لطف MCP میره و اون کار رو در قالب استانداری انجام میده.

در حال حاضر هم بیش از ۱۰۰ تا ابزار استاندارد MCP داریم که اکثر کتابخانه هایی که برای ساخت agent هستن ازشون پشتیبانی میکنن ولی این دو تا رو من پیشنهاد میکنم
MCP Python SDK
FastMCP

@silicon_brain | از هوش مصنوعی عقب نمانید
👍133
Forwarded from DeepMind AI Expert (Farzad 🦅)
سام آلتمن، مدیر عامل OpenAI، گفته:
کاربرایی که به ChatGPT "لطفا" و "متشکرم" میگن، ده‌ها میلیون دلار هزینه منابع محاسباتی اضافی غیرضروری به شرکت تحمیل میکنن!
تازه این عبارات مودبانه نیاز به قدرت پردازش بیشتری هم دارن!!

https://www.perplexity.ai/page/politeness-to-chatgpt-raises-o-qu9DjX3DRp6v5fwHtNVYQA

#مقاله #ایده_جذاب #ایجنت #متن_باز #پردازش_زبان_طبیعی #هوش_مصنوعی

پ.ن: برای کمک به خودتون هم شده از به کاربردن هر کلمه محبت امیزی به هوش مصنوعی خودداری کنید تا مدل هدف شما رو بیشتر بفهمه و مدل از بایاس شدن و متوهم شدن برای جلوگیری به عمل اومده باشه.

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍9😁6👎2
استاندارد ورژنینگ چطوری عمل میکنه؟

یک شماره نسخه رو در نظر بگیر مثلاً: v2.3.1
باید بدونی که همیشه ورژنینگ از این فرمت تبعیت میکنه:
MAJOR.MINOR.PATCH

نسخه اصلی - MAJOR
عدد اول (مثل 2 در v2.3.1)
زمانی باید عددش بره بالا که تغییرات ناسازگار با نسخه‌های قبلی باشه یا مثلا API یا ساختار کد شکسته شده یا تغییر بنیادی داشته
مثال: تغییر تسک پروژه از classification به regression، تغییر نام یا ساختار توابع اصلی

نسخه فرعی - MINOR
عدد دوم (مثل 3 در v2.3.1)
زمانی باید عددش بره بالا که ویژگی‌های جدید سازگار با نسخه قبلی اضافه شده و اینکار بدون شکستن ساختار قبلی انجام شده
مثال: اضافه شدن یک تابع جدید برای تحلیل داده‌ها

اصلاح جزئی - PATCH
عدد سوم (مثل 1 در v2.3.1)
زمانی باید عددش بره بالا که باگ‌ فیکس‌ها یا بهینه‌سازی‌های کوچک بدون افزودن قابلیت جدید انجام بشه
مثال: اصلاح خطای محاسبه دقت مدل یا تغییر مقدار پیش‌فرض یک hyperparameter

@silicon_brain | از هوش مصنوعی عقب نمانید
👍93
به نظرم به کارگیری هوش مصنوعی در مشاغل برای کشور های پیشرفته بهتر از کشور های در حال توسعه (یا جهان سوم) هست. چرا؟

تو کشورهای پیشرفته که جمعیت کاری کمتر یا مسن‌تری دارن، استفاده از AI برای جایگزینی نیروی انسانی تو خیلی از مشاغل تکراری یا نیازمند دقت بالا منطقی‌تره. AI میتونه کمبود نیروی انسانی رو جبران کنه و رشد اقتصادی رو همزمان حفظ کنه.

تو کشورهای جهان سوم با نیروی کار زیاد اما آموزش‌ندیده، جایگزینی انسان با AI میتونه باعث افزایش بیکاری و شکاف طبقاتی بشه (مخصوصا اگه بدون برنامه‌ریزی انجام بشه).

قطعا موضوع مطرح شده دلیلی بر این نیست که تو کشورهای در حال توسعه نباید هوش مصنوعی استفاده بشه. اما استفاده شدن بدون برنامه ریزی پتانسیل ایجاد بحرانو داره!
@silicon_brain | از هوش مصنوعی عقب نمانید
👍171👏1
آقای Yann LeCun:
اگر به کاربردهای LLM علاقه‌مند هستید، روی آن‌ها کار کنید — این مدل‌ها ابزارهای مفیدی هستند.
اما توجه داشته باشید:
که LLMها مسیر رسیدن به هوش مصنوعی در سطح انسان نیستند.

اگر واقعاً می‌خواهید نسل بعدی سیستم‌های هوش مصنوعی را بسازید، این مسیر را دنبال کنید:

🔹 به‌جای مدل‌های تولیدی (Generative Models)، از معماری‌های تعبیه‌ی مشترک (Joint-Embedding Architectures) استفاده کنید.
🔹 به‌جای مدل‌های احتمالاتی (Probabilistic Models)، مدل‌های مبتنی بر انرژی (Energy-Based Models) را در نظر بگیرید.

🔹 به‌جای روش‌های کنتراستی (Contrastive Methods)، روش‌های منظم‌شده (Regularised Methods) را به کار ببرید.

🔹 به‌جای یادگیری تقویتی (Reinforcement Learning)، از کنترل پیش‌بینی مدل (Model-Predictive Control) بهره بگیرید.

🔹 فقط زمانی از RL استفاده کنید که برنامه‌ریزی به نتیجه مورد انتظار نرسد و نیاز به اصلاح مدل جهان یا منتقد وجود داشته باشد.

اگر به ساخت هوش مصنوعی در سطح انسان علاقه دارید، وقت خود را صرف LLMها نکنید.
و اگر دانشجو یا پژوهشگر دانشگاهی هستید، سراغ مدل های نسل بعدی بروید.

لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍17🔥31👎1👏1
دوره جامع Generative AI مایکروسافت
این دوره در 21 فصل و به صورت رایگان در دسترسه

‏ سرفصل ها
‎1. Introduction to Generative AI and LLMs
2. Exploring and Comparing Different LLMs
3. Using Generative AI Responsibly
4. Understanding Prompt Engineering Fundamentals
5. Creating Advanced Prompts
6. Building Text Generation Applications
7. Building Chat Applications
8. Building Search Apps with Vector Databases
9. Building Image Generation Applications
10. Building Low Code AI Applications
11. Integrating External Applications with Function Calling
12. Designing UX for AI Applications
13. Securing Your Generative AI Applications
14. The Generative AI Application Lifecycle
15. Retrieval Augmented Generation (RAG) and Vector Databases
16. Open Source Models and Hugging Face
17. AI Agents
18. Fine-Tuning LLMs
19. Building with SLMs
20. Building with Mistral Models
21. Building with Meta Models

لینک گیتهاب

@silicon_brain | از هوش مصنوعی عقب نمانید
👍12👏21🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
پیش‌بینی صد سال پیش آرتور سی کلارک

اونایی که تو این زمینه‌ها فعالیت دارن دچار بایاس ذهنی پیشرفت هستن. خیلی وقت‌ها متوجه نیستیم که این پیشرفت های ریز مداوم مارو تو مهم ترین عصر انتقال هوشمندی قرار داده و ما همه وظیفه این انتقالو داریم

@silicon_brain I از هوش مصنوعی عقب نمانید
👍154👎1🤩1
ساختار جدید بیزینسی ‏OpenAI

این شرکت ساختار جدیدی رو تعریف کرده: از مدل capped-profit خداحافظی کرده و تبدیل شده به یه Public Benefit Corporation (PBC). یعنی شرکتی که هدفش فقط سودآوری نیست، و یه مأموریت عمومی هم داره. هیئت‌مدیره‌ی قبلی که غیرانتفاعی (nonprofit) بود، حالا کنترل کامل این ساختار رو به دست گرفته و حتی سهمی از OpenAI هم داره.

آلتمن گفته این حرکت باعث می‌شه OpenAI در طول زمان سرمایه‌ای در حد تریلیون دلار جذب کنه تا توسعه‌ی AGI رو به سطح خیلی بالاتری ببره.

این مدل ترکیبی شبیه کاریه که شرکت‌های Anthropic و x.ai هم انجام دادن.


فعلاً هیچ تغییری توی ابزارها و سرویس‌های موجود ایجاد نمی‌شه. دسترسی به APIها، قیمت‌گذاری و سرویس‌هایی مثل GPT-4، ChatGPT و DALL·E همونطور باقی می‌مونه. نیازی به مهاجرت یا تغییر فنی نیست. مستندات مثل model spec و model cards هم همچنان در دسترسن.

نکته‌ی مهم دیگه اینه که OpenAI قصد داره در آینده مدل‌های قوی‌تری رو open source کنه. یعنی بعضی از مدل‌های خیلی پیشرفته رو تحت شرایط آزاد منتشر کنه تا برنامه‌نویسا بتونن باهاشون کار کنن.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍82🤩1
پیشرفت چشمگیر DeepSeek-Prover-V2 در ترکیب منطق غیررسمی و رسمی

مدل DeepSeek-Prover-V2 توسط محققان DeepSeek-AI برای پر کردن شکاف بین استدلال غیررسمی و رسمی در ریاضیات معرفی شده.

این مدل، توانایی تبدیل شهود ریاضی رو به اثبات‌های دقیق و قابل ‌راستی‌آزمایی داره.

مدل DeepSeek-Prover-V2 با تقسیم مسائل پیچیده به بخش‌های کوچکتر و حفظ دقت لازم، بررسی مسائل پیچیده رو آسانتر می‌کنه. این مدل با استفاده از یادگیری تقویتی و داده‌های آموزشی زیاد، تونسته عملکرد بسیار خوبی در چندین بنچمارک معتبر داشته باشه.
لینک

@silicon_brain I از هوش مصنوعی عقب نمانید
👍135🤩1
مدیرعامل گیتهاب Thomas Dohmke که سورس های دنیا دستشه صحبتای جالبی داشته

گفته که هوش مصنوعی می‌تونه روند کدنویسی رو تسریع کنه و دسترسی به فناوری رو دموکراتیک کنه اما جایگزین کدنویسی نیست.

ایشون بر این باوره که هوش مصنوعی با سرعت‌بخشیدن به فرآیندها و افزایش بهره‌وری، میتونه به برنامه‌نویس‌ها کمک کنه بدون اینکه نیاز به مهارت‌های انسانی کاهش پیدا کنه. Dohmke معتقده که آموزش برنامه‌نویسی باید از سنین پایین تو مدارس تدریس بشه و همچنان نیاز حیاتی برای مهارت‌های انسانی در رفع مشکلات پیچیده نرم‌افزاری لازمه

@silicon_brain I از هوش مصنوعی عقب نمانید
👍21👎32👏2🤩1
💯 بوت کمپ تخصصی هوش مصنوعی با مدرک دو زبانه
ــــــــــــــــــــــــــــــــــــ
⁉️ چرا این دوره:
🟪 مدرک دو زبانه معتبر
🟪 انجام، مینی پروژه های کلاسی و ۵ پروژه مستقل و یک پروژه جامع در طول دوره .
🟪 پشتیبانی علمی و منتور ۲۴ ساعته
ــــــــــــــــــــــــــــــــــــ
⁉️ مخاطبین این دوره چه کسانی هستند؟
💥 دانشجویان و فارغ التحصیلان کارشناسی وتحصیلات تکمیلی در رشته‌های فنی مهندسی، علوم انسانی و رشته‌های علوم پایه
💥 اعضای تیم هوش مصنوعی شاغل در استارتاپ‌ها، سازمان‌ها و کسب‌وکارها
💥 علاقمندان به حوزه صنعت، یادگیری ماشین، پردازش تصویر و بینایی ماشین
💥 دانشجویانی که قصد نوشتن پایان نامه در این حوزه را دارند
💥 افرادی که قصد مهاجرت کاری یا تحصیلی دارند
ــــــــــــــــــــــــــــــــــــــ
💎 جهت دریافت مشاوره رایگان و اطلاعات تکمیلی؛
از طریق لینک زیر اقدام نمایید


🌐 httb.ir/IHjJx ⬅️
ـــــــــــــــــــــــــــــــــــ
02188905269
02191096546
@onacademy
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🤩1
جمنای و درک ویدیو!

گوگل دو مدل جدید از Gemini برای درک ویدیو و ساخت اپلیکیشن از یوتیوب معرفی کرده. مدل اصلی که اسمش Gemini 2.5 Pro هست، قابلیت تحلیل ویدیوهای چندساعته رو داره و تو تست‌ها حتی از GPT-4.1 هم بهتر عمل کرده (با ورودی مشابه)
میتونه تا ۶ ساعت ویدیو رو با context window دو میلیون token بررسی کنه، که پیشرفت بزرگیه.

توی taskهای مثل dense captioning (مثلاً دیتاست YouCook2) و moment retrieval (مثل QVHighlights) هم عملکردش خوب بوده

این مدل از لحاظ multimodal integration هم قویه. می‌تونه ورودی‌های مختلف مثل لینک یوتیوب، فایل ویدیو، یا سوالات متنی رو با هم ترکیب کنه.

از لحاظ temporal reasoning هم خوبه و میتونه:
- توی یه keynote ده دقیقه‌ای، ۱۶ بخش محصول مختلف رو تشخیص بده.
- ۱۷ بار تکرار یه حرکت خاص رو توی ویدیو بشماره — اونم با دقت فریم‌به‌فریم!
ویدیو رو به بخش‌های برچسب‌خورده تقسیم کنه بدون اینکه دستی لازم باشه.
کل ویدیو رو با تمام context تحلیل کنه.

از طریق Gemini API یا AI Studio می‌تونی بهش دسترسی داشته باشی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
11👍2🤩1
چند روز پیش شخصی موفق شده Claude رو راضی کنه که system prompt خودشو لو بده!

برای خودم خیلی جالب بود این موضوع و در ادامه با توضیح نیازمندی ها در موردش میگم:


اگه نمی‌دونی system prompt چیه، به طور خلاصه یه جور prompt ثابته که به یه LLM می‌گه چطوری به پیام‌های کاربر جواب بده. یه جورایی مثل “تنظیمات” یا “preferences” مدل عمل می‌کنه. مثلا مشخص می‌کنه لحن جواب چطور باشه، چه ابزارهایی رو استفاده کنه، چه اطلاعات زمینه‌ای‌ای داشته باشه که توی داده‌های آموزشیش نیست.

نتیجه لو دادن Claude این بوده که مشخص شده System prompt مدل Claude خیلی طولانیه: (حدود ۱۶،۷۳۹ کلمه یا حدود ۱۱۰ کیلوبایت). برای مقایسه، system prompt مدل o4-mini از OpenAI فقط ۲،۲۱۸ کلمه‌ست، حدود ۱۵.۱ کیلوبایت — یعنی تقریباً ۱۳٪ اندازه Claude.

حالا بریم ببینیم توی prompt Claude چی هست:
همونطور که در تصویر مشخصه، بزرگ‌ترین بخشش، قسمت Tool Definitions هست که از سرورهای MCP میاد. سرورهای MCP با APIهای معمولی فرق دارن، چون به LLM دقیق می‌گن کی و چطوری از ابزارها استفاده کنه.

(ادامه در پست بعدی)

@silicon_brain | از هوش مصنوعی عقب نمانید
👍101👏1🤩1
(در ادامه پست قبلی)
یه نمونه از این MCP رو برای سرچ در وب در ادامه میبنید:
 json
{
"description": "Search the web",
"name": "web_search",
"parameters": {
"additionalProperties": false,
"properties": {
"query": {
"description": "Search query",
"title": "Query",
"type": "string"
}
},
"required": ["query"],
"title": "BraveSearchParams",
"type": "object"
}
}

این یکی ساده‌ست. مثلاً ابزار سرچ توی Google Drive یه description داره که بیشتر از ۱۷۰۰ کلمه‌ست! خلاصه که بعضی‌هاش واقعاً پیچیده‌ن.

غیر از Tool Definitions، کلی دستور دیگه هم هست که مربوط به استفاده از ابزارهاست: Citation Instructions، Artifacts Instructions، Search Instructions و Google Integration Watchouts. مثلاً چند بار تکرار شده که Claude نباید از ابزار جست‌وجو استفاده کنه اگه خودش جواب رو می‌دونه. (انگار حذف این رفتار کار راحتی نبوده!)

توی کل prompt، جاهایی هست که حس hotfix می‌ده — یعنی یه وصله‌ای سریع برای حل یه مشکل خاص. مثلاً قسمت Google Integration Watchouts فقط پنج خط بدون هیچ ساختاریه. یه نمونه:
(پرامپت ترجمه شده):
اگه داری از ابزارهای gmail استفاده می‌کنی و کاربر گفته دنبال ایمیل یه نفر خاص بگردی، فرض نکن آدرس ایمیل اون فرد رو می‌دونی. چون ممکنه چند نفر با اسم کوچیک مشابه توی سیستم باشن. به جای حدس زدن، بهتره با اسم کوچیک جست‌وجو کنی و از کاربر بخوای تأیید کنه که کدوم ایمیل مال همون فرد مورد نظرشه.

در مجموع، تقریباً ۸۰٪ این prompt مربوط به ابزارهاست ، چه زمانی و چطوری باید استفاده بشن.

آخر prompt، می‌رسیم به بخشی به نام Claude Behavior. اینجا مشخص می‌کنه Claude باید چطوری رفتار کنه، چطوری جواب بده و چه کارایی نباید بکنه.

اگه از Claude خواسته بشه کلمات، حروف یا کاراکترها رو بشمره، مرحله‌به‌مرحله فکر می‌کنه و دقیق می‌شمره و فقط وقتی شمارش تموم شد جواب می‌ده.

اگه Claude یه پازل کلاسیک ببینه، قبل از اینکه جواب بده، کل شرایط پازل رو کلمه‌به‌کلمه توی نقل‌قول می‌نویسه تا مطمئن بشه با یه نسخه تغییریافته طرف نیست.

اگه از Claude خواسته بشه شعر بگه، از استعاره‌های کلیشه‌ای، تصاویر تکراری یا قافیه‌های قابل‌پیش‌بینی استفاده نمی‌کنه.

در کل خوندن این prompt آدم رو به فکر می‌ندازه که Anthropic چجوری اینا رو مدیریت می‌کنه. پر از تکه‌های کوچیکه که اسکن‌کردن و درک کلی‌ش آسون نیست. از تگ‌های XML استفاده کردن که به نظر می‌رسه برای خود آدما (و نه LLM) مفیدتر باشه. استفاده‌شون از MCP هم یه برگ برنده‌ست.

ولی واقعاً چه نرم‌افزاری استفاده می‌کنن برای version control این promptها؟ این hotfixها یکی‌یکی اضافه می‌شن یا دسته‌جمعی بعد از ارزیابی‌ها؟ و آیا هیچ‌وقت کلاً از اول شروع می‌کنن؟ یا همیشه همین‌طوری تیکه‌تیکه اضافه می‌کنن؟ همه اینا مسائل مهمی هستن که باید بهشون توجه کنیم!

@silicon_brain | از هوش مصنوعی عقب نمانید
👍114🤩1
مدت ها پیش یه دیتاست فارسی درست کردم به نام
hystoclass (hybrid social text and tabular classification)
که یه دیتاست ترکیبی هستش که از استوری‌های اینستاگرام گردآوری شده (با در نظر گرفتن حریم خصوصی)

الان، تصمیم گرفتم این دیتاست رو به صورت عمومی منتشر کنم

این دیتاست علاوه بر متن‌های فارسی منتشرشده در استوری‌ها (ویژگی متنی content)، شامل ویژگی‌های گرافیکی مانند رنگ پس‌زمینه، رنگ متن و فونت نیز هستش. برای همین، hystoclass برای مدل‌سازی‌های چندوجهی (متنی-تصویری یا متنی-جدولی) بسیار مناسب است.

دسته‌بندی‌ها
این دیتاست با نظارت انسانی به ۱۸ دسته مختلف تقسیم شده.

گیت‌هاب | هاگینگ‌فیس
این دیتاست اطلاعات خوبی برای پژوهش در حوزه‌های پردازش زبان طبیعی (NLP)، تحلیل شبکه‌های اجتماعی و طبقه‌بندی ترکیبی متن و ویژگی‌های گرافیکی ارائه میده.

با لایک و استار ⭐️ در گیتهاب و هاگینگ‌فیس حمایت کنین❤️
👍207👏7🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
تبدیل فایل به دیتاست!

مایکروسافت یه ابزار خفن و open-source به نام MarkItDown MCP معرفی کرده که هر فایل رو به یه دیتاست آماده برای مدل‌های زبانی تبدیل می‌کنه!

انواع مختلف ورودی میتونه بگیره از جمله فایل‌های PDF، ورد، پاورپوینت، صدا و تصویر. و خروجیش یه Markdown تمیز، Structurable و آماده برای LLMهاست که در ادامه میتونه کلی استفاده داشته باشه

اما فقط یه مبدل ساده نیست، این کارها رو هم انجام می‌ده:

- متن رو از عکس‌ها استخراج می‌کنه (OCR)
- برای تصاویر کپشن هوشمند می‌سازه
- متادیتا و EXIF رو درمیاره
- صدا رو به متن تبدیل می‌کنه (transcription)

خودم باهاش کار میکنم و جزئیات بیشتری ازش میگم
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍9👏54🤩1
همه این عناوین جذاب و مهم رو با این ریپو میتونید یاد بگیرید
لینک

@silicon_brain| از هوش مصنوعی عقب نمانید
6👍2🔥2🤩1
هوش مصنوعی شخصی‌سازی‌شده‌ برای پلی‌لیست اسپاتیفای

تو این ریپو هر بار که اسکریپتو اجرا کنید، پلی‌لیست اسپاتیفایت با ۲۰ تا آهنگ پیشنهادیِ جدید که قبلاً معرفی نشده بوده، آپدیت می‌شه.
هر چند بار در روز که بخوای هم میتونی اجراش کنی(لازم نیست یه هفته صبر کنه تا Discover Weekly آپدیت بشه )

وصل کردنش از طریق SPOTIPY_CLIENT_ID و SPOTIPY_CLIENT_SECRET هست.
لینک

@silicon_brain| از هوش مصنوعی عقب نمانید
👍4👎21🤩1
2025/07/08 22:25:47
Back to Top
HTML Embed Code: