Telegram Web Link
چطور ممکن است یک مدل زبانی بزرگ (مانند ChatGPT)، در حالی که به عنوان یک سیستم پیچیده در نظر گرفته می‌شود، پاسخ‌های متفاوتی به یک متن ورودی ارائه دهد؟

آیا در سیستم‌های پیچیده، خلاف سیستم‌های آشوب‌ناک، ورودی ثابت نباید به یک خروجی ثابت پیش‌بینی‌پذیر منجر شود؟



پاسخ‌هاتون به این سوال رو کامنت کنید، پست مرتبط به زودی در کانال قرار می‌گیره.

@Ai_Events
کارگاه مجازی تاکچه با موضوع پردازش داده‌های فوتبال

جلسه‌ی قبل (۲۳ شهریور ۱۴۰۲) گفت‌وگویی دل‌نشین را با مهندس شاهین جعفری، Data Engineer در باشگاه آرسنال، پیراموش کاربرد تکنولوژی در صنعت فوتبال داشتیم و به موضوعات مختلفی اعم از ساختار باشگاه آرسنال، وظایف مهندس و دانشمند داده در فوتبال، و مثال‌های واقعی از بازیکنان و تیم‌ها پرداختیم.

در جلسه‌ی دوم بر داده‌های متن‌باز فوتبالی متمرکز شده و با یکدیگر کد می‌زنیم. این کارگاه به صورت تعاملی برگزار می‌شود و ایده‌های شما برای حل مسائل مختلف در کار با داده‌های فوتبالی نیز مورد بررسی قرار می‌گیرد.

به طور خاص در این کارگاه بر روی داده‌های متن‌باز یکی از برترین بازیکنان تاریخ فوتبال، Lionel Messi، در باشگاه Barcelona کار خواهیم کرد.

اگر به فوتبال و پردازش داده‌های فوتبالی علاقه‌مندید، شرکت در این کارگاه تعاملی به شدت توصیه می‌شود.

در این کارگاه در خدمت محمدصادق سلیمی، فارغ‌التحصیل مقطع کارشناسی صنعتی شریف هستیم.

زمان جلسه: چهارشنبه ۱۶ خرداد، ساعت ۱۷

محل ارائه مجازی: اتاق مجازی انجمن علمی

اضافه کردن به تقویم گوگل
@ssc_talkche


@Ai_Events
چگونه مدل‌های زبانی بزرگ (LLM)، با وجود قرار گرفتن در سیستم‌های پیچیده، پاسخ‌های متفاوتی به یک متن ورودی می‌دهند؟

برای درک بهتر این موضوع، ابتدا باید به انواع سیستم‌ها نگاهی بیندازیم:

سیستم‌های خطی: این سیستم‌ها رفتاری کاملاً قابل پیش‌بینی دارند. با ورود یک داده مشخص، همیشه یک خروجی ثابت تولید می‌کنند. به عنوان مثال، فرمول‌های ریاضی ساده که با یک ورودی مشخص، نتیجه‌ی دقیقی می‌دهند.

سیستم‌های پیچیده: این سیستم‌ها با ورودی‌های ثابت می‌توانند خروجی‌های متفاوتی تولید کنند، اما همچنان رفتار آن‌ها قابل درک و توجیه است. این سیستم‌ها شامل تعاملات و دینامیک‌های متعددی هستند که به نتایج متنوع منجر می‌شوند. مدل‌های زبانی بزرگ (LLM) جزو این دسته هستند. با وجود ورودی‌های ثابت، این مدل‌ها می‌توانند پاسخ‌های مختلفی بدهند؛ این تنوع به دلیل الگوریتم‌های نمونه‌گیری و تنظیمات احتمالی آن‌هاست، و در کل رفتار آن‌ها قابل پیش‌بینی است.

سیستم‌های آشوبناک: این سیستم‌ها رفتاری بسیار حساس به شرایط اولیه دارند و با ورودی‌های مشابه می‌توانند خروجی‌های کاملاً متفاوتی تولید کنند. رفتار آن‌ها غیرقابل پیش‌بینی و اغلب بدون الگوی خاصی است. مثالی بارز از سیستم‌های آشوبناک، پیش‌بینی آب و هوا است که در بلندمدت بسیار دشوار است.

مدل‌های زبانی بزرگ با وجود ورودی ثابت، می‌توانند پاسخ‌های متفاوتی تولید کنند، اما این تفاوت‌ها ناشی از الگوریتم‌های نمونه‌گیری مانند Top-k و Top-p هستند:

نمونه‌گیری Top-k: در این روش، مدل کلمه بعدی را از بین k کلمه با بیشترین احتمال انتخاب می‌کند. با تغییر k، دامنه کلمات بعدی تغییر می‌کند و می‌تواند منجر به پاسخ‌های متفاوتی شود.

نمونه‌گیری Top-p (هسته‌ای): این روش کوچکترین مجموعه‌ای از کلمات با احتمال بالا را که مجموع احتمال‌های آن‌ها از یک آستانه p فراتر می‌رود، در نظر می‌گیرد. این تکنیک با تنظیم دینامیکی دامنه کلمات، خروجی‌های متنوعی تولید می‌کند.

به همین دلیل، رفتار مدل‌های زبانی بزرگ در چارچوب این الگوریتم‌ها قابل توجیه و پیش‌بینی است و این مدل‌ها جزو سیستم‌های پیچیده محسوب می‌شوند.

@Ai_Events
مقصد سرمایه‌گذاری در حوزه‌‌ی های‌تک

دکتر محمود سریع‌القلم، استاد دانشگاه شهیدبهشتی در همایش جامع معدنی:

در حوزه ۵G در سال‌۲۰۲۰، ۶میلیارد دلار سرمایه‌گذاری صورت‌گرفته و پیش‌بینی می‌شود تا سال‌۲۰۳۰ این رقم به ۶۲۱‌میلیارد دلار برسد.

در اینترنت اشیا در سال‌۲۰۲۰ معادل ۷۴۰‌میلیارد دلار سرمایه‌گذاری صورت‌گرفته و پیش‌بینی می‌شود در سال‌۲۰۳۰ این رقم به ۴۴۰۰‌میلیارد دلار برسد.

در زمینه هوش‌مصنوعی نیز در سال‌۲۰۲۰ میزان سرمایه‌گذاری ۶۵‌میلیارد دلار بوده‌است و در سال‌۲۰۳۰ این میزان به ۱۵۰۰‌میلیارد دلار می‌رسد.

در سال‌۲۰۲۰ سرمایه‌گذاری در بخش خودروهای برقی ۱۶۳‌میلیارد دلار بوده و پیش‌بینی می‌شود میزان سرمایه‌گذاری در سال‌۲۰۳۰ در این حوزه به ۸۲۴‌میلیارد دلار برسد.

در بخش صفحات خورشیدی میزان سرمایه‌گذاری در سال‌۲۰۲۰ معادل ۱۸۰‌میلیارد دلار ثبت‌شده و در سال‌۲۰۳۰ برآورد می‌شود این میزان به ۶۴۱‌میلیارد دلار برسد.

در بخش بلاک‌چین نیز در سال‌۲۰۲۰ میزان سرمایه‌گذاری یک‌میلیارد دلار بوده که براساس پیش‌بینی‌ها در سال‌۲۰۳۰ معادل ۸۸‌میلیارد دلار سرمایه‌گذاری در این بخش صورت خواهد گرفت.

در بخش روباتیک بر اساس آمار ۱۲‌میلیارد دلار سرمایه‌گذاری در سال‌۲۰۲۰ انجام‌شده که برآورد می‌شود در سال‌۲۰۳۰ این میزان به ۱۵۰‌میلیارد دلار برسد.

در انرژی‌های پاک نیز میزان سرمایه‌گذاری در سال‌۲۰۲۰ معادل ۷۱‌میلیارد دلار بوده و پیش‌بینی می‌شود به ۱۷۵‌میلیارد دلار در سال‌۲۰۳۰ برسد.


@Ai_Events
خلاصه‌ی صحبت‌های جناب آقای دکتر محمود سریع‌القلم، استاد دانشگاه شهیدبهشتی در مورد مقصد سرمایه‌گذاری در حوزه‌ی های‌تک در همایش جامع معدنی

@Ai_Events
ارائه با عنوان

Modeling Systemic Risk:
A Time-Varying and Nonparametric Causal Inference Framework

ارائه دهنده: دکتر علی حبیب نیا
- دکتری آمار از دانشگاه LSE
- استاد دانشگاه ویرجینیاتک امریکا

نحوه برگزاری: حضوری و آنلاین

زمان برگزاری:  شنبه ۱۹ خرداد ۱۴۰۳،  ساعت ۱۳ الی ۱۵

محل برگزاری: دانشکده اقتصاد دانشگاه تهران

اطلاعات بیشتر و ثبت نام
https://evand.com/events/msrisk

@Ai_Events
سری وبینار‌های رایگان «همگام با پیشتازان»

قسمت سوم: Federated Learning

با حضور: محمد مهدی کاظمی مجدآبادی

دانشجو دکتری هوش مصنوعی در University of Hamburg،  آلمان

زمان برگزاری: سه‌شنبه ۲۲ خرداد، ساعت ۲۰

برای کسب اطلاعات بیشتر و شرکت در این وبینار به کانال هوش مصنوعی مدارس میان‌رشته‌ای مراجعه کنید.
@IDS_AI_ML
@IDSchools

@Ai_Events
حقیقتا از معیار انتخاب گوشی آقای پاول دروف شگفت‌زده شدم!
@Ai_Events
فرآیندکاوی و مدل‌های زبانی بزرگ (LLMs)🔎

سخنران وبینار:
Alessandro Berti
🔸پژوهشگر گروه PADS در دانشگاه RWTH Aachen

موضوع وبینار:
نقش مدل‌های زبانی بزرگ در توسعه، تسریع و دسترسی‌پذیری فرآیندکاوی

زمان:
چهارشنبه ۳۰ خرداد ۱۴۰۳ ساعت ۱۸ - ۲۰

لینک ثبت‌نام رایگان



@Ai_Events
prompt_engineering (Farsi).pdf
1.7 MB
معرفی کتاب فارسی با عنوان:
آشنایی مقدماتی با مهندسی درخواست (Prompt Engineering) از مد‌ل‌های هوش مصنوعی

نویسنده: ChatGPT-4o

تهیه کننده و ویرایشگر: دکتر حسین کریمی (هیأت علمی گروه مهندسی صنایع دانشگاه بجنورد)

@Ai_Events
هوش مصنوعی چگونه در انتخابات دخالت می‌کند؟

دست تاریک، دست روشن


🔻صدف صمیمی در گزارشی به چگونگی ایفای نقش هوش مصنوعی در انتخابات پرداخته و با ارجاع به مقاله دکتر ویاچسلاو پولونسکی، دانشمند شبکه در دانشگاه آکسفورد، این موضوع را بررسی کرده است.
چکیده گزارش را بخوانید:

🔹اگر اخبار انتخابات ریاست‌جمهوری ایران را دنبال کرده باشید، می‌دانید یکی از کل‌کل‌های موفق و جالب انتخاباتی را علی لاریجانی با استفاده از Chat GPT رقم زده است.

🔹لاریجانی در واکنش به زیر سوال بردن کارنامه کاری‌اش در حوزه مبارزه با فساد از سوی سعید جلیلی، خطاب به این روبات هوشمند چند پرسش مطرح کرد.

🔹جی‌پی‌تی هم در پاسخ با رسم‌الخط مخصوص به خودش به شمارش اقدامات صورت‌گرفته پرداخت.

🔹اگر هوش مصنوعی می‌تواند ساعات کاری را کم کند، سرطان را در لحظه اول شکل‌گیری تشخیص دهد، بازیگران هالیوود را از کار بیکار کند و صدای درگذشتگان را به‌سان زندگان به گوشمان برساند چرا نتواند رئیس‌جمهور تعیین کند، کابینه بچیند و لایحه به تصویب برساند؟

🔹برخی کاربردهای هوش مصنوعی را باید در پیش‌بینی نتایج، تحلیل دادهها، بهبود فرآیند رای‌گیری و ساماندهی و مدیریت حملات سایبری دانست.

🔹چندین سال است که استفاده از هوش مصنوعی در انتخابات در بسیاری از کشورها به یک امر عادی تبدیل شده است.

🔹در ایران اما، تا به حال مقام، نهاد یا سازمانی رسماً استفاده از این تکنولوژی را اطلاع نداده و فعالیت در این حوزه محدود به تحلیل داده‌ها شده است.

🔹قبل از شروع انتخابات سال ۱۳۹۶ مسابقه‌ای تحت عنوان  NLPContest با حمایت دانشگاه شریف برگزار شد.

🔹هدف از برگزاری این مسابقه پیش‌بینی نتایج انتخابات ریاست‌جمهوری با استفاده از الگوریتم‌های هوش مصنوعی و داده‌های موجود در شبکه‌های اجتماعی بود.

🔹هوش مصنوعی می‌تواند به افراد کمک کند تا به اطلاعات بیشتری دسترسی پیدا کنند و از این طریق تصمیم‌گیری هوشمندانه‌تری در مورد رای‌دهی خود داشته باشند.

🔹یکی از مثال‌های دقیق استفاده از هوش مصنوعی در همراهی با دموکراسی، استفاده از الگوریتم‌های هوش مصنوعی برای شناسایی و ردگیری تلاش‌های تبلیغاتی تحریف شده و اخبار جعلی است.

🔹اما این قهرمان هزاره جدید علاوه بر چهره نورانی‌اش جنبه تاریکی هم دارد که تهدیدکننده دموکراسی و حقیقت از طریق دستکاری افکار عمومی است.

🔹متاسفانه در ایران به دلیل کنترل و انسداد اینترنت، بیشتر ابزارهای هوش مصنوعی یا فیلتر شده‌اند یا به علت تحریم قابل دسترسی نیستند.

منبع: تجارت فردا، شماره ۵۴۸

@Ai_Events
یکی از همراهان عزیز کانال، پیام زیر رو برای من ارسال کردند:

به تیم نوآور ما در Rapid Solutionsبپیوندید!
آیا به بینایی کامپیوتری علاقه‌مندید و مشتاقید در صنعت فناوری تأثیرگذار باشید؟ آیا در یک محیط پویا و آینده‌نگر شکوفا می‌شوید؟ اگر چنین است، ما می‌خواهیم از شما بشنویم!
🔍 موقعیت: مهندس/پژوهشگر بینایی کامپیوتری
محل کار: دورکاری
درباره ما: در Rapid Solutions ، ما در زمینه انهدام دارایی‌های فناوری اطلاعات (ITAD) و راه‌حل‌های پیشرفته هوش مصنوعی تخصص داریم. تیم ما به نوآوری و پایداری متعهد است و ما به دنبال افراد با استعداد هستیم تا به ما در این سفر هیجان‌انگیز بپیوندند.
مسئولیت‌های کلیدی:
• توسعه و پیاده‌سازی الگوریتم‌ها و مدل‌های پیشرفته بینایی کامپیوتری.
• همکاری با تیم‌های چندرشته‌ای برای یکپارچه‌سازی راه‌حل‌های بینایی در پروژه‌های ما.
• انجام تحقیقات برای به‌روز ماندن در زمینه تکنولوژی‌های هوش مصنوعی و بینایی کامپیوتری.
• بهینه‌سازی و استقرار مدل‌ها برای برنامه‌های کاربردی بلادرنگ.
صلاحیت‌ها:
• سابقه قوی در زمینه بینایی کامپیوتری، پردازش تصویر و یادگیری ماشین.
• تسلط به زبان‌های برنامه‌نویسی مانند Python، C++ یا مشابه آن.
• تجربه با فریم‌ورک‌های یادگیری عمیق مانند  TensorFlow، PyTorch
• مهارت‌های حل مسئله عالی و اشتیاق به نوآوری.
آنچه ما ارائه می‌دهیم:
• محیط کاری همکاری‌جویانه و فراگیر.
• فرصت‌های رشد حرفه‌ای و توسعه.
• بسته حقوق و مزایای رقابتی.
• انعطاف‌پذیری کار به صورت دورکاری.
• فرصتی برای کار روی پروژه‌های هیجان‌انگیز با تأثیر جهانی.
چگونه درخواست دهید: اگر آماده‌اید که حرفه خود را به سطح بعدی برسانید و بخشی از تیمی باشید که آینده هوش مصنوعی و ITAD را شکل می‌دهد، مشتاقانه منتظر شنیدن از شما هستیم! لطفاً رزومه خود را به [email protected] ارسال کنید
📢 خبر را منتشر کنید! اگر کسی را می‌شناسید که برای این نقش مناسب است، لطفاً این پست را با او به اشتراک بگذارید.
بیایید با هم نوآوری کنیم و در دنیای فناوری تفاوت ایجاد کنیم!

@Ai_Events
تعریف مسئله مبتنی بر داده در استارت‌آپ‌ها (Data-driven problem statement in startups)

در دنیای استارت‌آپ‌ها، ایده‌های ناب به وفور یافت می‌شوند. اما تمایز یک استارت‌آپ موفق از یک استارت‌آپ شکست خورده، در گام اول، در چگونگی تعریف و حل مسئله نهفته است. تعریف مسئله مبتنی بر داده، سلاح مخفی استارت‌آپ‌های پیشرو برای هدایت و اثبات ارزش‌آفرینی آن‌هاست.

چرا تعریف مسئله مبتنی بر داده اهمیت دارد؟


-   شفافیت و اعتبار: داده‌ها دروغ نمی‌گویند! با تکیه بر داده‌های واقعی، مشکل را به شکلی ملموس و قابل اندازه‌گیری توصیف می‌کنید. این شفافیت، جلب اعتماد سرمایه‌گذاران و شرکا را تسهیل می‌کند.

-   هدفمندسازی راه‌حل: با درک دقیق ماهیت و ابعاد مسئله، راه‌حلی کارآمد و متناسب با نیاز بازار ارائه می‌دهید. این امر، به صرفه‌جویی در منابع و افزایش نرخ موفقیت محصول یا خدمت شما منجر می‌شود.

-    سنجش‌پذیری نتایج:
داده‌ها، امکان سنجش اثربخشی راه‌حل را فراهم می‌کنند. بدین ترتیب، می‌توانید به طور مداوم پیشرفت خود را ارزیابی کرده و در صورت لزوم، استراتژی خود را اصلاح نمایید.

چگونه مسئله را مبتنی بر داده تعریف کنیم؟


-    تعریف بازار هدف:
دقیقا مشخص کنید برای چه کسانی و با چه ویژگی‌هایی، ارزش‌آفرینی می‌کنید. داده‌های مربوط به جمعیت‌شناسی، رفتار و نیازهای این مخاطبان را گردآوری کنید.

-    درد مشتری:
با تحقیقات میدانی و بررسی داده‌های رفتاری کاربران، مشکل یا چالش اصلی مشتریان خود را شناسایی کنید. به دنبال داده‌هایی باشید که نشان دهند این مشکل، فراگیر و قابل حل است.

-    تاثیر منفی مسئله:
داده‌هایی را بیابید که نشان دهد این مشکل چه تاثیرات منفی بر زندگی، کسب و کار یا رفاه حال مشتریان شما دارد. این داده‌ها می‌توانند شامل آمار، نظرسنجی‌ها و نتایج تست‌های کاربری باشند.

-    راه‌حل پیشنهادی:
با تکیه بر داده‌های گردآوری شده، راه‌حلی نوآورانه و مبتنی بر فناوری برای رفع مشکل ارائه دهید. توضیح دهید که راه‌حل شما چگونه زندگی یا کسب و کار مشتریان را بهبود می‌بخشد.

-    سنجش موفقیت:
شاخص‌هایی را بر اساس داده تعریف کنید که به شما بگویند آیا راه‌حل شما در حال رفع مشکل است یا خیر. این شاخص‌ها می‌توانند شامل نرخ تبدیل، رضایت مشتری، وفاداری و ... باشند.

نتیجه‌گیری
تعریف مسئله مبتنی بر داده، نقشه راه استارت‌آپ شماست. با تکیه بر داده‌های واقعی، می‌توانید مسیری روشن برای حل یک مشکل واقعی ترسیم کنید. این امر، نه تنها به جذب سرمایه و جلب اعتماد مخاطبان کمک می‌کند، بلکه نرخ موفقیت استارت‌آپ شما را نیز به طور چشمگیری افزایش می‌دهد.

نکته: مشخصا این روش هم برای پیدا کردن ایده، اشکالاتی خواهد داشت، اما نگاه جامع و واقع گرایانه، کلید اصلی موفقیت در این روش می‌باشد. اجازه بدهیم داده‌ها صحبت کنند، به دنبال توجیه ایده با داده‌ها نباشیم.

@Ai_Events
🙂🙂

@Ai_Events
👌👌👌
#python


@Ai_Events
گاهی نیست که بر خود نلرزم وقتی به یاد می‌آورم که چگونه نزدیک بود به بعضی جزئیات پیش پا افتاده اجازه ورود به ذهن خویش بدهم ... ؛

و حیرت می‌کنم وقتی می‌بینم انسانها چقدر به پرکردن مغزهای‌شان با این قاذورات علاقه‌مندند که به شایعه‌های بیهوده و حوادثی از بی‌اهمیت‌ترین نوع اجازه می‌دهند تا به زمینی که باید حریم اندیشه باشد تجاوز کند.

آیا ذهن باید مکانی عمومی باشد، جایی که در آن عمدتاً مسائل خیابانی و شایعه‌های مجالس صرف چای مورد بحث قرار گیرد؟ یا باید خود غرفه‌ای باشد، معبدی بی‌سقف، وقف خدمت به خدایان؟

من خالی کردن خویش از چند واقعیت که برایم مهم‌اند را چندان سخت می‌یابم که در بارگذاردن بر دوش توجه‌ام نسبت به آنچه بی اهمیت است درنگ می‌کنم چنین کاری مگر از ذهن الهه‌گان برآید.

اخبار روزنامه ها و خبرهای سینه به سینه تا حدود زیادی از همین نوع‌اند. مهم است که در برابر آنها از عفت ذهن حفاظت شود ...

والدن؛ هنری دیوید ثورو

@Ai_Events
.pdf
997.3 KB
یه تحلیل متنی بسیار جذاب از شرکت لایف‌وب

تحلیل شناختی متن مناظرات نامزدهای انتخاباتی
لایف وب در همکاری با سامانه» تحلیل کلان دادههای متنی زبان فارسی (PIWC) به تحلیل شناختی متن سخنان نامزدها در مجموع پنج مناظره پرداخت
فرآیندهای شناختی در ذهن بر نوع به کاربردن کلمات و جملات تاثیرگذار .است در این تحلیل تلاش شده است تا با در نظر گرفتن جملات به کار رفته توسط نامزدها به توانایی آنها در حوزههای مختلف بپردازد.
در این بررسی ۶ شاخص شناختی برای ۶ نامزد بررسی شدند که مقایسه نامزدها در هر شاخص را در اسلایدها مشاهده میکنید
به طور میانگین ،قالیباف پزشکیان و پورمحمدی به ترتیب بهترین امتیازها را در بین ۶ نامزد دارند.

@Ai_Events
2025/07/06 04:23:15
Back to Top
HTML Embed Code: