What will AI mean for economic inequality?
As AI development focuses on labor-saving solutions in aging countries, it may exacerbate global inequality, with potential negative consequences for low-income countries and the environment if not addressed through deliberate policy choices.
Source | @Ai_Events
As AI development focuses on labor-saving solutions in aging countries, it may exacerbate global inequality, with potential negative consequences for low-income countries and the environment if not addressed through deliberate policy choices.
Source | @Ai_Events
Here’s how niche AI assistants are helping unlock the technology’s true capabilities
💻 Artificial intelligence (AI) continues to grow, with AI assistants evolving into sophisticated systems. 💡 With advancements in natural language processing (NLP), machine learning (ML), and data analytics, AI assistants have reached new heights. 📈 The global AI market is projected to grow to $196 billion by 2024, with the market for intelligent virtual assistants (IVAs) valued at $3.24 billion in 2023 and expected to grow at a CAGR of 24.0% by 2032.
Source | @Ai_Events
💻 Artificial intelligence (AI) continues to grow, with AI assistants evolving into sophisticated systems. 💡 With advancements in natural language processing (NLP), machine learning (ML), and data analytics, AI assistants have reached new heights. 📈 The global AI market is projected to grow to $196 billion by 2024, with the market for intelligent virtual assistants (IVAs) valued at $3.24 billion in 2023 and expected to grow at a CAGR of 24.0% by 2032.
Source | @Ai_Events
BiomedGPT: A generalist vision language foundation model for diverse biomedical tasks
Dianbo liu:
Thrilled to host Prof. Lichao Sun at our AI Tea Talk Singapore webinar series to
discuss his recent Nature publication on AI for general medical tasks.
Join us on Monday, Sep 23 at 10:30 PM (New York), Sep 24 at 6:00 AM (Tehran), or Tuesday, Sep 24 at 10:30 AM (Singapore/Beijing).
Webinar Zoom link: https://nus-sg.zoom.us/j/86532780782
Zoom meeting ID: 865 3278
Open to all!
More details in the poster and https://aiteatalksingapore.github.io
@Ai_Events
Dianbo liu:
Thrilled to host Prof. Lichao Sun at our AI Tea Talk Singapore webinar series to
discuss his recent Nature publication on AI for general medical tasks.
Join us on Monday, Sep 23 at 10:30 PM (New York), Sep 24 at 6:00 AM (Tehran), or Tuesday, Sep 24 at 10:30 AM (Singapore/Beijing).
Webinar Zoom link: https://nus-sg.zoom.us/j/86532780782
Zoom meeting ID: 865 3278
Open to all!
More details in the poster and https://aiteatalksingapore.github.io
@Ai_Events
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
مایکروسافت Copilot 2.0 رو منتشر کرد!
🔺 چند روز پیش، مایکروسافت Copilot 2.0 رو معرفی کرده که یه ابزار هوش مصنوعی پیشرفتهست و حالا بهراحتی با اکسل برای تحلیل دادهها با پایتون یکپارچه شده. این نسخه جدید حسابی بهرهوری رو بالا میبره و باعث میشه کارهای پیچیدهتری رو راحتتر انجام بدیم.
🔵 یکی از جذابترین قابلیتهای Copilot 2.0 اینه که میتونه خیلی سریع کد تولید کنه، وارد کنه و اجرا کنه، اونم فقط با سوالهایی که کاربر ازش میپرسه. این قابلیت باعث میشه کسایی که خیلی برنامهنویسی بلد نیستن هم بتونن با دادهها کار کنن
🔵 علاوه بر این، این ابزار خیلی راحت میتونه نمودارهای حرفهای تولید کنه که با کارهای طراحهای حرفهای برابری میکنه. از فرمولها استفاده میکنه، پیشبینی میکنه و حتی تراکنشهای مالی رو مدیریت میکنه، یعنی دیگه داخل اکسل میتونید حسابداری کامل رو هم انجام بدید.
🔵 بهترین بخش ماجرا اینه که Copilot 2.0 به صورت رایگان توی چند تا از اپلیکیشنهای مایکروسافت مثل اکسل، پاورپوینت، اوتلوک، ورد و واندرایو قابل استفادهست، و باعث میشه ابزارهای پیشرفته تحلیل داده در دسترس خیلیها قرار بگیره.
@Ai_Events
🔺 چند روز پیش، مایکروسافت Copilot 2.0 رو معرفی کرده که یه ابزار هوش مصنوعی پیشرفتهست و حالا بهراحتی با اکسل برای تحلیل دادهها با پایتون یکپارچه شده. این نسخه جدید حسابی بهرهوری رو بالا میبره و باعث میشه کارهای پیچیدهتری رو راحتتر انجام بدیم.
🔵 یکی از جذابترین قابلیتهای Copilot 2.0 اینه که میتونه خیلی سریع کد تولید کنه، وارد کنه و اجرا کنه، اونم فقط با سوالهایی که کاربر ازش میپرسه. این قابلیت باعث میشه کسایی که خیلی برنامهنویسی بلد نیستن هم بتونن با دادهها کار کنن
🔵 علاوه بر این، این ابزار خیلی راحت میتونه نمودارهای حرفهای تولید کنه که با کارهای طراحهای حرفهای برابری میکنه. از فرمولها استفاده میکنه، پیشبینی میکنه و حتی تراکنشهای مالی رو مدیریت میکنه، یعنی دیگه داخل اکسل میتونید حسابداری کامل رو هم انجام بدید.
🔵 بهترین بخش ماجرا اینه که Copilot 2.0 به صورت رایگان توی چند تا از اپلیکیشنهای مایکروسافت مثل اکسل، پاورپوینت، اوتلوک، ورد و واندرایو قابل استفادهست، و باعث میشه ابزارهای پیشرفته تحلیل داده در دسترس خیلیها قرار بگیره.
@Ai_Events
👍14
با سلام و وقت بخیر،
🔸 در روز سهشنبه ساعت ۱۴:۰۰ سخنرانیای در زمینه Computational Social Science با همراهی دکتر محمد لطیفیان برگزار خواهد شد.
اگر علاقهمند هستید و قصد شرکت در این رویداد را دارید، از طریق لینک فرم ثبتنام فرمایید.
@Ai_Events
🔸 در روز سهشنبه ساعت ۱۴:۰۰ سخنرانیای در زمینه Computational Social Science با همراهی دکتر محمد لطیفیان برگزار خواهد شد.
اگر علاقهمند هستید و قصد شرکت در این رویداد را دارید، از طریق لینک فرم ثبتنام فرمایید.
@Ai_Events
🔥1🤡1
print("با من صنما")
for _ in range(100):
print("دل")
print("یک دله کن")
بهینه شدهی کد بالا رو کامنت کنید!
@Ai_Events
🤣16🤡2😁1
Ai Events️
https://sharifml.ir @Ai_Events
زمان و سرفصلهای این کلاس
یکشنبهها و سهشنبهها ساعت ۹ تا ۱۰.۳۰
از ۱ مهر تا ۱۱ دی ۱۴۰۳
سرفصلها:
1. Supervised Learning
1.1 Linear Regression
1.2 Linear Classification and Perceptron
1.3 Logistic Regression
1.4 K-Nearest Neighbors (K-NN)
1.5 Random Forests and Ensemble Methods
2. Unsupervised Learning
2.1. K-Means Clustering
2.2 Principal Component Analysis (PCA)
3. Neural Networks
3.1 MLP and Backpropagation
3.2 Optimization Algorithms
4. Computer Vision
4.1 Convolutional Layers
4.2 CNN Architectures
5. Natural Language Processing
5.1 Word Embeddings
5.2 RNNs and LSTMs
5.3 Transformers and Attention Mechanisms
6. Contrastive Learning
6.1 Overview of Contrastive Learning
6.2 Vision Transformers (ViT) and CLIP
@Ai_Events
یکشنبهها و سهشنبهها ساعت ۹ تا ۱۰.۳۰
از ۱ مهر تا ۱۱ دی ۱۴۰۳
سرفصلها:
1. Supervised Learning
1.1 Linear Regression
1.2 Linear Classification and Perceptron
1.3 Logistic Regression
1.4 K-Nearest Neighbors (K-NN)
1.5 Random Forests and Ensemble Methods
2. Unsupervised Learning
2.1. K-Means Clustering
2.2 Principal Component Analysis (PCA)
3. Neural Networks
3.1 MLP and Backpropagation
3.2 Optimization Algorithms
4. Computer Vision
4.1 Convolutional Layers
4.2 CNN Architectures
5. Natural Language Processing
5.1 Word Embeddings
5.2 RNNs and LSTMs
5.3 Transformers and Attention Mechanisms
6. Contrastive Learning
6.1 Overview of Contrastive Learning
6.2 Vision Transformers (ViT) and CLIP
@Ai_Events
🤡2😭1
Media is too big
VIEW IN TELEGRAM
دو سوم مساجد شهر تهران زیر خیابان آزادی هستند.
تو این موشن تلاش کردم تصویری متفاوت از پراکندگی مساجد شهر تهران را نمایش بدم،نتایج برای خودم جالب بود،البته این موشن شامل بخشی از پردازش داده ها میباشد،مرجع داده های مساجد،مربوط به شهرداری تهران و داده های جمعیت، سرشماری سال ۹۵ مرکز آمار آیران بود.
Reza Zamani
@Ai_Events | Source
تو این موشن تلاش کردم تصویری متفاوت از پراکندگی مساجد شهر تهران را نمایش بدم،نتایج برای خودم جالب بود،البته این موشن شامل بخشی از پردازش داده ها میباشد،مرجع داده های مساجد،مربوط به شهرداری تهران و داده های جمعیت، سرشماری سال ۹۵ مرکز آمار آیران بود.
Reza Zamani
@Ai_Events | Source
👍10🤷♂2👌2🤪2👎1🤡1
دیتاستِ مالتیلینگوال مسیو مولتیتسک لنگویج آندرستندینگ (MMMLU)
😅
شرکت Openai یه دیتاست بسیار ارزشمند منتشر کرده که تو لینک زیر قابل دسترسی هست:
https://huggingface.co/datasets/openai/MMMLU
دیتاست MMMLU یکی از دیتاستهای مناسب برای ارزیابی دانش عمومی مدلهای هوش مصنوعیه. این معیار موضوعات مختلفی رو از ۵۷ دسته پوشش میده، از سطح ابتدایی گرفته تا موضوعات تخصصی پیشرفته مثل حقوق، فیزیک، تاریخ و علوم کامپیوتر.
شرکت openai مجموعه تست MMMLU رو با استفاده از مترجمهای حرفهای به ۱۴ زبان مختلف ترجمه کرده. استفاده از مترجمهای انسانی برای این ارزیابی باعث میشه اعتماد بیشتری به دقت ترجمهها داشته باشیم، مخصوصاً برای زبانهایی که منابع کمی دارن. این شرکت اعلام کرده ترجمههای انسانی حرفهای و کدی که برای اجرای این ارزیابیها استفاده کرده رو منتشر خواهد کرد.
این تلاش نشوندهنده تعهد این شرکت به بهبود تواناییهای چندزبانه مدلهای هوش مصنوعیه تا اطمینان حاصل بشه که این مدلها به درستی توی زبانهای مختلف عمل میکنن، به خصوص برای جوامعی که کمتر نمایندگی میشن. شرکت openai اعلام کرده که با اولویت دادن به ترجمههای باکیفیت، قصد داره فناوری هوش مصنوعی رو برای کاربران در سراسر دنیا فراگیرتر و مؤثرتر کنه.
@Ai_Events
😅
شرکت Openai یه دیتاست بسیار ارزشمند منتشر کرده که تو لینک زیر قابل دسترسی هست:
https://huggingface.co/datasets/openai/MMMLU
دیتاست MMMLU یکی از دیتاستهای مناسب برای ارزیابی دانش عمومی مدلهای هوش مصنوعیه. این معیار موضوعات مختلفی رو از ۵۷ دسته پوشش میده، از سطح ابتدایی گرفته تا موضوعات تخصصی پیشرفته مثل حقوق، فیزیک، تاریخ و علوم کامپیوتر.
شرکت openai مجموعه تست MMMLU رو با استفاده از مترجمهای حرفهای به ۱۴ زبان مختلف ترجمه کرده. استفاده از مترجمهای انسانی برای این ارزیابی باعث میشه اعتماد بیشتری به دقت ترجمهها داشته باشیم، مخصوصاً برای زبانهایی که منابع کمی دارن. این شرکت اعلام کرده ترجمههای انسانی حرفهای و کدی که برای اجرای این ارزیابیها استفاده کرده رو منتشر خواهد کرد.
این تلاش نشوندهنده تعهد این شرکت به بهبود تواناییهای چندزبانه مدلهای هوش مصنوعیه تا اطمینان حاصل بشه که این مدلها به درستی توی زبانهای مختلف عمل میکنن، به خصوص برای جوامعی که کمتر نمایندگی میشن. شرکت openai اعلام کرده که با اولویت دادن به ترجمههای باکیفیت، قصد داره فناوری هوش مصنوعی رو برای کاربران در سراسر دنیا فراگیرتر و مؤثرتر کنه.
@Ai_Events
👌3🤡1
Apple Shared Its First Public AI-Generated Image. It’s Craig Federighi’s Dog
Apple's iOS 18 introduces Image Playground, a new AI feature that generates cartoonlike illustrations based on text prompts. Check out the first-ever example created by Apple's senior VP Craig Federighi for his wife's birthday!
Source | @Ai_Events
Apple's iOS 18 introduces Image Playground, a new AI feature that generates cartoonlike illustrations based on text prompts. Check out the first-ever example created by Apple's senior VP Craig Federighi for his wife's birthday!
Source | @Ai_Events
🤡1
ما در ایران هنوز تکلیفمان با «هوش طبیعی» هم معلوم نیست! چه رسد به «هوش مصنوعی»!
اگر شرایط ایران مانند همه کشورهای دیگر باشد، قاعدتا چند و چون بهرهبرداری از هوشمصنوعی نیز کار سادهای است.
ولی ما در ایران و در مواجهه با هوشمصنوعی، با وضعیتی بسیار متفاوت روبهرو هستیم.
شاید به این دلیل که اولا حکمرانی و جامعه ما، هنوز تکلیفشان را با هوش طبیعی هم روشن نکردهاند و مشخص نیست که مرز آزادی اندیشه و بیان برای نخبگان تا کجاست و تا چه اندازه حق مشارکت و ابراز نظر دارند!
دوم؛ حتی در فاز ابتدایی استفاده از اینترنت و فضای مجازی، مشکلات بسیاری داریم و دسترسی و سرعت، در حد بسیار پایینی است.
شاید بیان همین جمله کفایت کند تا به این جمعبندی اولیه برسیم: تا زمانی که ادراک روشن و مستدلی از مفاهیم مدرنیته و توسعه پیدا نکنیم و معرفتشناسی مشترکی درباره «سنت»، «تجدد» و «خود» نداشته باشیم، در سطوح اولیه بحث رگولاتوری، بر سر ابتداییترین مفاهیم، دچار نزاع و جدل خواهیم شد و «صیانت» به جای «رگولاتوری» قالب خواهد شد!
ما در کشور، با نوعی از حکمرانی طرف هستیم که میخواهد یکتنه به مصاف همه موانع و حتی اسباب و علل برود.
حکمرانی بینیاز از مالیات و برخوردار از موهبت نفت، براساس استقلال مالی، میخواهد برای همه تعیینتکلیف کند.
این رویکرد سخت و توام با اخم و اُرد، با نفس آزادی مرزهای دانش و اطلاعات همخوان نیست. سادهترین نمونه تبعات تلخ این رویکرد، همانا ابزار قفل و فیلترینگ است.
اگر این موضوعات بدیهی روشن نشوند، مبحث غامض هوشمصنوعی نیز تاریک خواهد ماند.
دنیای هوشمصنوعی و داده، سیاست خارجی را نیز درگیر میکند. به خاطر تحریمهای بینالمللی، دسترسی فعالان این عرصه به بسیاری از دادهها، کلیدها و مجموعهها ممکن نیست.
اما حتی اگر این موانع برداشته شوند، مشخص نیست که مرزهای دسترسی کدامند. مانند بسیاری از امور دیگر، در صدور مجوز دسترسی به دادهها، با تبعیض و ویژهخواری و ویژهداری روبهرو هستیم.
مساله این است که دستگاه سیاست و امنیت، در این عرصه دست به تقسیمات خودی و دیگری نزند.
در ایران امروز ما، نهاد دانش، قدرت و جایگاه خاصی ندارد که حتی برای اداره امور خودش تصمیم بگیرد؛ چه رسد به مشارکت در امر مهم سیاستگذاری.
دستگاه مقننه هم یکی از نهادهای مرتبط با رگولاتوری است. سطح مطالب مطرحشده در سخنان نمایندگان مجلس و مواضع آنان، اثبات میکند که متاسفانه دغدغههای نمایندگان، نسبتی با مسائل بنیادین رگولاتوری دانش و هوشمصنوعی ندارد. در پژوهشکدهها و اندیشکدهها نیز چنین وضعیتی داریم.
Source | @Ai_Events
اگر شرایط ایران مانند همه کشورهای دیگر باشد، قاعدتا چند و چون بهرهبرداری از هوشمصنوعی نیز کار سادهای است.
ولی ما در ایران و در مواجهه با هوشمصنوعی، با وضعیتی بسیار متفاوت روبهرو هستیم.
شاید به این دلیل که اولا حکمرانی و جامعه ما، هنوز تکلیفشان را با هوش طبیعی هم روشن نکردهاند و مشخص نیست که مرز آزادی اندیشه و بیان برای نخبگان تا کجاست و تا چه اندازه حق مشارکت و ابراز نظر دارند!
دوم؛ حتی در فاز ابتدایی استفاده از اینترنت و فضای مجازی، مشکلات بسیاری داریم و دسترسی و سرعت، در حد بسیار پایینی است.
شاید بیان همین جمله کفایت کند تا به این جمعبندی اولیه برسیم: تا زمانی که ادراک روشن و مستدلی از مفاهیم مدرنیته و توسعه پیدا نکنیم و معرفتشناسی مشترکی درباره «سنت»، «تجدد» و «خود» نداشته باشیم، در سطوح اولیه بحث رگولاتوری، بر سر ابتداییترین مفاهیم، دچار نزاع و جدل خواهیم شد و «صیانت» به جای «رگولاتوری» قالب خواهد شد!
ما در کشور، با نوعی از حکمرانی طرف هستیم که میخواهد یکتنه به مصاف همه موانع و حتی اسباب و علل برود.
حکمرانی بینیاز از مالیات و برخوردار از موهبت نفت، براساس استقلال مالی، میخواهد برای همه تعیینتکلیف کند.
این رویکرد سخت و توام با اخم و اُرد، با نفس آزادی مرزهای دانش و اطلاعات همخوان نیست. سادهترین نمونه تبعات تلخ این رویکرد، همانا ابزار قفل و فیلترینگ است.
اگر این موضوعات بدیهی روشن نشوند، مبحث غامض هوشمصنوعی نیز تاریک خواهد ماند.
دنیای هوشمصنوعی و داده، سیاست خارجی را نیز درگیر میکند. به خاطر تحریمهای بینالمللی، دسترسی فعالان این عرصه به بسیاری از دادهها، کلیدها و مجموعهها ممکن نیست.
اما حتی اگر این موانع برداشته شوند، مشخص نیست که مرزهای دسترسی کدامند. مانند بسیاری از امور دیگر، در صدور مجوز دسترسی به دادهها، با تبعیض و ویژهخواری و ویژهداری روبهرو هستیم.
مساله این است که دستگاه سیاست و امنیت، در این عرصه دست به تقسیمات خودی و دیگری نزند.
در ایران امروز ما، نهاد دانش، قدرت و جایگاه خاصی ندارد که حتی برای اداره امور خودش تصمیم بگیرد؛ چه رسد به مشارکت در امر مهم سیاستگذاری.
دستگاه مقننه هم یکی از نهادهای مرتبط با رگولاتوری است. سطح مطالب مطرحشده در سخنان نمایندگان مجلس و مواضع آنان، اثبات میکند که متاسفانه دغدغههای نمایندگان، نسبتی با مسائل بنیادین رگولاتوری دانش و هوشمصنوعی ندارد. در پژوهشکدهها و اندیشکدهها نیز چنین وضعیتی داریم.
Source | @Ai_Events
👍21👎5🤡2
مجموعه جلسات «گذر»
عنوان:
"Probabilistic Programming for Machine Learning"
ارائهدهنده:
امیرعباس اسدی
توضیحات:
Bayesian Learning provides a natural framework for approaching Machine Learning problems. For a long time, due to the significant computational cost of Bayesian inference, this framework was limited to simple models and problems with a small amount of data. Probabilistic Programming is the fruit of many years of research in approximate Bayesian inference aiming to address these limitations. This presentation is a friendly introduction to Probabilistic Programming. We will explore how modern inference methods and recent advances in Differentiable Programming can help us unlock the full potential of Bayesian Machine Learning.
پیشنیاز های علمی: آمار و احتمال مقدماتی، آشنایی با Deep Learning
فرم ثبتنام
مهلت ثبتنام : ۱۵ مهر
زمان: چهارشنبه ۱۸ مهر - ساعت ۱۶:۰۰
مکان: به صورت هیبرید - کلاس ۱۰۹ دانشکده ریاضی
@Gozar_SUT
@hamband_sut
@Ai_Events
عنوان:
"Probabilistic Programming for Machine Learning"
ارائهدهنده:
امیرعباس اسدی
توضیحات:
Bayesian Learning provides a natural framework for approaching Machine Learning problems. For a long time, due to the significant computational cost of Bayesian inference, this framework was limited to simple models and problems with a small amount of data. Probabilistic Programming is the fruit of many years of research in approximate Bayesian inference aiming to address these limitations. This presentation is a friendly introduction to Probabilistic Programming. We will explore how modern inference methods and recent advances in Differentiable Programming can help us unlock the full potential of Bayesian Machine Learning.
پیشنیاز های علمی: آمار و احتمال مقدماتی، آشنایی با Deep Learning
فرم ثبتنام
مهلت ثبتنام : ۱۵ مهر
زمان: چهارشنبه ۱۸ مهر - ساعت ۱۶:۰۰
مکان: به صورت هیبرید - کلاس ۱۰۹ دانشکده ریاضی
@Gozar_SUT
@hamband_sut
@Ai_Events
👍3🤡2
در یک سیستم RAG، ما سوال رو از کاربر میگیریم و به وکتور دیتابیس ارسال میکنیم تا رکوردهای مربوط به اون رو بازیابی کنیم.
در کل وکتوردیتابیس ما یک معیار مشابهت (مثلا cousin similarity) محاسبه میکنه و بر اساس اون خروجی رو برمیگردونه.
تا اینجا ما یک سری رکورد رو تونستیم بازیابی کنیم که بیشترین تشابه رو با وکتور سوال کاربر دارند!
حالا مشکل چیه؟ مشکل اینه که شاید دیتابیس صد هزار رکورد مشابه رو از بین میلیونها رکورد برگردونه، کدوم top k رکورد رو باید بدیم LLM تا برامون خروجی رو تولید کنه؟
تو پست بعد سعی میکنم جواب این سوال رو براتون توضیح بدم.
بخوانید: RAG چیست؟
بخوانید: LLM چیست؟
اصلاح: جواب پرسش را در این پست مطالعه کنید.
@Ai_Events
در کل وکتوردیتابیس ما یک معیار مشابهت (مثلا cousin similarity) محاسبه میکنه و بر اساس اون خروجی رو برمیگردونه.
تا اینجا ما یک سری رکورد رو تونستیم بازیابی کنیم که بیشترین تشابه رو با وکتور سوال کاربر دارند!
حالا مشکل چیه؟ مشکل اینه که شاید دیتابیس صد هزار رکورد مشابه رو از بین میلیونها رکورد برگردونه، کدوم top k رکورد رو باید بدیم LLM تا برامون خروجی رو تولید کنه؟
تو پست بعد سعی میکنم جواب این سوال رو براتون توضیح بدم.
بخوانید: RAG چیست؟
بخوانید: LLM چیست؟
اصلاح: جواب پرسش را در این پست مطالعه کنید.
@Ai_Events
❤6👍2🔥1🤡1
Ai Events️
در یک سیستم RAG، ما سوال رو از کاربر میگیریم و به وکتور دیتابیس ارسال میکنیم تا رکوردهای مربوط به اون رو بازیابی کنیم. در کل وکتوردیتابیس ما یک معیار مشابهت (مثلا cousin similarity) محاسبه میکنه و بر اساس اون خروجی رو برمیگردونه. تا اینجا ما یک سری…
موردی که دوستان مطرح کردند اینه که ما بیایم کل رکوردهایی که از دیتابیس برگردوندیم رو بفرستیم تا مدل LLM خودش تصمیم بگیره از کدوم استفاده کنه، این کار به دو دلیل فنی قابل انجام نیست:
ااول اینکه ما محدودیت در ورود محتوی به مدل (LLM Context Limitation) داریم. معمولا مدلها با محدودیت ورودی مواجه هستند، در حالت معمول تعداد ورودی مدل حدود 2048 توکن هست
مشکل دوم هم تاثیر منفی در LLM Recall Performance هست، به این معنی که اگر تعداد ورودی مدل رو بیشتر کنیم، باعث تاثیر منفی در توانایی بازیابی اطلاعات توسط مدل میشه.
عبارت LLM Recall به معنای توانایی مدل در بازیابی اطلاعات هست.
این دو اشکال رو میتونید به صورت جزییتر در مقاله زیر مطالعه کنید.
https://arxiv.org/pdf/2307.03172.pdf
@Ai_Events
ااول اینکه ما محدودیت در ورود محتوی به مدل (LLM Context Limitation) داریم. معمولا مدلها با محدودیت ورودی مواجه هستند، در حالت معمول تعداد ورودی مدل حدود 2048 توکن هست
مشکل دوم هم تاثیر منفی در LLM Recall Performance هست، به این معنی که اگر تعداد ورودی مدل رو بیشتر کنیم، باعث تاثیر منفی در توانایی بازیابی اطلاعات توسط مدل میشه.
عبارت LLM Recall به معنای توانایی مدل در بازیابی اطلاعات هست.
این دو اشکال رو میتونید به صورت جزییتر در مقاله زیر مطالعه کنید.
https://arxiv.org/pdf/2307.03172.pdf
@Ai_Events
👌2❤1👍1🤡1
Ai Events️
در یک سیستم RAG، ما سوال رو از کاربر میگیریم و به وکتور دیتابیس ارسال میکنیم تا رکوردهای مربوط به اون رو بازیابی کنیم. در کل وکتوردیتابیس ما یک معیار مشابهت (مثلا cousin similarity) محاسبه میکنه و بر اساس اون خروجی رو برمیگردونه. تا اینجا ما یک سری…
.
برای رفع مشکل مطرح شده در این پست، یک مرحله پس از بازیابی وکتورها از دیتابیس اضافه میکنیم که به آن رنکینگ مجدد (re-ranking) میگویند.
الگوریتم رنکینگ مجدد، نوعی مدل است که برای هر جفت سوال و سند، یک نمره انطباق محاسبه میکند. این نمره میتواند برای مرتبسازی نتایج جستجوی وکتور استفاده شود و اطمینان حاصل کند که نتایج مرتبطتر در بالای لیست قرار میگیرند.
به طور خلاصه، گام اولیه شامل بازیابی وکتورهای مرتبط با سوال کاربر از وکتور دیتابیس است. پس از به دست آوردن این اسناد مرتبط، رنکینگ مجدد اعمال میشود تا بهترین و مرتبطترین نتایج در صدر لیست قرار بگیرند. این اسناد ردهبالا که با سوال کاربر بیشترین همخوانی را دارند، سپس به LLM ارسال میشوند تا دقت و صحت نتایج را بهبود ببخشند.
در نظر داشته باشید که که مدلهای رنکر معمولاً کند هستند، به همین دلیل، این مدلها در مرحله اولیه جستجوی وکتورهای مشابه با سوال کاربر، استفاده نمیشه.
استفاده از این الگوریتم شما رو در برابر trade-off سرعت-کیفیت قرار میده.
تو پستهای بعدی کانال، به تفصیل درباره روشهای مختلف رنکینگ مجدد و تأثیر آن بر کارایی سیستم میپردازم.
@Ai_Events
برای رفع مشکل مطرح شده در این پست، یک مرحله پس از بازیابی وکتورها از دیتابیس اضافه میکنیم که به آن رنکینگ مجدد (re-ranking) میگویند.
الگوریتم رنکینگ مجدد، نوعی مدل است که برای هر جفت سوال و سند، یک نمره انطباق محاسبه میکند. این نمره میتواند برای مرتبسازی نتایج جستجوی وکتور استفاده شود و اطمینان حاصل کند که نتایج مرتبطتر در بالای لیست قرار میگیرند.
به طور خلاصه، گام اولیه شامل بازیابی وکتورهای مرتبط با سوال کاربر از وکتور دیتابیس است. پس از به دست آوردن این اسناد مرتبط، رنکینگ مجدد اعمال میشود تا بهترین و مرتبطترین نتایج در صدر لیست قرار بگیرند. این اسناد ردهبالا که با سوال کاربر بیشترین همخوانی را دارند، سپس به LLM ارسال میشوند تا دقت و صحت نتایج را بهبود ببخشند.
در نظر داشته باشید که که مدلهای رنکر معمولاً کند هستند، به همین دلیل، این مدلها در مرحله اولیه جستجوی وکتورهای مشابه با سوال کاربر، استفاده نمیشه.
استفاده از این الگوریتم شما رو در برابر trade-off سرعت-کیفیت قرار میده.
تو پستهای بعدی کانال، به تفصیل درباره روشهای مختلف رنکینگ مجدد و تأثیر آن بر کارایی سیستم میپردازم.
@Ai_Events
Telegram
Ai Events️
در یک سیستم RAG، ما سوال رو از کاربر میگیریم و به وکتور دیتابیس ارسال میکنیم تا رکوردهای مربوط به اون رو بازیابی کنیم.
در کل وکتوردیتابیس ما یک معیار مشابهت (مثلا cousin similarity) محاسبه میکنه و بر اساس اون خروجی رو برمیگردونه.
تا اینجا ما یک سری…
در کل وکتوردیتابیس ما یک معیار مشابهت (مثلا cousin similarity) محاسبه میکنه و بر اساس اون خروجی رو برمیگردونه.
تا اینجا ما یک سری…
👌4👍1🤡1
Amazon partners with Anthropic to enhance Alexa
Amazon is set to launch a revamped version of its Alexa voice assistant, powered by Anthropic's Claude AI models. The update will offer advanced generative AI to handle complex queries and is expected to be available this October.
Source | @Ai_Events
Amazon is set to launch a revamped version of its Alexa voice assistant, powered by Anthropic's Claude AI models. The update will offer advanced generative AI to handle complex queries and is expected to be available this October.
Source | @Ai_Events
👍3🤡1