This media is not supported in your browser
VIEW IN TELEGRAM
داخل شبکه CNN چه اتفاقی میوفته؟
از بهترین نمایش های مدل #CNN که جزئیات #شبکه_عصبی رو به خوبی نشون میده.
شاید الان شبکه CNN، به نظر برسه ایدهش قدیمیه. اما تو این ویدیو میبینیم که چقدر تکنولوژی خفنی هست و ویژن خوبی به دنیای امروز داده!
ترکیبش با یک آهنگ کلاسیک :)
@silicon_brain | از هوش مصنوعی عقب نمانید
از بهترین نمایش های مدل #CNN که جزئیات #شبکه_عصبی رو به خوبی نشون میده.
شاید الان شبکه CNN، به نظر برسه ایدهش قدیمیه. اما تو این ویدیو میبینیم که چقدر تکنولوژی خفنی هست و ویژن خوبی به دنیای امروز داده!
ترکیبش با یک آهنگ کلاسیک :)
@silicon_brain | از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
مدلهای زبانی قدرتمند که اخیرا منتشر شدن حتما اطلاع دارین که هفته پیش مدل GPT-4o معرفی شد و عملکرد فوق العادهی این مدل موضوع بحث خیلی جاها بود (میتونین به این مدل از طریق داشبود openai دسترسی داشته باشین. چند ریکوئست اولش رایگانه) اما در ادامه چندتا از مدلهای…
آپدیتی از مدلهای زبانی اخیر
تو پست ریپلای شده در مورد #LLM های مطرح و کاربرداشون صحبت کردیم. حالا یه مدل جدید به اسم Qwen2# منتشر شده که به نظر عملکرد خوبی داره...
اما چندتا نکته قابل توجه داره این مدل:
1- عملکرد بهتر از Llama3
2- سایز بزرگتر برای Context-length
3- انتشار مدل در ۵ سایز از 0.5B تا 72B پارامتر
4- و البته از همه مهمتر پشتیبانی از 29 زبان
اما چیزی که بسیار توجه جلب میکنه؛ امتیازش روی تست MMLU-Pro هست:
#ChatGpt4o : 72.2
#Claude 3 Opus : 68.4
#Qwen2 : 64.4
#Llama3 : 56.2
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
تو پست ریپلای شده در مورد #LLM های مطرح و کاربرداشون صحبت کردیم. حالا یه مدل جدید به اسم Qwen2# منتشر شده که به نظر عملکرد خوبی داره...
اما چندتا نکته قابل توجه داره این مدل:
1- عملکرد بهتر از Llama3
2- سایز بزرگتر برای Context-length
3- انتشار مدل در ۵ سایز از 0.5B تا 72B پارامتر
4- و البته از همه مهمتر پشتیبانی از 29 زبان
اما چیزی که بسیار توجه جلب میکنه؛ امتیازش روی تست MMLU-Pro هست:
#ChatGpt4o : 72.2
#Claude 3 Opus : 68.4
#Qwen2 : 64.4
#Llama3 : 56.2
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
پکیج پایتون برای تبدیل pdf به word فارسی
این پکیج از Tesseract OCR برای تشخیص متن در فایل های PDF استفاده میکنه...
گیتهاب | pypi
@silicon_brain | از هوش مصنوعی عقب نمانید
این پکیج از Tesseract OCR برای تشخیص متن در فایل های PDF استفاده میکنه...
گیتهاب | pypi
@silicon_brain | از هوش مصنوعی عقب نمانید
مدل Vision-Language مایکروسافت بنام Florence-2
- خیلی سَبُکه. خبری از بیلیون پارامتر نیست
- یک شبکه همه کاره هست؛ یعنی، دیتکشن، سگمنتیش و غیره
- یک دیتاست هیولا برای آموزش مدل ساخته شده!
محققها میخواستن یه مدلی بسازن که بتونه از عهده تسکهای متنوع ویژن مثل دیتکشن، سگمنتیشن، کپشنینگ و غیره بربیاد.
خب، دو مقوله اینجا مطرح میشه؛ یکی معماری شبکه و دیگری دیتاست آموزش. معماری شبکه نکته جدیدی نداره. شبیه سایر VLM-های امروزیه. دو نسخه مدل Base با 230 و Large با 770 میلیون پارامتر معرفی شده.
اما دیتاستی بنام FLD-5B ساختن که شامل 126 میلیون تصویر با 5 بیلیووون Annotation هست! اصل ایده مقاله همین بخش ساخت دیتاست هست. در مقاله، پایپلاین ساخت دیتاست رو در بخش Data Engine توضیح دادن.
یکسری تصویر از خروجی مدل Large براتون گذاشتیم که نگاه کنید؛ عجب دنیایی شده! دیگه یه مدل مخصوص دیتکشن یا سگمنتیشن بای بای...
مقاله | نوتبوک کولب | هاگینگ فیس
@silicon_brain I از هوش مصنوعی عقب نمانید
- خیلی سَبُکه. خبری از بیلیون پارامتر نیست
- یک شبکه همه کاره هست؛ یعنی، دیتکشن، سگمنتیش و غیره
- یک دیتاست هیولا برای آموزش مدل ساخته شده!
محققها میخواستن یه مدلی بسازن که بتونه از عهده تسکهای متنوع ویژن مثل دیتکشن، سگمنتیشن، کپشنینگ و غیره بربیاد.
خب، دو مقوله اینجا مطرح میشه؛ یکی معماری شبکه و دیگری دیتاست آموزش. معماری شبکه نکته جدیدی نداره. شبیه سایر VLM-های امروزیه. دو نسخه مدل Base با 230 و Large با 770 میلیون پارامتر معرفی شده.
اما دیتاستی بنام FLD-5B ساختن که شامل 126 میلیون تصویر با 5 بیلیووون Annotation هست! اصل ایده مقاله همین بخش ساخت دیتاست هست. در مقاله، پایپلاین ساخت دیتاست رو در بخش Data Engine توضیح دادن.
یکسری تصویر از خروجی مدل Large براتون گذاشتیم که نگاه کنید؛ عجب دنیایی شده! دیگه یه مدل مخصوص دیتکشن یا سگمنتیشن بای بای...
مقاله | نوتبوک کولب | هاگینگ فیس
@silicon_brain I از هوش مصنوعی عقب نمانید
مدل جدید Depth Anything برای تشخیص عمق
ورژن جدید این مدل که به تازگی منتشر شده در مقایسه با نسخه 1 (depth anything) پیشبینیهای عمقی بسیار دقیقتر و ظریفتری ارائه میده.
در مقایسه با مدلهای اخیر که مبتنی بر Stable #Diffusion ها بودن، Depth Anything 2 بسیار کارآمدتر (بیش از 10 برابر سریعتر) و دقیقتره. علاوه بر این، امکان اجرا در مقیاسهای مختلف (از 25 میلیون تا 1.3 میلیارد پارامتر) رو فراهم میکنه.
این مدل کلا با تصاویر ساختگی ترین شده و روش آموزش این نسخه با مدل MDE (monocular depth estimation ) قبلی که بر اساس مدل DINOv2 بود متفاوت هست. در روش قبلی مدل ابتدا فقط با تصاویر مصنوعی با کیفیت بالا آموزش داده میشد و بعدش به تصاویر واقعی بدون لیبل، برچسبهای با عمق مصنوعی اختصاص میداد. در نهایت، مدلهای جدید نسخه دوم بهطور کامل با تصاویر برچسبگذاری شده مصنوعی با دقت بالا آموزش داده میشن.
مقاله | هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
ورژن جدید این مدل که به تازگی منتشر شده در مقایسه با نسخه 1 (depth anything) پیشبینیهای عمقی بسیار دقیقتر و ظریفتری ارائه میده.
در مقایسه با مدلهای اخیر که مبتنی بر Stable #Diffusion ها بودن، Depth Anything 2 بسیار کارآمدتر (بیش از 10 برابر سریعتر) و دقیقتره. علاوه بر این، امکان اجرا در مقیاسهای مختلف (از 25 میلیون تا 1.3 میلیارد پارامتر) رو فراهم میکنه.
این مدل کلا با تصاویر ساختگی ترین شده و روش آموزش این نسخه با مدل MDE (monocular depth estimation ) قبلی که بر اساس مدل DINOv2 بود متفاوت هست. در روش قبلی مدل ابتدا فقط با تصاویر مصنوعی با کیفیت بالا آموزش داده میشد و بعدش به تصاویر واقعی بدون لیبل، برچسبهای با عمق مصنوعی اختصاص میداد. در نهایت، مدلهای جدید نسخه دوم بهطور کامل با تصاویر برچسبگذاری شده مصنوعی با دقت بالا آموزش داده میشن.
مقاله | هاگینگ فیس
@silicon_brain | از هوش مصنوعی عقب نمانید
Silicon Brain | جامعه هوش مصنوعی
آپدیتی از مدلهای زبانی اخیر تو پست ریپلای شده در مورد #LLM های مطرح و کاربرداشون صحبت کردیم. حالا یه مدل جدید به اسم Qwen2# منتشر شده که به نظر عملکرد خوبی داره... اما چندتا نکته قابل توجه داره این مدل: 1- عملکرد بهتر از Llama3 2- سایز بزرگتر برای Context…
در ادامه بازار شلوغ مدل های زبانی در مورد اخرین نسخه Sonnet بدونیم
چند وقت پیش شرکت #Anthropic از نسخه 3.5 هوش مصنوعی #Sonnet رونمایی کرد.
این نسخه به عنوان مدل میانی شرکت معرفی شده و به قدری بهبود یافته که نه تنها از GPT-4o قویتره بلکه حتی از مدل پولی خود شرکت، یعنی #Opus، هم دقت بالاتری داره!
با این بهروزرسانی، کاربران میتونن از یک مدل رایگان با کارایی بسیار بالاتر بهرهمند بشن.
claude.ai
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
چند وقت پیش شرکت #Anthropic از نسخه 3.5 هوش مصنوعی #Sonnet رونمایی کرد.
این نسخه به عنوان مدل میانی شرکت معرفی شده و به قدری بهبود یافته که نه تنها از GPT-4o قویتره بلکه حتی از مدل پولی خود شرکت، یعنی #Opus، هم دقت بالاتری داره!
با این بهروزرسانی، کاربران میتونن از یک مدل رایگان با کارایی بسیار بالاتر بهرهمند بشن.
claude.ai
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
تکنیک های پرامپت نویسی
A Systematic Survey of Prompting Techniques
راه تعامل و ارتباط با سیستم های جنریتور مثل #LLM ها برای کاربرها و دولوپرها از طریق #پرامپت و #prompt_engineering هست. با وجود این که prompting مفهومی گسترده است و به شدت مورد تحقیق قرار گرفته، اما به دلیل تازگی این حوزه، اصطلاحات متناقض و درک ضعیفی از آنچه که یک پرامپت را تشکیل میده، وجود داره.
حالا محقق های کلی دانشگاه و کمپانی از جمله #Stanford و #OpenAI و #Microsoft اومدن و یک مقاله ۷۶ صفحه ای از ۵۸ تکنیک برای پرامپت نوشتن متنی و ۴۰ تکنیک برای modality های دیگه دادن که با فاصله بهترین منبع برای یادگیری نوشتن پرامپت به حساب میاد. از خوندنش لذت میبرید.
این تکنینکها زبانهای دیگه را هم شامل میشه(multilingual).با نگاه به سرفصلهای این کتابچه خودتون دستتون میاد. حالا این یک طرف، و از طرف دیگه، یک لایبرری اومده که همه این ۵۸ تا تکنیک را پیاده سازی کرده. فقط کافیه تکنیکی که میخواهید را روی پرامپتتون اجرا کنید تا پرامپت با کیفیت بگیرید.
مقاله | گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
A Systematic Survey of Prompting Techniques
راه تعامل و ارتباط با سیستم های جنریتور مثل #LLM ها برای کاربرها و دولوپرها از طریق #پرامپت و #prompt_engineering هست. با وجود این که prompting مفهومی گسترده است و به شدت مورد تحقیق قرار گرفته، اما به دلیل تازگی این حوزه، اصطلاحات متناقض و درک ضعیفی از آنچه که یک پرامپت را تشکیل میده، وجود داره.
حالا محقق های کلی دانشگاه و کمپانی از جمله #Stanford و #OpenAI و #Microsoft اومدن و یک مقاله ۷۶ صفحه ای از ۵۸ تکنیک برای پرامپت نوشتن متنی و ۴۰ تکنیک برای modality های دیگه دادن که با فاصله بهترین منبع برای یادگیری نوشتن پرامپت به حساب میاد. از خوندنش لذت میبرید.
این تکنینکها زبانهای دیگه را هم شامل میشه(multilingual).با نگاه به سرفصلهای این کتابچه خودتون دستتون میاد. حالا این یک طرف، و از طرف دیگه، یک لایبرری اومده که همه این ۵۸ تا تکنیک را پیاده سازی کرده. فقط کافیه تکنیکی که میخواهید را روی پرامپتتون اجرا کنید تا پرامپت با کیفیت بگیرید.
مقاله | گیتهاب
@silicon_brain | از هوش مصنوعی عقب نمانید
فاین تیون مدلهای Mistral با درصدی کمی از وزنهای متغیر
خب Mistral-finetune منتشر شد، یه کدبیس سبکوزن که امکان fine-tuning مدلهای #Mistral رو فراهم میکنه. این مبتنی بر #LoRA هست، یه الگوی آموزشی که در اون بیشتر وزنها ثابت هستن و فقط ۱ تا ۲ درصد وزنهای اضافی به شکل اختلالات ماتریسی با رتبه پایین آموزش داده میشن.
از اون کارایی هست که سختافزار زیاد لازم داره، بعضی از کاربرا میان مثلا با چند تا 3090 انجامش میدن
(البته با این رشد سرویسهای کلاد AI نیاز نیست حتما تجهیزات خرید).
گیتهاب
@silicon_brain I از هوش مصنوعی عقب نمانید
خب Mistral-finetune منتشر شد، یه کدبیس سبکوزن که امکان fine-tuning مدلهای #Mistral رو فراهم میکنه. این مبتنی بر #LoRA هست، یه الگوی آموزشی که در اون بیشتر وزنها ثابت هستن و فقط ۱ تا ۲ درصد وزنهای اضافی به شکل اختلالات ماتریسی با رتبه پایین آموزش داده میشن.
از اون کارایی هست که سختافزار زیاد لازم داره، بعضی از کاربرا میان مثلا با چند تا 3090 انجامش میدن
(البته با این رشد سرویسهای کلاد AI نیاز نیست حتما تجهیزات خرید).
گیتهاب
@silicon_brain I از هوش مصنوعی عقب نمانید
عملکرد هر یک از مدل های تولید تصویر
تو این ریپو خروجی هر یک از این مدل ها رو برای تسک Text-to-Image نشون داده
@silicon_brain | از هوش مصنوعی عقب نمانید
تو این ریپو خروجی هر یک از این مدل ها رو برای تسک Text-to-Image نشون داده
@silicon_brain | از هوش مصنوعی عقب نمانید
از OpenAI و ChatGPT چه خبرهای جدیدی داریم؟
همکاری با Dotdash Meredith
شرکت OpenAI با Dotdash Meredith، ناشر مجله People، قراردادی امضا کرده که به OpenAI اجازه میده از محتوای نشریات این شرکت برای آموزش مدلهای هوش مصنوعیاش استفاده کنه.
همچنین، Dotdash Meredith میتونه از این مدلها برای اهداف تبلیغاتی استفاده کنه.
این همکاری شامل ایجاد ویژگیهای جدید برای خوانندگانه و به افزایش تعاملات بین ناشر و پلتفرمهای هوش مصنوعی منجر میشه.
همکاری با Stack Overflow
شرکت OpenAI با امضای قراردادی با پلتفرم Stack Overflow، به API این پلتفرم و بازخوردهای توسعهدهندگان دست پیدا کرده.
در نتیجه در صورتی که کاربران سوالات فنی یا مربوط به کدنویسی داشته باشن، پاسخهای دقیقتر و کاملتری دریافت میکنن.
به زودی احتمالاً موتور جستجو ChatGPT رو خواهیم داشت!
احتمالاً OpenAI موتور جستجوی ChatGPT رو معرفی میکنه. سم آلتمن، مدیرعامل OpenAI، گفته که ChatGPT میتونه آینده جستجو باشه و قصد داره با ارائه پاسخهای دقیقتر نسبت به گوگل، تجربه جستجوی کاربران رو بهبود ببخشه.
موتور جستجوی ChatGPT از ترکیب جستجوی سنتی و قابلیتهای چتبات هوش مصنوعی برای ارائه پاسخهای بهینه استفاده خواهد کرد.
اما سوال مهم اینکه پردازش با استفاده از هوش مصنوعی بسیار گرونتر از روشهای الگوریتمی گوگله و OpenAI چطور میخواد این هزینه رو مدیریت کنه؟
#openai #chatgpt
@silicon_brain I از هوش مصنوعی عقب نمانید
همکاری با Dotdash Meredith
شرکت OpenAI با Dotdash Meredith، ناشر مجله People، قراردادی امضا کرده که به OpenAI اجازه میده از محتوای نشریات این شرکت برای آموزش مدلهای هوش مصنوعیاش استفاده کنه.
همچنین، Dotdash Meredith میتونه از این مدلها برای اهداف تبلیغاتی استفاده کنه.
این همکاری شامل ایجاد ویژگیهای جدید برای خوانندگانه و به افزایش تعاملات بین ناشر و پلتفرمهای هوش مصنوعی منجر میشه.
همکاری با Stack Overflow
شرکت OpenAI با امضای قراردادی با پلتفرم Stack Overflow، به API این پلتفرم و بازخوردهای توسعهدهندگان دست پیدا کرده.
در نتیجه در صورتی که کاربران سوالات فنی یا مربوط به کدنویسی داشته باشن، پاسخهای دقیقتر و کاملتری دریافت میکنن.
به زودی احتمالاً موتور جستجو ChatGPT رو خواهیم داشت!
احتمالاً OpenAI موتور جستجوی ChatGPT رو معرفی میکنه. سم آلتمن، مدیرعامل OpenAI، گفته که ChatGPT میتونه آینده جستجو باشه و قصد داره با ارائه پاسخهای دقیقتر نسبت به گوگل، تجربه جستجوی کاربران رو بهبود ببخشه.
موتور جستجوی ChatGPT از ترکیب جستجوی سنتی و قابلیتهای چتبات هوش مصنوعی برای ارائه پاسخهای بهینه استفاده خواهد کرد.
اما سوال مهم اینکه پردازش با استفاده از هوش مصنوعی بسیار گرونتر از روشهای الگوریتمی گوگله و OpenAI چطور میخواد این هزینه رو مدیریت کنه؟
#openai #chatgpt
@silicon_brain I از هوش مصنوعی عقب نمانید
به نطرت ارتباط بین مدل های LLM و AGI به چه شکل میتونه باشه؟
Anonymous Poll
19%
برای رسیدن به AGI باید از مدل LLM استفاده کرد
13%
مدل های LLM ضعف بنیادی دارن و برای رسیدن به AGI باید کنار گذاشته بشن
35%
برای رسیدن به AGI باید مدل های LLM تغییر اساسی بکنن
32%
نَمیدانم!
Silicon Brain | جامعه هوش مصنوعی
به نطرت ارتباط بین مدل های LLM و AGI به چه شکل میتونه باشه؟
تو این پست اینستاگرام، در مورد ارتباط #LLM و #AGI و جایگاه و آینده هر کدوم توضیح دادیم.
حتما بخون و حمایت کن ❤️
https://www.instagram.com/p/C9sHe4xilz1/?igsh=d2duYnFvNXNqZzJo
حتما بخون و حمایت کن ❤️
https://www.instagram.com/p/C9sHe4xilz1/?igsh=d2duYnFvNXNqZzJo
@silicon_brain - Python for ML from Basics to Advanced.pdf
5.4 MB
جزوه جامع یادگیری ماشین با پایتون
این جزوه در قالب notebook آماده شده و برای افرادی که میخوان وارد این حوزه بشن توصیه میشه
(برای منابع بیشتر رو #cheatsheet بزنید)
@silicon_brain | از هوش مصنوعی عقب نمانید
این جزوه در قالب notebook آماده شده و برای افرادی که میخوان وارد این حوزه بشن توصیه میشه
(برای منابع بیشتر رو #cheatsheet بزنید)
@silicon_brain | از هوش مصنوعی عقب نمانید
data-cleaning.pdf
2.1 MB
راهنمایی برای پاکسازی دادهها در یادگیری ماشین
پاکسازی داده (#data_cleaning) مرحله ی اساسی در فرآیند آمادهسازی داده در یادگیری ماشینه...
چرا؟ چون این نتایج رو داره:
- بهبود دقت مدلها
- افزایش کیفیت دادهها
-- پیشگیری از بیشبرازش (Overfitting):
- کاهش پیچیدگی مدل
- کاهش هزینههای محاسباتی
- بهبود تفسیرپذیری مدل
تو این داکیومنت، مباحث پایه ای پاکسازی داده مطرح شده
@silicon_brain | از هوش مصنوعی عقب نمانید
پاکسازی داده (#data_cleaning) مرحله ی اساسی در فرآیند آمادهسازی داده در یادگیری ماشینه...
چرا؟ چون این نتایج رو داره:
- بهبود دقت مدلها
- افزایش کیفیت دادهها
-- پیشگیری از بیشبرازش (Overfitting):
- کاهش پیچیدگی مدل
- کاهش هزینههای محاسباتی
- بهبود تفسیرپذیری مدل
تو این داکیومنت، مباحث پایه ای پاکسازی داده مطرح شده
@silicon_brain | از هوش مصنوعی عقب نمانید
اصطلاحات اولیه و مهم LLM که باید بدونی
مدل پایه (Foundation Model): طراحی شده برای تولید و فهم متنهای انسانی
ترانسفورمر (#Transformer): یک معماری حوزه متن، شناخته شده به خاطر مکانیزم توجه (#Attention_mechanism) و توانایی پردازش موازی
پرامپت(#Prompt): ارائه ورودیهای دقیق به LLM برای تولید خروجی
طول کانتکست (#Context_Length): حداکثر تعداد کلمات قابل پردازش.
آموزش چند-مثاله (#Few_Shot ): ارائه تعداد کم نمونه برای انجام وظیفه خاصی
آموزش بدون مثال ( #Zero_Shot): ارائه دستورالعملهای وظیفه بدون نمونه
رگ #RAG (تولید تقویت شده با بازیابی): استفاده از اطلاعات بازیابی شده برای بهبود پاسخها
پایه دانش (#knowledge_base): مجموعه از اسناد که در پاسخ RAG استفاده میشه
تنظیم دقیق (#Fine_Tuning): تطبیق LLM به وظیفه خاص با آموزش بیشتر
توهم (#Hallucination): تمایل به تولید اطلاعات نادرست.
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
مدل پایه (Foundation Model): طراحی شده برای تولید و فهم متنهای انسانی
ترانسفورمر (#Transformer): یک معماری حوزه متن، شناخته شده به خاطر مکانیزم توجه (#Attention_mechanism) و توانایی پردازش موازی
پرامپت(#Prompt): ارائه ورودیهای دقیق به LLM برای تولید خروجی
طول کانتکست (#Context_Length): حداکثر تعداد کلمات قابل پردازش.
آموزش چند-مثاله (#Few_Shot ): ارائه تعداد کم نمونه برای انجام وظیفه خاصی
آموزش بدون مثال ( #Zero_Shot): ارائه دستورالعملهای وظیفه بدون نمونه
رگ #RAG (تولید تقویت شده با بازیابی): استفاده از اطلاعات بازیابی شده برای بهبود پاسخها
پایه دانش (#knowledge_base): مجموعه از اسناد که در پاسخ RAG استفاده میشه
تنظیم دقیق (#Fine_Tuning): تطبیق LLM به وظیفه خاص با آموزش بیشتر
توهم (#Hallucination): تمایل به تولید اطلاعات نادرست.
#LLM
@silicon_brain | از هوش مصنوعی عقب نمانید
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت OpenAI و معرفی موتور جستجو هوشمند
بعد از معرفی #SearchGPT سهام شرکت الفابت (گوگل) سقوط کرد.
https://openai.com/index/searchgpt-prototype/
نظرت در مورد این تغییرات چیه؟
(جزئیات فنی بزودی پست میشه)
@silicon_brain | از هوش مصنوعی عقب نمانید
بعد از معرفی #SearchGPT سهام شرکت الفابت (گوگل) سقوط کرد.
https://openai.com/index/searchgpt-prototype/
نظرت در مورد این تغییرات چیه؟
(جزئیات فنی بزودی پست میشه)
@silicon_brain | از هوش مصنوعی عقب نمانید