Please open Telegram to view this post
VIEW IN TELEGRAM
یه AI خفن برای اونایی که کارای تکراری و روتین انجام میدن
پلتفرم AskUI برای اتوماسیون تصویریه که مستقیم با اجزای روی صفحه توی اپلیکیشنها، سیستمعاملها و برنامههای نیتیو کار میکنه.
در واقع کارهای تکراری رو کم میکنه و فرآیندهای کاری رو راحتتر اتومات میکنه. میتونی کارهای مختلف رو توی پلتفرمهای مختلف اتومات کنی و خودت بری پی عشق و حال 😁
- پشتیبانی از چند پلتفرم: ویندوز، مک، لینوکس و اندروید
- قابلیتهای متنوع: تست رابط کاربری، کارهای دسکتاپ، فرآیندهای موبایل و پردازش داده
- پشتیبانی از چند صفحه نمایش: برای تنظیمات پیچیده
- ورودی دقیق یونیکد: برای وارد کردن متن با دقت بالا
- محلیسازی دقیق متن و عناصر: برای اتوماسیون تصویری
از قسمت فنی کار اطلاعات خاصی در دسترس نیست ولی تا جایی که فهمیدم از مدلهایی مثل PTA-1 یا Claude Sonnet 3.5 توش استفاده شده
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
پلتفرم AskUI برای اتوماسیون تصویریه که مستقیم با اجزای روی صفحه توی اپلیکیشنها، سیستمعاملها و برنامههای نیتیو کار میکنه.
در واقع کارهای تکراری رو کم میکنه و فرآیندهای کاری رو راحتتر اتومات میکنه. میتونی کارهای مختلف رو توی پلتفرمهای مختلف اتومات کنی و خودت بری پی عشق و حال 😁
- پشتیبانی از چند پلتفرم: ویندوز، مک، لینوکس و اندروید
- قابلیتهای متنوع: تست رابط کاربری، کارهای دسکتاپ، فرآیندهای موبایل و پردازش داده
- پشتیبانی از چند صفحه نمایش: برای تنظیمات پیچیده
- ورودی دقیق یونیکد: برای وارد کردن متن با دقت بالا
- محلیسازی دقیق متن و عناصر: برای اتوماسیون تصویری
از قسمت فنی کار اطلاعات خاصی در دسترس نیست ولی تا جایی که فهمیدم از مدلهایی مثل PTA-1 یا Claude Sonnet 3.5 توش استفاده شده
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
اگه ترنسفورمر مثل یک حافظه کوتاه مدت عمل میکنه، چطوری به حافظه بلند مدت ماشینی میشه رسید؟
محقق ها سالهاست که به دنبال راههایی برای بهبود مدلهای زبانی هستن. رویکردهای مختلفی برای برخورداری از حافظه قوی وجود داره. مثلا مدلهای بازگشتی (
از طرف دیگه، مکانیزم توجه (
برای حل این مشکل، محققان یک ماژول حافظه عصبی جدید طراحی کردهاند که میتونه اطلاعات گذشته رو به خاطر بسپاره و به مکانیزم توجه کمک کنه تا با استفاده از این اطلاعات، متن فعلی رو بهتر پردازش بکنه. این حافظه عصبی نه تنها آموزش سریعی داره بلکه در زمان استفاده نیز عملکرد سریعی از خود نشان میدهد.
از دیدگاه حافظه، مکانیزم توجه به دلیل محدودیت در طول متن ورودی، مانند یک حافظه کوتاهمدت عمل میکنه. در حالی که این رویکرد حافظه عصبی جدید، با توانایی ذخیرهسازی اطلاعات برای مدت طولانیتر، نقش یک حافظه بلندمدت رو ایفا میکنه.
بر اساس این دو مفهوم، معماری جدیدی به نام "Titans" معرفی شده که شامل سه نوع مختلفه و نشون میده چگونه میتوان به طور مؤثر از حافظه در این ساختار استفاده کرد. آزمایشها نشون دادن که Titans در مدلسازی زبان، استدلال مبتنی بر عقل سلیم، ژنومیکس و تحلیل سریهای زمانی، عملکرد بهتری نسبت به ترنسفورمرها (Transformers) و مدلهای بازگشتی خطی مدرن داره. همچنین، این معماری میتونه با دقت بالاتری، متون با طول بیش از ۲ میلیون کلمه را پردازش کند.
دو هفته پس از معرفی Titans، تیمی از محققان ساکانا AI و مؤسسه علوم توکیو، معماری جدیدی به نام «
Titans: Learning to Memorize at Test Time
@silicon_brain | از هوش مصنوعی عقب نمانید
محقق ها سالهاست که به دنبال راههایی برای بهبود مدلهای زبانی هستن. رویکردهای مختلفی برای برخورداری از حافظه قوی وجود داره. مثلا مدلهای بازگشتی (
Recurrent Models
) تلاش میکنه تا اطلاعات رو تو یک حافظه با اندازه ثابت، که بهش حالت پنهان (Hidden State
) میگن ذخیره کنه. از طرف دیگه، مکانیزم توجه (
Attention Mechanism
) این امکان رو میده که مدل به تمام قسمتهای متن ورودی نگاه کنه و وابستگیهای بین کلمات رو بهتر درک کنه. اما این روش به دلیل هزینه محاسباتی بالا، مدلو محدود به طول مشخصی از متن میکنه.برای حل این مشکل، محققان یک ماژول حافظه عصبی جدید طراحی کردهاند که میتونه اطلاعات گذشته رو به خاطر بسپاره و به مکانیزم توجه کمک کنه تا با استفاده از این اطلاعات، متن فعلی رو بهتر پردازش بکنه. این حافظه عصبی نه تنها آموزش سریعی داره بلکه در زمان استفاده نیز عملکرد سریعی از خود نشان میدهد.
از دیدگاه حافظه، مکانیزم توجه به دلیل محدودیت در طول متن ورودی، مانند یک حافظه کوتاهمدت عمل میکنه. در حالی که این رویکرد حافظه عصبی جدید، با توانایی ذخیرهسازی اطلاعات برای مدت طولانیتر، نقش یک حافظه بلندمدت رو ایفا میکنه.
بر اساس این دو مفهوم، معماری جدیدی به نام "Titans" معرفی شده که شامل سه نوع مختلفه و نشون میده چگونه میتوان به طور مؤثر از حافظه در این ساختار استفاده کرد. آزمایشها نشون دادن که Titans در مدلسازی زبان، استدلال مبتنی بر عقل سلیم، ژنومیکس و تحلیل سریهای زمانی، عملکرد بهتری نسبت به ترنسفورمرها (Transformers) و مدلهای بازگشتی خطی مدرن داره. همچنین، این معماری میتونه با دقت بالاتری، متون با طول بیش از ۲ میلیون کلمه را پردازش کند.
دو هفته پس از معرفی Titans، تیمی از محققان ساکانا AI و مؤسسه علوم توکیو، معماری جدیدی به نام «
Transformer Squared
» رو معرفی کردند که به مدلهای هوش مصنوعی این امکانو میده تا در زمان اجرا، رفتار خودشو بر اساس وظیفه تغییر بده.Titans: Learning to Memorize at Test Time
@silicon_brain | از هوش مصنوعی عقب نمانید
استارتاپ چینی DeepSeek و کاهش شدید ارزش شرکتهای آمریکایی
استارتاپ DeepSeek باعث فروش گسترده نزدیکه به 2 تریلیون دلاری در بازار فناوری شده است که انویدیا در آستانه بزرگترین کاهش تاریخ خود شده (بیش از 500 میلیارد دلار از ارزش بازار خود را از دست داده است).
به زبان ساده، DeepSeek نشان میدهد که مدلهای هوش مصنوعی میتوانند روی تراشههای کمتر پیشرفته و با 1/30هزینه (گزارش شده بین 5 تا 6 میلیون دلار) اجرا شوند و عملکردی به همان خوبی یا حتی بهتر داشته باشند.
غولهای فناوری میلیاردها دلار برای هزینههای سرمایهای (CapEx) در سال جاری متعهد شدهاند (مثلاً مایکروسافت 80 میلیارد دلار)، اما سرمایهگذاران اکنون در حال بررسی بازده سرمایهگذاری (ROI) این پروژهها هستند اگر مدلهای کمهزینهای مانند DeepSeek به همان خوبی عمل کنند.
هزینه آموزش مدل GPT-4 شرکت OpenAI: بیش از 600 میلیون دلار
هزینه DeepSeek: تنها 6 میلیون دلار
OpenAI: بیش از 100 دلار برای هر میلیون توکن
DeepSeek: کمتر از 4 دلار برای هر میلیون توکن
@silicon_brain | از هوش مصنوعی عقب نمانید
استارتاپ DeepSeek باعث فروش گسترده نزدیکه به 2 تریلیون دلاری در بازار فناوری شده است که انویدیا در آستانه بزرگترین کاهش تاریخ خود شده (بیش از 500 میلیارد دلار از ارزش بازار خود را از دست داده است).
به زبان ساده، DeepSeek نشان میدهد که مدلهای هوش مصنوعی میتوانند روی تراشههای کمتر پیشرفته و با 1/30هزینه (گزارش شده بین 5 تا 6 میلیون دلار) اجرا شوند و عملکردی به همان خوبی یا حتی بهتر داشته باشند.
غولهای فناوری میلیاردها دلار برای هزینههای سرمایهای (CapEx) در سال جاری متعهد شدهاند (مثلاً مایکروسافت 80 میلیارد دلار)، اما سرمایهگذاران اکنون در حال بررسی بازده سرمایهگذاری (ROI) این پروژهها هستند اگر مدلهای کمهزینهای مانند DeepSeek به همان خوبی عمل کنند.
هزینه آموزش مدل GPT-4 شرکت OpenAI: بیش از 600 میلیون دلار
هزینه DeepSeek: تنها 6 میلیون دلار
OpenAI: بیش از 100 دلار برای هر میلیون توکن
DeepSeek: کمتر از 4 دلار برای هر میلیون توکن
@silicon_brain | از هوش مصنوعی عقب نمانید
هواوی Ascend 910C و شروعی بر پایان انحصار؟!
با این که انویدیا هنوز توی بازار هوش مصنوعی حرف اول رو میزنه و محصولاتی مثل
مدل
تا پیش از این، شرکتهای چینی برای هم آموزش (Training) و هم استنتاج (Inference) مدل هاشون به پردازندههای گرافیکی انویدیا و AMD وابسته بودن.
اما الان، هواوی در حال پر کردن این خلأ هستش و چین رو یه قدم دیگه به خودکفایی در صنعت AI نزدیکتر میکنه.
در کل، پیشرفت چیپهای Ascend و استفاده از اونها توی ابزارهایی مثل DeepSeek داره بازار AI رو تغییر میده. با ورود Ascend 920C، هواوی ممکنه این تحول رو سرعت بده و تسلط انویدیا رو به چالش بکشه
@silicon_braon | از هوش مصنوعی عقب نمانید
با این که انویدیا هنوز توی بازار هوش مصنوعی حرف اول رو میزنه و محصولاتی مثل
A100
و H100
ارائه داده، هواوی نشون داده که با هزینه کمتر هم میشه به نتایج مشابه رسید. Ascend 910C با معماری پیشرفته و استفاده از حافظه ۳D، پردازشهای مربوط به استنتاج مدلهای هوش مصنوعی رو با سرعت بالا و بهینه انجام میده.مدل
DeepSeek-R1
ابتدا با استفاده از بیش از دو هزار GPU H800
از انویدیا آموزش داده شده. اما نکته مهم اینه که هواوی میتونه پردازندههای خودشو برای اجرای این مدل به کار بگیره.تا پیش از این، شرکتهای چینی برای هم آموزش (Training) و هم استنتاج (Inference) مدل هاشون به پردازندههای گرافیکی انویدیا و AMD وابسته بودن.
اما الان، هواوی در حال پر کردن این خلأ هستش و چین رو یه قدم دیگه به خودکفایی در صنعت AI نزدیکتر میکنه.
در کل، پیشرفت چیپهای Ascend و استفاده از اونها توی ابزارهایی مثل DeepSeek داره بازار AI رو تغییر میده. با ورود Ascend 920C، هواوی ممکنه این تحول رو سرعت بده و تسلط انویدیا رو به چالش بکشه
@silicon_braon | از هوش مصنوعی عقب نمانید
رقابت تو بازار هوش مصنوعی داره قیمت ها رو میاره پایین. جدیدا
پلتفرم
lambdalabs.com
@silicon_brain | از هوش مصنوعی عقب نمانید
Lambda
فقط ۰.۰۲ دلار برای هر ۱ میلیون توکن LLM میگیره. فک کنم این کمترین قیمتی هست که فعلا وجود داره. پلتفرم
Lambda
یه API برای پردازش هوش مصنوعی داره که ارزونه و محدودیت سرعت هم نداره. میتونی مدلهای جدید مثل Llama 3.3
، Hermes 3
، Qwen 2.5
، و LFM-40B
رو اجرا کنی و هرچقدر خواستی مقیاسپذیری داشته باشیlambdalabs.com
@silicon_brain | از هوش مصنوعی عقب نمانید
Please open Telegram to view this post
VIEW IN TELEGRAM
این رفتار مدل اوپن سورس و خفن
نباید یه مدل اوپن سورس رفتار بی طرفانه و منطقی از خودش نشون بده؟ قطعا DeepSeek اینکارو نمیکنه!ً
اینجاست که یه چالش جدی پیش میاد: چطور میشه بین هوش مصنوعی هدایتشده، بیطرفی و آزادی بیان تعادل ایجاد کرد؟ آیا واقعاً میتونیم به مدلی برسیم که بدون هیچ فیلتر و محدودیتی، مثل یه انسان در جامعهی آزاد فکر کنه؟ یا قراره برای همیشه تفکرات مدل ها همسو با تفکرات سازنده هاشون باشه؟!
@silicon_brain | از هوش مصنوعی عقب نمانید
DeepSeek-R1
هست. نباید یه مدل اوپن سورس رفتار بی طرفانه و منطقی از خودش نشون بده؟ قطعا DeepSeek اینکارو نمیکنه!ً
اینجاست که یه چالش جدی پیش میاد: چطور میشه بین هوش مصنوعی هدایتشده، بیطرفی و آزادی بیان تعادل ایجاد کرد؟ آیا واقعاً میتونیم به مدلی برسیم که بدون هیچ فیلتر و محدودیتی، مثل یه انسان در جامعهی آزاد فکر کنه؟ یا قراره برای همیشه تفکرات مدل ها همسو با تفکرات سازنده هاشون باشه؟!
@silicon_brain | از هوش مصنوعی عقب نمانید
این روزا همه در مورد قابلیت های دیپ سیک صحبت میکنن و همه متخصص هوش مصنوعی شدن و تحلیل میکنن 😂
اگه میخوای یه درک عمومی از این موضوع داشته باشی، این مقایسه ساده رو ببین و از این به بعد، اگه جایی مطلبی در مورد توانایی های دیپ سیک دیدین رد بشین.
@silicon_brain
اگه میخوای یه درک عمومی از این موضوع داشته باشی، این مقایسه ساده رو ببین و از این به بعد، اگه جایی مطلبی در مورد توانایی های دیپ سیک دیدین رد بشین.
@silicon_brain
Please open Telegram to view this post
VIEW IN TELEGRAM
میشه انواع مختلف دیتا رو تو دیتابیس مخصوص خودش ذخیره کرد. البته همیشه دیتا مخصوص نداریم، بعضی وقتا دیتا عادی هست اما کاربرد خاص ما باعث میشه بریم سمت یه دیتابیس دیگه
دادهها در جداول با روابط مشخص ذخیره میشوند. نمونهها: MySQL، PostgreSQL، Oracle Database.
برای ذخیره دادههای بدون ساختار یا نیمهساختار و مدیریت حجم بالای دادهها با انعطافپذیری بالا استفاده میشوند. نمونهها: MongoDB، Couchbase.
برای ذخیره و تحلیل دادههای وابسته به زمان استفاده میشوند. نمونهها: InfluxDB، Prometheus.
دادهها در چندین سرور توزیع شده و مقیاسپذیری بالایی دارند. نمونهها: Apache Cassandra، Amazon DynamoDB.
دادهها در حافظه ذخیره میشوند و سرعت دسترسی بسیار بالایی دارند. نمونهها: Redis، Memcached.
@silicon_brain I از هوش مصنوعی عقب نمانید
Relational Databases
:دادهها در جداول با روابط مشخص ذخیره میشوند. نمونهها: MySQL، PostgreSQL، Oracle Database.
NoSQL
:برای ذخیره دادههای بدون ساختار یا نیمهساختار و مدیریت حجم بالای دادهها با انعطافپذیری بالا استفاده میشوند. نمونهها: MongoDB، Couchbase.
Time-Series Databases
:برای ذخیره و تحلیل دادههای وابسته به زمان استفاده میشوند. نمونهها: InfluxDB، Prometheus.
Distributed Databases
:دادهها در چندین سرور توزیع شده و مقیاسپذیری بالایی دارند. نمونهها: Apache Cassandra، Amazon DynamoDB.
In-Memory Databases
:دادهها در حافظه ذخیره میشوند و سرعت دسترسی بسیار بالایی دارند. نمونهها: Redis، Memcached.
@silicon_brain I از هوش مصنوعی عقب نمانید
دانشگاه استنفورد ابزاری به نام
لینک
@silicon_brain I از هوش هوش عقب نمانید
STORM
رو ساخته که با کمک هوش مصنوعی میتونه در لحظه صدها سایت و مقاله مرتبط با موضوع شما رو اسکن کنه و یه مقاله خلاصه ازش بسازه بده.لینک
@silicon_brain I از هوش هوش عقب نمانید