This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
پرپلکسی حالت جدیدی به نام "Labs" راهاندازی کرده است.
دیگر فقط یک موتور جستوجو نیست؛ حالا میتواند بهصورت خودکار رباتهای معاملاتی بسازد، داشبورد طراحی کند، وباپ بسازد و دادهها را از سایتها استخراج کند.
بهعبارت دیگر، پرپلکسی حالا به یک محیط توسعه کامل تبدیل شده است.
https://www.perplexity.ai/hub/blog/introducing-perplexity-labs
دیگر فقط یک موتور جستوجو نیست؛ حالا میتواند بهصورت خودکار رباتهای معاملاتی بسازد، داشبورد طراحی کند، وباپ بسازد و دادهها را از سایتها استخراج کند.
بهعبارت دیگر، پرپلکسی حالا به یک محیط توسعه کامل تبدیل شده است.
https://www.perplexity.ai/hub/blog/introducing-perplexity-labs
This media is not supported in your browser
VIEW IN TELEGRAM
🧠✨ «قدرت واقعی هوش مصنوعی اینه که خودش میتونه خودش رو بهتر کنه!»
🎙️ ساندار پیچای (Sundar Pichai)، مدیرعامل گوگل، توی یه مصاحبهٔ جذاب با پادکست Decoder گفته:
> «ما در آستانهٔ یه تغییر بزرگ هستیم؛ جایی که هوش مصنوعی میتونه نتایج جستجو رو بهصورت سفارشی و تعاملی ارائه بده و خودش به رشد خودش کمک کنه! این تحول، همردهی انقلابیه که قبلاً اینترنت و موبایل ایجاد کردن.»
🔧 حتی گفته بیش از ۲۵٪ کدهای جدید گوگل الان داره توسط AI نوشته میشه! 😲
📌 یعنی ما داریم وارد دنیایی میشیم که توش هوش مصنوعی نهتنها ابزار ماست، بلکه خودش تبدیل به توسعهدهنده خودش میشه...
📎 مصاحبه کامل The Verge – گفتگو با ساندار پیچای
#هوش_مصنوعی #Google #SundarPichai #AI #تکنولوژی
🎙️ ساندار پیچای (Sundar Pichai)، مدیرعامل گوگل، توی یه مصاحبهٔ جذاب با پادکست Decoder گفته:
> «ما در آستانهٔ یه تغییر بزرگ هستیم؛ جایی که هوش مصنوعی میتونه نتایج جستجو رو بهصورت سفارشی و تعاملی ارائه بده و خودش به رشد خودش کمک کنه! این تحول، همردهی انقلابیه که قبلاً اینترنت و موبایل ایجاد کردن.»
🔧 حتی گفته بیش از ۲۵٪ کدهای جدید گوگل الان داره توسط AI نوشته میشه! 😲
📌 یعنی ما داریم وارد دنیایی میشیم که توش هوش مصنوعی نهتنها ابزار ماست، بلکه خودش تبدیل به توسعهدهنده خودش میشه...
📎 مصاحبه کامل The Verge – گفتگو با ساندار پیچای
#هوش_مصنوعی #Google #SundarPichai #AI #تکنولوژی
یه نفر ۱۲ ساعت روی تخته یه شبکه عصبی با ۴۳۰۰تا پارامتر رو ترین کرده :)
https://youtube.com/playlist?list=PLQ_mxzy8Yk_e3ggsfp0ViDV7gzkYr0-yD&si=NRzuKtVbq-QnNhCj
https://youtube.com/playlist?list=PLQ_mxzy8Yk_e3ggsfp0ViDV7gzkYr0-yD&si=NRzuKtVbq-QnNhCj
YouTube
Training a Neural Network by Hand
Share your videos with friends, family, and the world
مجموع پرسشها و پاسخهای ارسال شده به Stack Overflow در آوریل ۲۰۲۵ نسبت به مدت مشابه در سال ۲۰۲۴ بیش از ۶۴ درصد و در مقایسه با آوریل ۲۰۲۰، یعنی دوران اوج ترافیک وبسایت، بیش از ۹۰ درصد کاهش یافته است.
به همین علت Stack Overflow در تلاش است تا با نوآوری در چندین حوزه کلیدی، مجدداً به کانونی برای تعامل و یادگیری توسعهدهندگان تبدیل شود.
همزمان با تلاش برای احیای مشارکت کاربران، Stack Overflow در حال تعریف نقشی جدید برای خود در اکوسیستم هوش مصنوعی (AI) است...
http://thenewstack.io/stack-overflows-plan-to-survive-the-age-of-ai
مرتبط با:
https://www.tg-me.com/cvision/4045
به همین علت Stack Overflow در تلاش است تا با نوآوری در چندین حوزه کلیدی، مجدداً به کانونی برای تعامل و یادگیری توسعهدهندگان تبدیل شود.
همزمان با تلاش برای احیای مشارکت کاربران، Stack Overflow در حال تعریف نقشی جدید برای خود در اکوسیستم هوش مصنوعی (AI) است...
http://thenewstack.io/stack-overflows-plan-to-survive-the-age-of-ai
مرتبط با:
https://www.tg-me.com/cvision/4045
The New Stack
Stack Overflow’s Plan to Survive the Age of AI
Stack Overflow is exploring ways to bring users back to the site by compensating experts and creating personalized home pages.
This media is not supported in your browser
VIEW IN TELEGRAM
با توجه به افزایش استفاده دانشآموزان از ابزارهای هوش مصنوعی مانند ChatGPT برای انجام تکالیف، مدارس و دانشگاههای آمریکا به روشهای سنتی ارزیابی باز میگردن.
با وجود اینکه برخی استادان ارزش استفاده مسئولانه از هوش مصنوعی رو درک میکنن، اما ناتوانی ابزارهای تشخیص تقلب در شناسایی دقیق استفاده از AI، نگرانی ها رو افزایش داده.
https://gizmodo.com/ai-cheating-is-so-out-of-hand-in-americas-schools-that-the-blue-books-are-coming-back-2000607771
با وجود اینکه برخی استادان ارزش استفاده مسئولانه از هوش مصنوعی رو درک میکنن، اما ناتوانی ابزارهای تشخیص تقلب در شناسایی دقیق استفاده از AI، نگرانی ها رو افزایش داده.
https://gizmodo.com/ai-cheating-is-so-out-of-hand-in-americas-schools-that-the-blue-books-are-coming-back-2000607771
Forwarded from کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
📚 تابستونت رو بساز!
🎉 فقط برای مدت محدود، با کد تخفیف off_summer_404، از ۳۰٪ تخفیف روی تمام دورههای کلاسویژن بهرهمند شو!
✅ دورههای تخصصی یادگیری عمیق
✅ پوشش مباحث تئوری + عملی + پروژه های متنوع
✅ تدریس با استادی با سابقه 10 ساله
کد تخفیف:
⏳ فرصت رو از دست نده! این تخفیف فقط تا پایان ماه فعاله.
🔗 https://class.vision/
🎉 فقط برای مدت محدود، با کد تخفیف off_summer_404، از ۳۰٪ تخفیف روی تمام دورههای کلاسویژن بهرهمند شو!
✅ دورههای تخصصی یادگیری عمیق
✅ پوشش مباحث تئوری + عملی + پروژه های متنوع
✅ تدریس با استادی با سابقه 10 ساله
کد تخفیف:
off_summer_404
⏳ فرصت رو از دست نده! این تخفیف فقط تا پایان ماه فعاله.
🔗 https://class.vision/
Media is too big
VIEW IN TELEGRAM
📚 تابستونت رو بساز!
کد تخفیف:
⏳ فرصت رو از دست نده! این تخفیف فقط تا پایان ماه فعاله.
🔗 https://class.vision/
کد تخفیف:
off_summer_404
⏳ فرصت رو از دست نده! این تخفیف فقط تا پایان ماه فعاله.
🔗 https://class.vision/
This media is not supported in your browser
VIEW IN TELEGRAM
Google quietly launched Edge AI Gallery, a library of open AI models to access on smartphones
Currently on Android, the gallery lets users pick models for their task and run using the available device hardware, entirely locally
iOS version coming soon!
Currently on Android, the gallery lets users pick models for their task and run using the available device hardware, entirely locally
iOS version coming soon!
Tensorflow(@CVision) pinned «📚 تابستونت رو بساز! 🎉 فقط برای مدت محدود، با کد تخفیف off_summer_404، از ۳۰٪ تخفیف روی تمام دورههای کلاسویژن بهرهمند شو! ✅ دورههای تخصصی یادگیری عمیق ✅ پوشش مباحث تئوری + عملی + پروژه های متنوع ✅ تدریس با استادی با سابقه 10 ساله کد تخفیف: off_summer_404…»
Language modeling from scratch | 2025 (Stanford)
https://youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_&si=86AY4yAD43o0I4uq
https://youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_&si=86AY4yAD43o0I4uq
Media is too big
VIEW IN TELEGRAM
ElevenLabs
پیشرفته ترین و طبیعی ترین مدل تبدیل متن به گفتار تا کنون رو معرفی کرد.
https://elevenlabs.io/v3
به عنوان یک نمونه کاربردی شاهد عصر جدیدی از کتاب های صوتی خواهیم بود، نه فقط یک کتاب صوتی معمولی، بلکه کتاب های صوتی چند صدایی!
بیشتر کتاب های صوتی که توسط انسانها ضبط میشن، هنوز در این زمینه ضعف دارن، چون معمولا تنها یک راوی دارند و تلاششون برای تقلید صدای جنسیت یا ملیت های دیگه، گاهی اوقات ناخوشایند و مصنوعی از کار درمیاد. اما با استفاده از هوش مصنوعی، هر شخصیت در کتاب میتونه صدایی منحصر به فرد داشته باشه.
پیشرفته ترین و طبیعی ترین مدل تبدیل متن به گفتار تا کنون رو معرفی کرد.
https://elevenlabs.io/v3
به عنوان یک نمونه کاربردی شاهد عصر جدیدی از کتاب های صوتی خواهیم بود، نه فقط یک کتاب صوتی معمولی، بلکه کتاب های صوتی چند صدایی!
بیشتر کتاب های صوتی که توسط انسانها ضبط میشن، هنوز در این زمینه ضعف دارن، چون معمولا تنها یک راوی دارند و تلاششون برای تقلید صدای جنسیت یا ملیت های دیگه، گاهی اوقات ناخوشایند و مصنوعی از کار درمیاد. اما با استفاده از هوش مصنوعی، هر شخصیت در کتاب میتونه صدایی منحصر به فرد داشته باشه.
سری مدلهای Qwen3-Embedding و Qwen3-Reranker
تیم تحقیقاتی Qwen مدلهای جدید خود را معرفی کرده که بر پایهی مدلهای زبانی Qwen3 توسعه یافتهاند. این مدلها با استفاده از یک روند آموزشی چندمرحلهای و بهرهگیری از قدرت مدلهای زبانی بزرگ، به عملکردی بیرقیب در پردازش چندزبانه و بازیابی اطلاعات رسیدهاند.
✨ ویژگیها:
✅ اندازههای مختلف مدل: 0.6B، 4B و 8B
✅ پشتیبانی از 119 زبان زنده دنیا
✅ صدرنشین در بنچمارکهای معتبر مثل MTEB، MMTEB و MTEB-Code
✅ متنباز و قابل دسترسی روی Hugging Face، GitHub و ModelScope
✅ قابل استفاده مستقیم از طریق API در Alibaba Cloud
🧠 کاربردها:
جستجوی اسناد، RAG، طبقهبندی متون، تحلیل احساسات، جستجوی کد و دهها کاربرد دیگر!
📎 اطلاعات بیشتر و دریافت مدلها:
https://huggingface.co/papers/2506.05176
تیم تحقیقاتی Qwen مدلهای جدید خود را معرفی کرده که بر پایهی مدلهای زبانی Qwen3 توسعه یافتهاند. این مدلها با استفاده از یک روند آموزشی چندمرحلهای و بهرهگیری از قدرت مدلهای زبانی بزرگ، به عملکردی بیرقیب در پردازش چندزبانه و بازیابی اطلاعات رسیدهاند.
✨ ویژگیها:
✅ اندازههای مختلف مدل: 0.6B، 4B و 8B
✅ پشتیبانی از 119 زبان زنده دنیا
✅ صدرنشین در بنچمارکهای معتبر مثل MTEB، MMTEB و MTEB-Code
✅ متنباز و قابل دسترسی روی Hugging Face، GitHub و ModelScope
✅ قابل استفاده مستقیم از طریق API در Alibaba Cloud
🧠 کاربردها:
جستجوی اسناد، RAG، طبقهبندی متون، تحلیل احساسات، جستجوی کد و دهها کاربرد دیگر!
📎 اطلاعات بیشتر و دریافت مدلها:
https://huggingface.co/papers/2506.05176
huggingface.co
Paper page - Qwen3 Embedding: Advancing Text Embedding and Reranking Through
Foundation Models
Foundation Models
Join the discussion on this paper page
این مقاله از محققیق اپل میگه در مسائل ساده، مدل های زبانی معمولی که فاقد ساختارهای استدلالی پیشرفته هستن،عملکرد بهتری نسبت به مدل های استدلال محور (LRMs) دارن. علت این پدیده به احتمال زیاد در سادگی ساختار مسئله نهفته ست، جایی که استدلال پیچیده نه تنها لازم نیست، بلکه ممکنه منجر به تفکر بیش از حد شه و دقت یا سرعت پاسخ رو کاهش بده.
در مسائل با پیچیدگی متوسط، الگوی عملکرد معکوس میشه، مدلهای استدلال محور با بهره گیری از زنجیرههای تفکر طولانیتر (COT)، میتونن بهتر از مدلهای ساده، اجزای مسئله رو گام به گام تجزیه کنن و به نتیجه درست برسن. اما در مسائل بسیار پیچیده، تمام مدلها دچار فروپاشی عملکردی میشن. نه مدل های ساده، نه مدل های پیشرفته استدلالی قادر به مدیریت این دسته از مسائل نیستن. این سقوط عملکرد نشون میده که محدودیتهای بنیادی در حافظه، ظرفیت برنامه ریزی و پیوستگی منطق در مدل های فعلی وجود داره.
همچنین به طرز غیرمنتظرهای، با افزایش پیچیدگی مسائل، تلاش استدلالی مدل ها کاهش پیدا میکنه. این یافته که با استفاده از معیارهایی مانند تعداد توکنهای تولید شده برای تفکر اندازه گیری شده، بیانگر این واقعیته که مدلها در مواجهه با مسائل دشوارتر، نه تنها ناتوان تر میشن، بلکه حتی کمتر سعی میکنند فکر کنن.
زنجیره تفکر (CoT) یکی از روشهای مهم برای تقویت استدلال در مدلهای زبانی هست. با این حال، مقاله نشون میده که کارایی CoT محدود به دامنه خاص از پیچیدگی هست. در حالی که CoT میتونه در مسائل متوسط کمک کننده باشه، در مسائل پیچیده تر نه تنها اثربخش نیست، بلکه منجر به افزایش زمان پاسخ دهی و ناکارآمدی محاسباتی میشه. این یافته نشون میده که زنجیره تفکر بدون نظارت یا هدایت ساختاریافته میتونه به نوعی پراکنده گویی بی هدف تبدیل شه.
https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
در مسائل با پیچیدگی متوسط، الگوی عملکرد معکوس میشه، مدلهای استدلال محور با بهره گیری از زنجیرههای تفکر طولانیتر (COT)، میتونن بهتر از مدلهای ساده، اجزای مسئله رو گام به گام تجزیه کنن و به نتیجه درست برسن. اما در مسائل بسیار پیچیده، تمام مدلها دچار فروپاشی عملکردی میشن. نه مدل های ساده، نه مدل های پیشرفته استدلالی قادر به مدیریت این دسته از مسائل نیستن. این سقوط عملکرد نشون میده که محدودیتهای بنیادی در حافظه، ظرفیت برنامه ریزی و پیوستگی منطق در مدل های فعلی وجود داره.
همچنین به طرز غیرمنتظرهای، با افزایش پیچیدگی مسائل، تلاش استدلالی مدل ها کاهش پیدا میکنه. این یافته که با استفاده از معیارهایی مانند تعداد توکنهای تولید شده برای تفکر اندازه گیری شده، بیانگر این واقعیته که مدلها در مواجهه با مسائل دشوارتر، نه تنها ناتوان تر میشن، بلکه حتی کمتر سعی میکنند فکر کنن.
زنجیره تفکر (CoT) یکی از روشهای مهم برای تقویت استدلال در مدلهای زبانی هست. با این حال، مقاله نشون میده که کارایی CoT محدود به دامنه خاص از پیچیدگی هست. در حالی که CoT میتونه در مسائل متوسط کمک کننده باشه، در مسائل پیچیده تر نه تنها اثربخش نیست، بلکه منجر به افزایش زمان پاسخ دهی و ناکارآمدی محاسباتی میشه. این یافته نشون میده که زنجیره تفکر بدون نظارت یا هدایت ساختاریافته میتونه به نوعی پراکنده گویی بی هدف تبدیل شه.
https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
Tensorflow(@CVision)
این مقاله از محققیق اپل میگه در مسائل ساده، مدل های زبانی معمولی که فاقد ساختارهای استدلالی پیشرفته هستن،عملکرد بهتری نسبت به مدل های استدلال محور (LRMs) دارن. علت این پدیده به احتمال زیاد در سادگی ساختار مسئله نهفته ست، جایی که استدلال پیچیده نه تنها…
شاید بهتره که بپذیریم چیزی بنام مدلهای استدلالی بزرگ (LRMs) اساسا وجود نداره.LRM ها در واقع همون مدل های زبانی بزرگ هستن که فقط بیشتر روی پاسخ خودشون تکرار و بازاندیشی میکنن، یا اطلاعات زمینه ای بیشتری در اختیار خود قرار میدن.
حلقه استدلال معادل اینه که به یک مدل زبانی معمولی بگیم «پاسخت رو اصلاح کن» یا «زمینه بیشتری از این نوع خاص رو در نظر بگیر».
در واقع چیزی بنام استدلال (reasoning) وجود نداره، همیشه صرفا راهکاری بوده برای کاهش پاسخ های ساختگی(hallucination) یا افزودن خودکار اطلاعات زمینه ای ، نه چیز دیگه.
شرکتهای بزرگ یکی از ترفندهای ابتدایی مهندسی پرامپت رو که سالها پیش بوجود اومده بود، در مدل هاشون تعبیه کردن، و در نهایت برای سود های کلان اون رو برند کردن.
قبلاً اینجا به صورت مفصل دربارش نوشتم:
https://www.tg-me.com/cvision/3770
حلقه استدلال معادل اینه که به یک مدل زبانی معمولی بگیم «پاسخت رو اصلاح کن» یا «زمینه بیشتری از این نوع خاص رو در نظر بگیر».
در واقع چیزی بنام استدلال (reasoning) وجود نداره، همیشه صرفا راهکاری بوده برای کاهش پاسخ های ساختگی(hallucination) یا افزودن خودکار اطلاعات زمینه ای ، نه چیز دیگه.
شرکتهای بزرگ یکی از ترفندهای ابتدایی مهندسی پرامپت رو که سالها پیش بوجود اومده بود، در مدل هاشون تعبیه کردن، و در نهایت برای سود های کلان اون رو برند کردن.
قبلاً اینجا به صورت مفصل دربارش نوشتم:
https://www.tg-me.com/cvision/3770
Telegram
Tensorflow(@CVision)
به نظرتون چطور میتونیم بدون صرف بودجه زیاد، آموزش مجدد، توانایی یه مدل زبانی رو توی استدلال کردن ارتقا بدیم؟
برای این کار ابتدا باید نگاهی به موضوع عدم قطعیت در مدلهای زبانی داشته باشیم و یه تعریف دقیق براش ارایه بدیم.
همونطور که میدونید توی مرحله نمونه…
برای این کار ابتدا باید نگاهی به موضوع عدم قطعیت در مدلهای زبانی داشته باشیم و یه تعریف دقیق براش ارایه بدیم.
همونطور که میدونید توی مرحله نمونه…
Tensorflow(@CVision)
شاید بهتره که بپذیریم چیزی بنام مدلهای استدلالی بزرگ (LRMs) اساسا وجود نداره.LRM ها در واقع همون مدل های زبانی بزرگ هستن که فقط بیشتر روی پاسخ خودشون تکرار و بازاندیشی میکنن، یا اطلاعات زمینه ای بیشتری در اختیار خود قرار میدن. حلقه استدلال معادل اینه…
چون علاقه زیادی به خوندن مقالات عصب شناسی دارم این موضوع رو عنوان میکنم شاید هم راستا با دیدگاه سایر مخاطبین نباشه.
تحقیقاتی زیادی روزانه منتشر میشن، روزانه مدل هایی رو میبینیم که توی فلان بنچ مارک بهتر شدن، توی وظایف خاص انسانها رو جا میگذارن، اما انگار ما از اصل قضیه که رسیدن به AGI در مرحله اول هست داریم دور میشیم.
ما در گام اول نیاز داریم به هوش مصنوعی عمومی برسیم و هوش مصنوعی عمومی نیاز به "اصطلاح استدلال" در این سطوح رو نداره.
در مغز فرآیند استدلال علی رغم نظر عامه، انرژی خیلی زیادی مصرف نمیکنه.
حتی وقتی مغزمون درگیر کارهای سخت مثل یادگیری، برنامه ریزی یا حل مسئله هست، فقط کمی بیشتر از حالت عادی انرژی لازم داره. این یعنی مغز همیشه فعاله، چه در حالت استراحت و چه در حال فکر کردن.
https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(24)00319-X?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS136466132400319X%3Fshowall%3Dtrue
ادامه داره...
تحقیقاتی زیادی روزانه منتشر میشن، روزانه مدل هایی رو میبینیم که توی فلان بنچ مارک بهتر شدن، توی وظایف خاص انسانها رو جا میگذارن، اما انگار ما از اصل قضیه که رسیدن به AGI در مرحله اول هست داریم دور میشیم.
ما در گام اول نیاز داریم به هوش مصنوعی عمومی برسیم و هوش مصنوعی عمومی نیاز به "اصطلاح استدلال" در این سطوح رو نداره.
در مغز فرآیند استدلال علی رغم نظر عامه، انرژی خیلی زیادی مصرف نمیکنه.
حتی وقتی مغزمون درگیر کارهای سخت مثل یادگیری، برنامه ریزی یا حل مسئله هست، فقط کمی بیشتر از حالت عادی انرژی لازم داره. این یعنی مغز همیشه فعاله، چه در حالت استراحت و چه در حال فکر کردن.
https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(24)00319-X?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS136466132400319X%3Fshowall%3Dtrue
ادامه داره...
Jordan Theriault
I am a Postdoctoral Researcher in the Department of Psychology at Northeastern University, working with Dr. Lisa Feldman Barrett in the Interdisciplinary Affective Sciences Lab.
My research focuses on the neural and biological bases of moral and normat
My research focuses on the neural and biological bases of moral and normat
Tensorflow(@CVision)
چون علاقه زیادی به خوندن مقالات عصب شناسی دارم این موضوع رو عنوان میکنم شاید هم راستا با دیدگاه سایر مخاطبین نباشه. تحقیقاتی زیادی روزانه منتشر میشن، روزانه مدل هایی رو میبینیم که توی فلان بنچ مارک بهتر شدن، توی وظایف خاص انسانها رو جا میگذارن، اما انگار…
بنابراین بیشتر انرژی مصرفی مغز برای فعالیت های پس زمینه هست، نه فقط برای فکر کردن.
مثلا کنترل تنفس، احساسات، حافظه و سایر کارهای ناخودآگاه که حتی متوجهشون نمیشیم.
در گذشته، بسیاری از عصب شناسان تمرکز خودشون رو بر عملکردهای فعال و آشکار مغز گذاشته بودن، مثل:
توجه، حل مسئله، حافظه کاری و تصمیم گیری.
اما در پشت صحنه، مغز ما در حال پردازش دائمی و پنهانه، یه مرکز فعالیت شلوغ که به چشم نمیاد. مغز ما به طور مداوم سیستمهای فیزیولوژیکی بدن رو تنظیم میکنه و منابع رو به بخشهایی از بدن میفرسته که به اونها نیاز دارن، در حالی که ما، آگاهانه یا ناخودآگاه به شرایط محیطی همیشه در حال تغییر واکنش نشون میدیم.
خیلی ها فکر میکنن که مغز فقط برای فکر کردنه و فعالیتهای ذهنی مثل حل مسئله یا تصمیمگیریه. اما واقعیت اینه که بخش بزرگی از انرژی مغز صرف مدیریت کارهای حیاتی بدن میشه.مغز مثل یک مدیر قوی هست که اعضای بدن رو هماهنگ میکنه، منابع رو به درستی تقسیم میکنه، و به ما کمک میکنه در محیطی که همیشه تغییر میکنه، به خوبی زندگی کنیم.
این یعنی مغز ما فقط مرکز فکر کردن نیست، بلکه نقش اصلیش حفظ زندگی و سلامت بدنه.
انرژی زیادی از مغز برای این وظایف حیاتی صرف میشه، حتی بیشتر از انرژی که برای فکر کردن به کار میره.
ادامه داره ...
مثلا کنترل تنفس، احساسات، حافظه و سایر کارهای ناخودآگاه که حتی متوجهشون نمیشیم.
در گذشته، بسیاری از عصب شناسان تمرکز خودشون رو بر عملکردهای فعال و آشکار مغز گذاشته بودن، مثل:
توجه، حل مسئله، حافظه کاری و تصمیم گیری.
اما در پشت صحنه، مغز ما در حال پردازش دائمی و پنهانه، یه مرکز فعالیت شلوغ که به چشم نمیاد. مغز ما به طور مداوم سیستمهای فیزیولوژیکی بدن رو تنظیم میکنه و منابع رو به بخشهایی از بدن میفرسته که به اونها نیاز دارن، در حالی که ما، آگاهانه یا ناخودآگاه به شرایط محیطی همیشه در حال تغییر واکنش نشون میدیم.
خیلی ها فکر میکنن که مغز فقط برای فکر کردنه و فعالیتهای ذهنی مثل حل مسئله یا تصمیمگیریه. اما واقعیت اینه که بخش بزرگی از انرژی مغز صرف مدیریت کارهای حیاتی بدن میشه.مغز مثل یک مدیر قوی هست که اعضای بدن رو هماهنگ میکنه، منابع رو به درستی تقسیم میکنه، و به ما کمک میکنه در محیطی که همیشه تغییر میکنه، به خوبی زندگی کنیم.
این یعنی مغز ما فقط مرکز فکر کردن نیست، بلکه نقش اصلیش حفظ زندگی و سلامت بدنه.
انرژی زیادی از مغز برای این وظایف حیاتی صرف میشه، حتی بیشتر از انرژی که برای فکر کردن به کار میره.
ادامه داره ...