Telegram Web Link
چالش قانون‌گذاری در توسعه و استفاده از ابزارهای هوش‌مصنوعی

سرعت تکنولوژی‌هایی مثل هوش‌مصنوعی به صورت نمایی بالا رفته و قانون‌گذار هم نمی‌تونه قوانین خودش رو با چنین سرعتی تطبیق بده. از طرفی هم قانون‌گذاری برای هوش‌مصنوعی چالش‌های زیادی داره، مخصوصاً که هر روز که مدل‌های جدیدی هم اضافه میشن و با سرعت غیرقابل تصوری به ترند تبدیل ‌می‌شن.

این چالش تو ایران داستان‌های بیشتری داره، چون هم انکار تکنولوژی وجود داره هم مسايل حقوقی، سیاسی و ... بیشتری هم باید مد نظر گرفته بشه. از طرفی، توسعه هوش مصنوعی باید با حفظ حقوق و آزادی افراد توازن داشته باشه، مثل حفاظت از حریم شخصی و استفاده منصفانه از داده‌های افراد.

کشورهای پیشرفته همیشه به دنبال قوانین جدید برای کنترل هوش مصنوعی هستند تا امنیت و حریم خصوصی مردم را حفظ کنند. آمریکا به عنوان پیشروی در این زمینه، تازه‌ترین قوانین خودش رو اعلام کرده. بر اساس این قوانین، دولت می‌خواد استفاده از هوش مصنوعی رو تو دولت و جامعه کنترل کنه و این‌طوری از سوءاستفاده‌ها جلوگیری کنه. این قوانین شامل ایجاد دستورالعمل‌ها و مقررات جدید برای آموزش مدل‌های هوش مصنوعی هستش و همچنین تشویق به استفاده از هوش مصنوعی در دولت و مدرسه‌ها! اما برخی انتقاد دارند که این اقدامات کافی نیستند و باید یک آژانس دولتی جدید برای نظارت بر هوش مصنوعی ایجاد بشه.

تو اروپا هم توافق حداکثری اتحادیه‌شون تو زمینه قوانین هوش مصنوعی برقرار شده. این توافق روی جزئیات فنی قانون هوش مصنوعی (AI Act) صورت گرفته. اروپا به تصویب قوانین جدیدی که استفاده از هوش مصنوعی رو مدیریت می‌کند، نزدیک‌تر شده. این قوانین شامل استفاده از هوش مصنوعی تو بخش‌های مختلف از جمله بانک‌داری، خرده‌فروشی و حتی خطوط هوایی هستش. همچنین، الزاماتی هم برای استفاده از هوش مصنوعی در اهداف نظامی و امنیتی هم در نظر گرفتن.

در کل به نظر میاد قوانینی که برای هوش مصنوعی تعیین میشن، هم خیلی کارایی ندارن. چرا که این تکنولوژی چنان راحت تغییر می‌کنه که اصلا نمیشه قوانین رو به روز نگه داشت. هوش مصنوعی از وقتی به دنیا اومده، خیلی سریع تغییر کرده و استفاده ازش هم خیلی متنوع شده.

در واقع، تکنولوژی هوش مصنوعی خیلی با تجربیات قبلی ما فرق داره. اینقدر سریع پیشرفت می‌کنه که حقوق و قانون‌گذار نمی‌تونه باهاش رقابت کنه. از زمانی که هوش مصنوعی در دسترس عموم قرار گرفته، فقط یک سال نمی‌گذره ولی در این مدت کوتاه، خیلی تغییر کرده و کاراییش خیلی متفاوت شده.


با این حال، اینکه دولت‌ها بتونن خطرات هوش مصنوعی رو کنترل کنن، خیلی مهمه. برای مثال، قوانینی برای حفظ حریم خصوصی کاربران، امنیت ملی، حق نسخه‌برداری و ارائه محتوای مناسب برای کودکان و نوجوانان باید وضع بشن. ولی تا الان، قوانین مناسبی برای همچین چیزهایی تعیین نشده و دولت‌ها همچنان دارن سعی می‌کنن قوانین مناسبی رو برای هوش مصنوعی پیدا کنن.


هوش مصنوعی واقعاً یه پدیده شگفت‌آوره! انگاری احتیاجه که خودش برای خودش قانون طرح کنه!

کارشناسای حقوقی هم می‌گن تو ایران مشکلاتی تو فرآیند ایجاد قوانین در حوزه هوش مصنوعی وجود داره. از یه طرف، مسئولان کلا منکر تکنولوژی هستند و عجله‌ای برای روبرو شدن باهاش ندارن و فکر می‌کنن سال‌ها طول خواهد کشید تا یک ابزار فراگیر بشه (کلاک ریتشون پایینه!). از طرف دیگه، نظام حقوقی ناکارآمده و این باعث می‌شود که تنظیم قوانین مربوط به فناوری‌های جدید تو ایران دشوار بشه.

رعایت حریم خصوصی کاربران خیلی اهمیت داره و به نظر کسب‌وکارها باید با رعایت خط‌قرمزها فعالیت کنن و در عین حال به حریم خصوصی کاربران را احترام بذارن. دیپ فیک (ابزار تولید محتوای غیرواقعی) هم که این مدت شاهکار کرده حقوقدان‌ها معتقدن این تکنولوژی می‌تونه برای امنیت ملی خطراتی به دنبال داشته باشه اما با سرعت رشد این فناوری، نمیشه از نفوذش به بخش‌های مختلف جلوگیری کرد.

به نظرم قانون‌گذاری در زمینه هوش مصنوعی به چالش بزرگ دوستان در حوزه علوم انسانی تبدیل شده. همون‌طور که سال‌ها پیش یکی از دوستان علوم انسانی ‌می‌گفت مهندسی کور هستش و بدون در نظر گرفتن عواقب کار،‌تکنولوژی رو گسترش می‌ده،‌ به نظرم این بار امکان داره عواقب بسیار نامناسب‌تری برای جامعه داشته باشه و بهتره یه فکر اساسی برای سرعت ایجاد و تصویب قوانین کرد.

@Ai_Events
What Tech Type Am I?

با استفاده از آدرس زیر می‌تونید جواب سوال بالا رو دریافت کنید.

این یه تست روانشناسی هستش که توسط شرکت IBM ارایه میشه و به شما می‌گه تیپ تِک شما چی هستش!

https://www.responsiblenlp.org/application-documents/

من خودم تست رو دادم چیزی نزدیکه به 15 دقیقه زمان گرفت و جوابش هم به صورت زیر در اومد:
Your Tech Type:
Experimental Strategist



@Ai_Events
what is difference between diffusion models and generative models?

Diffusion models are a specific type of generative model, so while they share some similarities, they also have key differences:

Similarities:

* Both aim to generate new data: Both generative models and diffusion models are trained on existing data to learn its underlying patterns and distributions. They then use this knowledge to create new data points that resemble the original data.
* Both involve learning: Both types of models utilize machine learning algorithms to analyze and learn from data. However, the specific learning processes they employ differ.

Differences:

* Generation approach:
* Generative models: Build directly from scratch, often using neural networks to learn a mapping from a latent space (noise) to the data space.
* Diffusion models: Start with the actual data and gradually add noise to it (diffusion process). Then, they learn to reverse this process (denoising) to recover the original data. By manipulating the noise, they can create new data variations.
* Interpretability: Diffusion models can be more interpretable than some generative models due to the clear steps involved in their generation process. This can be helpful in understanding how the model works and what factors influence its outputs.
* Sample quality: Diffusion models have shown impressive results in generating high-quality, realistic images compared to some traditional generative models.
* Computational cost: Training diffusion models can be more computationally expensive than some generative models.

Here's an analogy:

Imagine building a sculpture.

* Generative model: Starts with a block of stone and carves away to create the desired shape.
* Diffusion model: Starts with the finished sculpture and adds layers of clay on top, then learns to remove the clay in the correct way to reveal the original sculpture again. By manipulating the clay differently, it can create variations of the sculpture.

I hope this clarifies the key differences between diffusion models and generative models!

@Ai_Events
Ai Events️
what is difference between diffusion models and generative models? Diffusion models are a specific type of generative model, so while they share some similarities, they also have key differences: Similarities: * Both aim to generate new data: Both generative…
حتما تا حالا اسم مدل‌های Diffusion رو شنیدید،‌ متن بالا برای درک بهتر این نوع مدل‌ها و تفاوت اون‌ها با مدل‌های Generative نوشته شده.

پیشنهاد می‌کنم مطالعه کنید و اگر نکته‌ای دارید حتما کامنت بذارید.

@Ai_Events
وزیر صمت: درگیر قیمت مرغ، تخم مرغ و شیر هستیم و به تحولاتی مثل هوش مصنوعی بی‌توجهیم/ هنوز نتوانسته‌ایم مسئله قیمت بنزین را حل کنیم/ به رهبری عرض کردم، مطرح کردن مسئله خودروی برقی، برای عبور از مسله بنزین است. [بدیهیات هم عرض کردن می‌خواد؟]


نیما نامداری در همایش چشم‌انداز اقتصاد ایران ۱۴۰۳:
استفاده از خودروهای خودران در امور تجاری رواج خواهد یافت. / پیش‌بینی شده که در آینده نزدیک شرکت‌های تکنولوژی، خودرو با برند خود تولید خواهند کرد. مثلا اپل و گوگل به تولید خودرو خواهند پرداخت. / در زمینه مهارت‌ها مدیران خودروسازی‌های معتبر اعلام کرده‌اند که برای آنها تخصص هوش مصنوعی بیشترین اولویت را در استخدام نیرو دارد.

@Ai_Events
OOD Generalization Explained:

Out-of-Distribution (OOD) generalization refers to the ability of a machine learning model to perform well on data that differs significantly from the data it was trained on. This is a crucial challenge in real-world applications, where encountering truly unseen data is almost inevitable.

Here's a breakdown of the key aspects:

Traditional ML vs. OOD:

* Imagine training a model to recognize different types of flowers based on pictures from a garden. In traditional machine learning, the model is assumed to encounter similar pictures of flowers from the same garden (similar distribution).
* However, in the real world, the model might be shown pictures of exotic flowers from a rainforest, blurry underwater shots, or even hand-drawn illustrations of flowers (different distribution). These are all examples of out-of-distribution data.

Challenges of OOD Generalization:

* Models trained on specific data distributions often overfit to those patterns, struggling to generalize effectively to data with different characteristics.
* This can lead to misleading predictions on OOD data, potentially causing consequences depending on the application. For example, misdiagnosed medical images or incorrectly flagged emails.

Why is OOD Generalization Important?

* Robustness: Models able to handle OOD data are more reliable and trustworthy in real-world scenarios, adapting to unforeseen situations.
* Safety: In critical applications like self-driving cars or medical diagnosis, OOD detection and handling are crucial for safety and ethical considerations.
* Applicability: By generalizing beyond training data, models become more versatile and adaptable to wider contexts, enhancing their usefulness.

Techniques for OOD Generalization:

* Calibrated uncertainty estimation: Training models to assess their own confidence in predictions allows them to flag potentially OOD data.
* Anomaly detection: Building separate models to identify outlier data points that significantly deviate from the expected distribution.
* Domain adaptation: Adapting models to new domains with subtle differences, bridging the gap between training and OOD data.

@Ai_Events
بچه‌ها تا حالا در مورد Out-of-Distribution Generalization چیزی شنیدید؟ OODG یه مفهوم جالب تو یادگیری ماشین هست و متن بالا کمک زیادی می‌کنه تا بتونید متوجه‌ش بشید.

این ویدیو هم کمک خوبی به متوجه شدن مشکل و راه حل می‌کنه:
https://www.youtube.com/watch?v=NliJwEGwUpA

@Ai_Events
این پست آقای دکتر قدرت آبادی هم جذاب بود.

اینکه ایشون به زبان فارسی پست می‌ذارن بسیار قابل احترام و ستایش هست.

@Ai_Events
معاون حوزه علمیه: حوزه علمیه با سرعت به حوزه هوش‌مصنوعی ورود کرده است

مهدی رستم‌نژاد، معاون حوزه‌های علمیه:

🔹آیت‌الله اعرافی پیش از آنکه مدیر حوزه علمیه شوند، در قالب یک پروژه شخصی، مساله هوش‌مصنوعی را دنبال می‌کردند.

🔹سال گذشته نمایشگاهی در حوزه علمیه داشتیم که مرتبط با همین مباحث هوش‌مصنوعی بود.

🔹 برخی از افراد از وزارتخانه مرتبط دعوت شده بودند که برای آن‌ها هم موجب اعجاب شده بود که حوزه علمیه با این سرعت به این حوزه ورود کرده است./ ایرنا

@Ai_Events
معضل هک داده‌های شخصی

نفوذ اخیر در سامانه دادگستری و افشای اطلاعات میلیون‌ها پرونده قضایی هم از
حیث گستردگی اطلاعات و هم از نظر حساسیت آنها چنان اتفاق بزرگی است که قابل
مقایسه با هیچ‌کدام از حملات پیشین نیست.

اغراق نیست اگر بگوییم وضعیت امنیت اطلاعات شهروندان اکنون به یک مساله امنیت ملی بدل شده است.

مشکل اصلی کماکان فقدان قانونی است که از داده‌های شخصی مردم حفاظت کند.

متاسفانه به‌دلیل بی‌اعتمادی به کیفیت فرآیند سیاستگذاری و نگرانی از اینکه نکند چنین قانونی به جای آنکه به حمایت از کاربران بپردازد به ابزاری برای
محدودیت بیشتر بدل شود، اکوسیستم اقتصاد دیجیتال هم در مطالبه چنین قانونی مردد و بی‌میل است.

اما اتفاقات اخیر نشان داد حتی یک قانون بد، بهتر از بی‌قانونی فعلی است.

واقعا افراد چگونه می‌توانند بابت سهل‌انگاری رخ‌داده در قوه قضائیه به خود این قوه شکایت کنند؟

اگر به واسطه این افشای اطلاعات خساراتی متوجه افراد شود چه کسی این خسارات را پرداخت خواهد کرد؟

آیا دولتی‌ها همان شدت و حدتی که در برخورد با بخش خصوصی دارند، در مواجهه با خودشان هم نشان می‌دهند؟

ما نیازمند قانونی هستیم که داده‌های شخصی را تعریف کند، مسوولیت‌ها را مشخص کند، کوتاهی را جرم‌انگاری کند و به مردم امکان بدهد اگر به واسطه این
کوتاهی خسارتی متوجه آنها شد بتوانند از مقصر، بدون تبعیض میان بخش خصوصی و دولتی، شکایت کنند.


👤 نیما نامداری

@Ai_Events
🌱 هفتمین رویداد کاشتن برای آینده؛ با موضوع "ایران هوشمند و متصل"

"همراه با برگزاری آیین درختکاری🌱

سخنرانان:

آقای دکتر بابک حسین خلج
رئیس دانشکده مهندسی برق دانشگاه صنعتی شریف
(مدل های زبانی بزرگ و آینده مخابرات: شروع دنیایی نوین)

آقای مهندس حسین ریاضی:
بنیان‌گذار شرکت صنایع ارتباطی پایا
(تجربه کار آفرینی)

آقای دکتر حامد ساجدی
موسس و عضو هيئت مدیره شرکت دانش‌بنیان طنین پرداز
(توان بخشی شنوایی؛ بازگشت امید)

آقای دکتر حبیب‌الله اصغری
رییس پژوهشکده فناوری اطلاعات جهاد دانشگاهی
(توسعه ساختارهای فناوری؛ کلیدهای موفقیت در یک نمونه بومی)

زمان: سه‌شنبه 15 اسفند 1402

ساعت: 15 الی 19

مکان: خیابان کارگر شمالی، بالاتر از تقاطع جلال آل‌احمد، دانشکدگان فنی دانشگاه تهران، سالن آمفی‌تئاتر دانشکده مهندسی برق و کامپیوتر

لینک ثبت‌نام

cct.isti.ir
@cct_isti


@Ai_Events
اگه تو حوزه هوش مصنوعی و علوم داده مبتدی هستید و می‌خواید به صورت حرفه‌ای تو این حوزه‌ها فعالیت کنید، تو آموزش‌هایی که می‌بینید، زبان فارسی رو کاملا کنار بذارید.

شاید با خودتون بگید مباحث ابتدایی رو خوبه که به فارسی یاد بگیرید بعدش تو مراحل جلوتر زبان رو تغییر بدید، اما این راه هم جواب نمیده به چند دلیل؛

- یک: عادت می‌کنید که به فارسی آموزش ببینید؛

- دو: گوش‌تون به کلمه‌های تخصصی با تلفظ صحیح عادت نمی‌کنه؛

- سه: سرعت تغییر مباحث این حوزه اونقدر زیاد هست که اگه منتظر بمونید تا یکی بره اون آموزش رو ببینه، بعد بیاد محتوای فارسی تولید کنه برای شما، مشخصا از میانگین جامعه عقب‌تر حرکت خواهید کرد.

همه این موارد در آینده حرفه‌ای‌تون بسیار تاثیرگذار خواهد بود.

یادتون باشه، شما نخبه‌های این خاک هستید، رو خودتون کار کنید و هر روز روی آموزش خودتون وقت در نظر بگیرید.

@Ai_Events
How can you help your supervisors to give you the best supervision for your PhD?

@Ai_Events
وبینار بسیار جذاب با عنوان "آیا مغز ما آشوبناک است؟"

تئوری آشوب (Chaos Theory) یک چهارچوب نظری برای فهم بهتر سیستم های محتوم فراهم
میکند. سیستم های محتوم (Deterministic Systems) سیستم هایی هستند که
شرایط کنونی و دینامیک حاکم بر آنها شرایط آینده شان را تعیین میکنند.
آشوبناکی یک سیستم به این معناست که تغییرات کوچک در حالت سیستم با سرعت
نمایی گسترده شوند. طبیعتا برای قابل اعتماد بودن پردازش اطلاعات حسی,
دینامیک حاکم بر مغز ما نبایستی آشوبناک باشد. در این سمینار در ابتدا نشان
خواهم داد که فعالیت سلول های قشر مغز (Cerebral Cortex) محتوم اند. سپس
با بدست دادن مدلی از این سلول ها (Rapid Theta Neuron model) تلاش خواهیم
کرد که آشوبناکی در پردازش جمعی اطلاعات حسی را در این سیستم بررسی کنیم.
@CCNSD
برای حضور در وبینار، در روز سه شنبه ساعت ۱۴:۰۰، از طریق لینک زیر وارد جلسه شوید.

👇👇👇👇👇
http://meet.google.com/yuk-cbmv-tis


@Ai_Events
پست جالب آقای پاول دروف، بنیان‌گذار تلگرام در مورد قطعی اینستاگرام:


Millions of people have been signing up and sharing content on Telegram in the last hour while Instagram and Facebook were down. Interestingly, Telegram is more reliable than these services — despite spending several times less on infrastructure per user.

We also have about 1000 times (!) fewer full-time employees than Meta, but manage to launch new features and innovate faster.

Throughout 2023, Telegram was unavailable for a total of only 9 minutes out of the year’s 525,600 minutes. That’s a 99.9983% uptime
https://www.tg-me.com/rove


@Ai_Events
2025/07/06 19:45:19
Back to Top
HTML Embed Code: