چالش قانونگذاری در توسعه و استفاده از ابزارهای هوشمصنوعی
سرعت تکنولوژیهایی مثل هوشمصنوعی به صورت نمایی بالا رفته و قانونگذار هم نمیتونه قوانین خودش رو با چنین سرعتی تطبیق بده. از طرفی هم قانونگذاری برای هوشمصنوعی چالشهای زیادی داره، مخصوصاً که هر روز که مدلهای جدیدی هم اضافه میشن و با سرعت غیرقابل تصوری به ترند تبدیل میشن.
این چالش تو ایران داستانهای بیشتری داره، چون هم انکار تکنولوژی وجود داره هم مسايل حقوقی، سیاسی و ... بیشتری هم باید مد نظر گرفته بشه. از طرفی، توسعه هوش مصنوعی باید با حفظ حقوق و آزادی افراد توازن داشته باشه، مثل حفاظت از حریم شخصی و استفاده منصفانه از دادههای افراد.
کشورهای پیشرفته همیشه به دنبال قوانین جدید برای کنترل هوش مصنوعی هستند تا امنیت و حریم خصوصی مردم را حفظ کنند. آمریکا به عنوان پیشروی در این زمینه، تازهترین قوانین خودش رو اعلام کرده. بر اساس این قوانین، دولت میخواد استفاده از هوش مصنوعی رو تو دولت و جامعه کنترل کنه و اینطوری از سوءاستفادهها جلوگیری کنه. این قوانین شامل ایجاد دستورالعملها و مقررات جدید برای آموزش مدلهای هوش مصنوعی هستش و همچنین تشویق به استفاده از هوش مصنوعی در دولت و مدرسهها! اما برخی انتقاد دارند که این اقدامات کافی نیستند و باید یک آژانس دولتی جدید برای نظارت بر هوش مصنوعی ایجاد بشه.
تو اروپا هم توافق حداکثری اتحادیهشون تو زمینه قوانین هوش مصنوعی برقرار شده. این توافق روی جزئیات فنی قانون هوش مصنوعی (AI Act) صورت گرفته. اروپا به تصویب قوانین جدیدی که استفاده از هوش مصنوعی رو مدیریت میکند، نزدیکتر شده. این قوانین شامل استفاده از هوش مصنوعی تو بخشهای مختلف از جمله بانکداری، خردهفروشی و حتی خطوط هوایی هستش. همچنین، الزاماتی هم برای استفاده از هوش مصنوعی در اهداف نظامی و امنیتی هم در نظر گرفتن.
در کل به نظر میاد قوانینی که برای هوش مصنوعی تعیین میشن، هم خیلی کارایی ندارن. چرا که این تکنولوژی چنان راحت تغییر میکنه که اصلا نمیشه قوانین رو به روز نگه داشت. هوش مصنوعی از وقتی به دنیا اومده، خیلی سریع تغییر کرده و استفاده ازش هم خیلی متنوع شده.
در واقع، تکنولوژی هوش مصنوعی خیلی با تجربیات قبلی ما فرق داره. اینقدر سریع پیشرفت میکنه که حقوق و قانونگذار نمیتونه باهاش رقابت کنه. از زمانی که هوش مصنوعی در دسترس عموم قرار گرفته، فقط یک سال نمیگذره ولی در این مدت کوتاه، خیلی تغییر کرده و کاراییش خیلی متفاوت شده.
با این حال، اینکه دولتها بتونن خطرات هوش مصنوعی رو کنترل کنن، خیلی مهمه. برای مثال، قوانینی برای حفظ حریم خصوصی کاربران، امنیت ملی، حق نسخهبرداری و ارائه محتوای مناسب برای کودکان و نوجوانان باید وضع بشن. ولی تا الان، قوانین مناسبی برای همچین چیزهایی تعیین نشده و دولتها همچنان دارن سعی میکنن قوانین مناسبی رو برای هوش مصنوعی پیدا کنن.
هوش مصنوعی واقعاً یه پدیده شگفتآوره! انگاری احتیاجه که خودش برای خودش قانون طرح کنه!
کارشناسای حقوقی هم میگن تو ایران مشکلاتی تو فرآیند ایجاد قوانین در حوزه هوش مصنوعی وجود داره. از یه طرف، مسئولان کلا منکر تکنولوژی هستند و عجلهای برای روبرو شدن باهاش ندارن و فکر میکنن سالها طول خواهد کشید تا یک ابزار فراگیر بشه (کلاک ریتشون پایینه!). از طرف دیگه، نظام حقوقی ناکارآمده و این باعث میشود که تنظیم قوانین مربوط به فناوریهای جدید تو ایران دشوار بشه.
رعایت حریم خصوصی کاربران خیلی اهمیت داره و به نظر کسبوکارها باید با رعایت خطقرمزها فعالیت کنن و در عین حال به حریم خصوصی کاربران را احترام بذارن. دیپ فیک (ابزار تولید محتوای غیرواقعی) هم که این مدت شاهکار کرده حقوقدانها معتقدن این تکنولوژی میتونه برای امنیت ملی خطراتی به دنبال داشته باشه اما با سرعت رشد این فناوری، نمیشه از نفوذش به بخشهای مختلف جلوگیری کرد.
به نظرم قانونگذاری در زمینه هوش مصنوعی به چالش بزرگ دوستان در حوزه علوم انسانی تبدیل شده. همونطور که سالها پیش یکی از دوستان علوم انسانی میگفت مهندسی کور هستش و بدون در نظر گرفتن عواقب کار،تکنولوژی رو گسترش میده، به نظرم این بار امکان داره عواقب بسیار نامناسبتری برای جامعه داشته باشه و بهتره یه فکر اساسی برای سرعت ایجاد و تصویب قوانین کرد.
@Ai_Events
سرعت تکنولوژیهایی مثل هوشمصنوعی به صورت نمایی بالا رفته و قانونگذار هم نمیتونه قوانین خودش رو با چنین سرعتی تطبیق بده. از طرفی هم قانونگذاری برای هوشمصنوعی چالشهای زیادی داره، مخصوصاً که هر روز که مدلهای جدیدی هم اضافه میشن و با سرعت غیرقابل تصوری به ترند تبدیل میشن.
این چالش تو ایران داستانهای بیشتری داره، چون هم انکار تکنولوژی وجود داره هم مسايل حقوقی، سیاسی و ... بیشتری هم باید مد نظر گرفته بشه. از طرفی، توسعه هوش مصنوعی باید با حفظ حقوق و آزادی افراد توازن داشته باشه، مثل حفاظت از حریم شخصی و استفاده منصفانه از دادههای افراد.
کشورهای پیشرفته همیشه به دنبال قوانین جدید برای کنترل هوش مصنوعی هستند تا امنیت و حریم خصوصی مردم را حفظ کنند. آمریکا به عنوان پیشروی در این زمینه، تازهترین قوانین خودش رو اعلام کرده. بر اساس این قوانین، دولت میخواد استفاده از هوش مصنوعی رو تو دولت و جامعه کنترل کنه و اینطوری از سوءاستفادهها جلوگیری کنه. این قوانین شامل ایجاد دستورالعملها و مقررات جدید برای آموزش مدلهای هوش مصنوعی هستش و همچنین تشویق به استفاده از هوش مصنوعی در دولت و مدرسهها! اما برخی انتقاد دارند که این اقدامات کافی نیستند و باید یک آژانس دولتی جدید برای نظارت بر هوش مصنوعی ایجاد بشه.
تو اروپا هم توافق حداکثری اتحادیهشون تو زمینه قوانین هوش مصنوعی برقرار شده. این توافق روی جزئیات فنی قانون هوش مصنوعی (AI Act) صورت گرفته. اروپا به تصویب قوانین جدیدی که استفاده از هوش مصنوعی رو مدیریت میکند، نزدیکتر شده. این قوانین شامل استفاده از هوش مصنوعی تو بخشهای مختلف از جمله بانکداری، خردهفروشی و حتی خطوط هوایی هستش. همچنین، الزاماتی هم برای استفاده از هوش مصنوعی در اهداف نظامی و امنیتی هم در نظر گرفتن.
در کل به نظر میاد قوانینی که برای هوش مصنوعی تعیین میشن، هم خیلی کارایی ندارن. چرا که این تکنولوژی چنان راحت تغییر میکنه که اصلا نمیشه قوانین رو به روز نگه داشت. هوش مصنوعی از وقتی به دنیا اومده، خیلی سریع تغییر کرده و استفاده ازش هم خیلی متنوع شده.
در واقع، تکنولوژی هوش مصنوعی خیلی با تجربیات قبلی ما فرق داره. اینقدر سریع پیشرفت میکنه که حقوق و قانونگذار نمیتونه باهاش رقابت کنه. از زمانی که هوش مصنوعی در دسترس عموم قرار گرفته، فقط یک سال نمیگذره ولی در این مدت کوتاه، خیلی تغییر کرده و کاراییش خیلی متفاوت شده.
با این حال، اینکه دولتها بتونن خطرات هوش مصنوعی رو کنترل کنن، خیلی مهمه. برای مثال، قوانینی برای حفظ حریم خصوصی کاربران، امنیت ملی، حق نسخهبرداری و ارائه محتوای مناسب برای کودکان و نوجوانان باید وضع بشن. ولی تا الان، قوانین مناسبی برای همچین چیزهایی تعیین نشده و دولتها همچنان دارن سعی میکنن قوانین مناسبی رو برای هوش مصنوعی پیدا کنن.
هوش مصنوعی واقعاً یه پدیده شگفتآوره! انگاری احتیاجه که خودش برای خودش قانون طرح کنه!
کارشناسای حقوقی هم میگن تو ایران مشکلاتی تو فرآیند ایجاد قوانین در حوزه هوش مصنوعی وجود داره. از یه طرف، مسئولان کلا منکر تکنولوژی هستند و عجلهای برای روبرو شدن باهاش ندارن و فکر میکنن سالها طول خواهد کشید تا یک ابزار فراگیر بشه (کلاک ریتشون پایینه!). از طرف دیگه، نظام حقوقی ناکارآمده و این باعث میشود که تنظیم قوانین مربوط به فناوریهای جدید تو ایران دشوار بشه.
رعایت حریم خصوصی کاربران خیلی اهمیت داره و به نظر کسبوکارها باید با رعایت خطقرمزها فعالیت کنن و در عین حال به حریم خصوصی کاربران را احترام بذارن. دیپ فیک (ابزار تولید محتوای غیرواقعی) هم که این مدت شاهکار کرده حقوقدانها معتقدن این تکنولوژی میتونه برای امنیت ملی خطراتی به دنبال داشته باشه اما با سرعت رشد این فناوری، نمیشه از نفوذش به بخشهای مختلف جلوگیری کرد.
به نظرم قانونگذاری در زمینه هوش مصنوعی به چالش بزرگ دوستان در حوزه علوم انسانی تبدیل شده. همونطور که سالها پیش یکی از دوستان علوم انسانی میگفت مهندسی کور هستش و بدون در نظر گرفتن عواقب کار،تکنولوژی رو گسترش میده، به نظرم این بار امکان داره عواقب بسیار نامناسبتری برای جامعه داشته باشه و بهتره یه فکر اساسی برای سرعت ایجاد و تصویب قوانین کرد.
@Ai_Events
What Tech Type Am I?
با استفاده از آدرس زیر میتونید جواب سوال بالا رو دریافت کنید.
این یه تست روانشناسی هستش که توسط شرکت IBM ارایه میشه و به شما میگه تیپ تِک شما چی هستش!
https://www.responsiblenlp.org/application-documents/
من خودم تست رو دادم چیزی نزدیکه به 15 دقیقه زمان گرفت و جوابش هم به صورت زیر در اومد:
Your Tech Type:
Experimental Strategist
@Ai_Events
با استفاده از آدرس زیر میتونید جواب سوال بالا رو دریافت کنید.
این یه تست روانشناسی هستش که توسط شرکت IBM ارایه میشه و به شما میگه تیپ تِک شما چی هستش!
https://www.responsiblenlp.org/application-documents/
من خودم تست رو دادم چیزی نزدیکه به 15 دقیقه زمان گرفت و جوابش هم به صورت زیر در اومد:
Your Tech Type:
Experimental Strategist
@Ai_Events
what is difference between diffusion models and generative models?
Diffusion models are a specific type of generative model, so while they share some similarities, they also have key differences:
Similarities:
* Both aim to generate new data: Both generative models and diffusion models are trained on existing data to learn its underlying patterns and distributions. They then use this knowledge to create new data points that resemble the original data.
* Both involve learning: Both types of models utilize machine learning algorithms to analyze and learn from data. However, the specific learning processes they employ differ.
Differences:
* Generation approach:
* Generative models: Build directly from scratch, often using neural networks to learn a mapping from a latent space (noise) to the data space.
* Diffusion models: Start with the actual data and gradually add noise to it (diffusion process). Then, they learn to reverse this process (denoising) to recover the original data. By manipulating the noise, they can create new data variations.
* Interpretability: Diffusion models can be more interpretable than some generative models due to the clear steps involved in their generation process. This can be helpful in understanding how the model works and what factors influence its outputs.
* Sample quality: Diffusion models have shown impressive results in generating high-quality, realistic images compared to some traditional generative models.
* Computational cost: Training diffusion models can be more computationally expensive than some generative models.
Here's an analogy:
Imagine building a sculpture.
* Generative model: Starts with a block of stone and carves away to create the desired shape.
* Diffusion model: Starts with the finished sculpture and adds layers of clay on top, then learns to remove the clay in the correct way to reveal the original sculpture again. By manipulating the clay differently, it can create variations of the sculpture.
I hope this clarifies the key differences between diffusion models and generative models!
@Ai_Events
Diffusion models are a specific type of generative model, so while they share some similarities, they also have key differences:
Similarities:
* Both aim to generate new data: Both generative models and diffusion models are trained on existing data to learn its underlying patterns and distributions. They then use this knowledge to create new data points that resemble the original data.
* Both involve learning: Both types of models utilize machine learning algorithms to analyze and learn from data. However, the specific learning processes they employ differ.
Differences:
* Generation approach:
* Generative models: Build directly from scratch, often using neural networks to learn a mapping from a latent space (noise) to the data space.
* Diffusion models: Start with the actual data and gradually add noise to it (diffusion process). Then, they learn to reverse this process (denoising) to recover the original data. By manipulating the noise, they can create new data variations.
* Interpretability: Diffusion models can be more interpretable than some generative models due to the clear steps involved in their generation process. This can be helpful in understanding how the model works and what factors influence its outputs.
* Sample quality: Diffusion models have shown impressive results in generating high-quality, realistic images compared to some traditional generative models.
* Computational cost: Training diffusion models can be more computationally expensive than some generative models.
Here's an analogy:
Imagine building a sculpture.
* Generative model: Starts with a block of stone and carves away to create the desired shape.
* Diffusion model: Starts with the finished sculpture and adds layers of clay on top, then learns to remove the clay in the correct way to reveal the original sculpture again. By manipulating the clay differently, it can create variations of the sculpture.
I hope this clarifies the key differences between diffusion models and generative models!
@Ai_Events
Ai Events️
what is difference between diffusion models and generative models? Diffusion models are a specific type of generative model, so while they share some similarities, they also have key differences: Similarities: * Both aim to generate new data: Both generative…
حتما تا حالا اسم مدلهای Diffusion رو شنیدید، متن بالا برای درک بهتر این نوع مدلها و تفاوت اونها با مدلهای Generative نوشته شده.
پیشنهاد میکنم مطالعه کنید و اگر نکتهای دارید حتما کامنت بذارید.
@Ai_Events
پیشنهاد میکنم مطالعه کنید و اگر نکتهای دارید حتما کامنت بذارید.
@Ai_Events
وزیر صمت: درگیر قیمت مرغ، تخم مرغ و شیر هستیم و به تحولاتی مثل هوش مصنوعی بیتوجهیم/ هنوز نتوانستهایم مسئله قیمت بنزین را حل کنیم/ به رهبری عرض کردم، مطرح کردن مسئله خودروی برقی، برای عبور از مسله بنزین است. [بدیهیات هم عرض کردن میخواد؟]
نیما نامداری در همایش چشمانداز اقتصاد ایران ۱۴۰۳:
استفاده از خودروهای خودران در امور تجاری رواج خواهد یافت. / پیشبینی شده که در آینده نزدیک شرکتهای تکنولوژی، خودرو با برند خود تولید خواهند کرد. مثلا اپل و گوگل به تولید خودرو خواهند پرداخت. / در زمینه مهارتها مدیران خودروسازیهای معتبر اعلام کردهاند که برای آنها تخصص هوش مصنوعی بیشترین اولویت را در استخدام نیرو دارد.
@Ai_Events
نیما نامداری در همایش چشمانداز اقتصاد ایران ۱۴۰۳:
استفاده از خودروهای خودران در امور تجاری رواج خواهد یافت. / پیشبینی شده که در آینده نزدیک شرکتهای تکنولوژی، خودرو با برند خود تولید خواهند کرد. مثلا اپل و گوگل به تولید خودرو خواهند پرداخت. / در زمینه مهارتها مدیران خودروسازیهای معتبر اعلام کردهاند که برای آنها تخصص هوش مصنوعی بیشترین اولویت را در استخدام نیرو دارد.
@Ai_Events
OOD Generalization Explained:
Out-of-Distribution (OOD) generalization refers to the ability of a machine learning model to perform well on data that differs significantly from the data it was trained on. This is a crucial challenge in real-world applications, where encountering truly unseen data is almost inevitable.
Here's a breakdown of the key aspects:
Traditional ML vs. OOD:
* Imagine training a model to recognize different types of flowers based on pictures from a garden. In traditional machine learning, the model is assumed to encounter similar pictures of flowers from the same garden (similar distribution).
* However, in the real world, the model might be shown pictures of exotic flowers from a rainforest, blurry underwater shots, or even hand-drawn illustrations of flowers (different distribution). These are all examples of out-of-distribution data.
Challenges of OOD Generalization:
* Models trained on specific data distributions often overfit to those patterns, struggling to generalize effectively to data with different characteristics.
* This can lead to misleading predictions on OOD data, potentially causing consequences depending on the application. For example, misdiagnosed medical images or incorrectly flagged emails.
Why is OOD Generalization Important?
* Robustness: Models able to handle OOD data are more reliable and trustworthy in real-world scenarios, adapting to unforeseen situations.
* Safety: In critical applications like self-driving cars or medical diagnosis, OOD detection and handling are crucial for safety and ethical considerations.
* Applicability: By generalizing beyond training data, models become more versatile and adaptable to wider contexts, enhancing their usefulness.
Techniques for OOD Generalization:
* Calibrated uncertainty estimation: Training models to assess their own confidence in predictions allows them to flag potentially OOD data.
* Anomaly detection: Building separate models to identify outlier data points that significantly deviate from the expected distribution.
* Domain adaptation: Adapting models to new domains with subtle differences, bridging the gap between training and OOD data.
@Ai_Events
Out-of-Distribution (OOD) generalization refers to the ability of a machine learning model to perform well on data that differs significantly from the data it was trained on. This is a crucial challenge in real-world applications, where encountering truly unseen data is almost inevitable.
Here's a breakdown of the key aspects:
Traditional ML vs. OOD:
* Imagine training a model to recognize different types of flowers based on pictures from a garden. In traditional machine learning, the model is assumed to encounter similar pictures of flowers from the same garden (similar distribution).
* However, in the real world, the model might be shown pictures of exotic flowers from a rainforest, blurry underwater shots, or even hand-drawn illustrations of flowers (different distribution). These are all examples of out-of-distribution data.
Challenges of OOD Generalization:
* Models trained on specific data distributions often overfit to those patterns, struggling to generalize effectively to data with different characteristics.
* This can lead to misleading predictions on OOD data, potentially causing consequences depending on the application. For example, misdiagnosed medical images or incorrectly flagged emails.
Why is OOD Generalization Important?
* Robustness: Models able to handle OOD data are more reliable and trustworthy in real-world scenarios, adapting to unforeseen situations.
* Safety: In critical applications like self-driving cars or medical diagnosis, OOD detection and handling are crucial for safety and ethical considerations.
* Applicability: By generalizing beyond training data, models become more versatile and adaptable to wider contexts, enhancing their usefulness.
Techniques for OOD Generalization:
* Calibrated uncertainty estimation: Training models to assess their own confidence in predictions allows them to flag potentially OOD data.
* Anomaly detection: Building separate models to identify outlier data points that significantly deviate from the expected distribution.
* Domain adaptation: Adapting models to new domains with subtle differences, bridging the gap between training and OOD data.
@Ai_Events
بچهها تا حالا در مورد Out-of-Distribution Generalization چیزی شنیدید؟ OODG یه مفهوم جالب تو یادگیری ماشین هست و متن بالا کمک زیادی میکنه تا بتونید متوجهش بشید.
این ویدیو هم کمک خوبی به متوجه شدن مشکل و راه حل میکنه:
https://www.youtube.com/watch?v=NliJwEGwUpA
@Ai_Events
این ویدیو هم کمک خوبی به متوجه شدن مشکل و راه حل میکنه:
https://www.youtube.com/watch?v=NliJwEGwUpA
@Ai_Events
YouTube
When and How CNNs Generalize to Out-of-Distribution Category-Viewpoint Combinations
CBMM researchers and authors, Spandan Madan, Xavier Boix, Helen Ho, and Tomotake Sasaki discuss their latest research that was published in Nature Machine Intelligence.
Paper and more information can be found here - https://cbmm.mit.edu/publications/when…
Paper and more information can be found here - https://cbmm.mit.edu/publications/when…
این پست آقای دکتر قدرت آبادی هم جذاب بود.
اینکه ایشون به زبان فارسی پست میذارن بسیار قابل احترام و ستایش هست.
@Ai_Events
اینکه ایشون به زبان فارسی پست میذارن بسیار قابل احترام و ستایش هست.
@Ai_Events
معاون حوزه علمیه: حوزه علمیه با سرعت به حوزه هوشمصنوعی ورود کرده است
مهدی رستمنژاد، معاون حوزههای علمیه:
🔹آیتالله اعرافی پیش از آنکه مدیر حوزه علمیه شوند، در قالب یک پروژه شخصی، مساله هوشمصنوعی را دنبال میکردند.
🔹سال گذشته نمایشگاهی در حوزه علمیه داشتیم که مرتبط با همین مباحث هوشمصنوعی بود.
🔹 برخی از افراد از وزارتخانه مرتبط دعوت شده بودند که برای آنها هم موجب اعجاب شده بود که حوزه علمیه با این سرعت به این حوزه ورود کرده است./ ایرنا
@Ai_Events
مهدی رستمنژاد، معاون حوزههای علمیه:
🔹آیتالله اعرافی پیش از آنکه مدیر حوزه علمیه شوند، در قالب یک پروژه شخصی، مساله هوشمصنوعی را دنبال میکردند.
🔹سال گذشته نمایشگاهی در حوزه علمیه داشتیم که مرتبط با همین مباحث هوشمصنوعی بود.
🔹 برخی از افراد از وزارتخانه مرتبط دعوت شده بودند که برای آنها هم موجب اعجاب شده بود که حوزه علمیه با این سرعت به این حوزه ورود کرده است./ ایرنا
@Ai_Events
معضل هک دادههای شخصی
نفوذ اخیر در سامانه دادگستری و افشای اطلاعات میلیونها پرونده قضایی هم از
حیث گستردگی اطلاعات و هم از نظر حساسیت آنها چنان اتفاق بزرگی است که قابل
مقایسه با هیچکدام از حملات پیشین نیست.
اغراق نیست اگر بگوییم وضعیت امنیت اطلاعات شهروندان اکنون به یک مساله امنیت ملی بدل شده است.
مشکل اصلی کماکان فقدان قانونی است که از دادههای شخصی مردم حفاظت کند.
متاسفانه بهدلیل بیاعتمادی به کیفیت فرآیند سیاستگذاری و نگرانی از اینکه نکند چنین قانونی به جای آنکه به حمایت از کاربران بپردازد به ابزاری برای
محدودیت بیشتر بدل شود، اکوسیستم اقتصاد دیجیتال هم در مطالبه چنین قانونی مردد و بیمیل است.
اما اتفاقات اخیر نشان داد حتی یک قانون بد، بهتر از بیقانونی فعلی است.
واقعا افراد چگونه میتوانند بابت سهلانگاری رخداده در قوه قضائیه به خود این قوه شکایت کنند؟
اگر به واسطه این افشای اطلاعات خساراتی متوجه افراد شود چه کسی این خسارات را پرداخت خواهد کرد؟
آیا دولتیها همان شدت و حدتی که در برخورد با بخش خصوصی دارند، در مواجهه با خودشان هم نشان میدهند؟
ما نیازمند قانونی هستیم که دادههای شخصی را تعریف کند، مسوولیتها را مشخص کند، کوتاهی را جرمانگاری کند و به مردم امکان بدهد اگر به واسطه این
کوتاهی خسارتی متوجه آنها شد بتوانند از مقصر، بدون تبعیض میان بخش خصوصی و دولتی، شکایت کنند.
👤 نیما نامداری
@Ai_Events
نفوذ اخیر در سامانه دادگستری و افشای اطلاعات میلیونها پرونده قضایی هم از
حیث گستردگی اطلاعات و هم از نظر حساسیت آنها چنان اتفاق بزرگی است که قابل
مقایسه با هیچکدام از حملات پیشین نیست.
اغراق نیست اگر بگوییم وضعیت امنیت اطلاعات شهروندان اکنون به یک مساله امنیت ملی بدل شده است.
مشکل اصلی کماکان فقدان قانونی است که از دادههای شخصی مردم حفاظت کند.
متاسفانه بهدلیل بیاعتمادی به کیفیت فرآیند سیاستگذاری و نگرانی از اینکه نکند چنین قانونی به جای آنکه به حمایت از کاربران بپردازد به ابزاری برای
محدودیت بیشتر بدل شود، اکوسیستم اقتصاد دیجیتال هم در مطالبه چنین قانونی مردد و بیمیل است.
اما اتفاقات اخیر نشان داد حتی یک قانون بد، بهتر از بیقانونی فعلی است.
واقعا افراد چگونه میتوانند بابت سهلانگاری رخداده در قوه قضائیه به خود این قوه شکایت کنند؟
اگر به واسطه این افشای اطلاعات خساراتی متوجه افراد شود چه کسی این خسارات را پرداخت خواهد کرد؟
آیا دولتیها همان شدت و حدتی که در برخورد با بخش خصوصی دارند، در مواجهه با خودشان هم نشان میدهند؟
ما نیازمند قانونی هستیم که دادههای شخصی را تعریف کند، مسوولیتها را مشخص کند، کوتاهی را جرمانگاری کند و به مردم امکان بدهد اگر به واسطه این
کوتاهی خسارتی متوجه آنها شد بتوانند از مقصر، بدون تبعیض میان بخش خصوصی و دولتی، شکایت کنند.
👤 نیما نامداری
@Ai_Events
🌱 هفتمین رویداد کاشتن برای آینده؛ با موضوع "ایران هوشمند و متصل"
"همراه با برگزاری آیین درختکاری🌱
سخنرانان:
آقای دکتر بابک حسین خلج
رئیس دانشکده مهندسی برق دانشگاه صنعتی شریف
(مدل های زبانی بزرگ و آینده مخابرات: شروع دنیایی نوین)
آقای مهندس حسین ریاضی:
بنیانگذار شرکت صنایع ارتباطی پایا
(تجربه کار آفرینی)
آقای دکتر حامد ساجدی
موسس و عضو هيئت مدیره شرکت دانشبنیان طنین پرداز
(توان بخشی شنوایی؛ بازگشت امید)
آقای دکتر حبیبالله اصغری
رییس پژوهشکده فناوری اطلاعات جهاد دانشگاهی
(توسعه ساختارهای فناوری؛ کلیدهای موفقیت در یک نمونه بومی)
زمان: سهشنبه 15 اسفند 1402
ساعت: 15 الی 19
مکان: خیابان کارگر شمالی، بالاتر از تقاطع جلال آلاحمد، دانشکدگان فنی دانشگاه تهران، سالن آمفیتئاتر دانشکده مهندسی برق و کامپیوتر
لینک ثبتنام
cct.isti.ir
@cct_isti
@Ai_Events
"همراه با برگزاری آیین درختکاری🌱
سخنرانان:
آقای دکتر بابک حسین خلج
رئیس دانشکده مهندسی برق دانشگاه صنعتی شریف
(مدل های زبانی بزرگ و آینده مخابرات: شروع دنیایی نوین)
آقای مهندس حسین ریاضی:
بنیانگذار شرکت صنایع ارتباطی پایا
(تجربه کار آفرینی)
آقای دکتر حامد ساجدی
موسس و عضو هيئت مدیره شرکت دانشبنیان طنین پرداز
(توان بخشی شنوایی؛ بازگشت امید)
آقای دکتر حبیبالله اصغری
رییس پژوهشکده فناوری اطلاعات جهاد دانشگاهی
(توسعه ساختارهای فناوری؛ کلیدهای موفقیت در یک نمونه بومی)
زمان: سهشنبه 15 اسفند 1402
ساعت: 15 الی 19
مکان: خیابان کارگر شمالی، بالاتر از تقاطع جلال آلاحمد، دانشکدگان فنی دانشگاه تهران، سالن آمفیتئاتر دانشکده مهندسی برق و کامپیوتر
لینک ثبتنام
cct.isti.ir
@cct_isti
@Ai_Events
اگه تو حوزه هوش مصنوعی و علوم داده مبتدی هستید و میخواید به صورت حرفهای تو این حوزهها فعالیت کنید، تو آموزشهایی که میبینید، زبان فارسی رو کاملا کنار بذارید.
شاید با خودتون بگید مباحث ابتدایی رو خوبه که به فارسی یاد بگیرید بعدش تو مراحل جلوتر زبان رو تغییر بدید، اما این راه هم جواب نمیده به چند دلیل؛
- یک: عادت میکنید که به فارسی آموزش ببینید؛
- دو: گوشتون به کلمههای تخصصی با تلفظ صحیح عادت نمیکنه؛
- سه: سرعت تغییر مباحث این حوزه اونقدر زیاد هست که اگه منتظر بمونید تا یکی بره اون آموزش رو ببینه، بعد بیاد محتوای فارسی تولید کنه برای شما، مشخصا از میانگین جامعه عقبتر حرکت خواهید کرد.
همه این موارد در آینده حرفهایتون بسیار تاثیرگذار خواهد بود.
یادتون باشه، شما نخبههای این خاک هستید، رو خودتون کار کنید و هر روز روی آموزش خودتون وقت در نظر بگیرید.❤
@Ai_Events
شاید با خودتون بگید مباحث ابتدایی رو خوبه که به فارسی یاد بگیرید بعدش تو مراحل جلوتر زبان رو تغییر بدید، اما این راه هم جواب نمیده به چند دلیل؛
- یک: عادت میکنید که به فارسی آموزش ببینید؛
- دو: گوشتون به کلمههای تخصصی با تلفظ صحیح عادت نمیکنه؛
- سه: سرعت تغییر مباحث این حوزه اونقدر زیاد هست که اگه منتظر بمونید تا یکی بره اون آموزش رو ببینه، بعد بیاد محتوای فارسی تولید کنه برای شما، مشخصا از میانگین جامعه عقبتر حرکت خواهید کرد.
همه این موارد در آینده حرفهایتون بسیار تاثیرگذار خواهد بود.
یادتون باشه، شما نخبههای این خاک هستید، رو خودتون کار کنید و هر روز روی آموزش خودتون وقت در نظر بگیرید.❤
@Ai_Events
وبینار بسیار جذاب با عنوان "آیا مغز ما آشوبناک است؟"
تئوری آشوب (Chaos Theory) یک چهارچوب نظری برای فهم بهتر سیستم های محتوم فراهم
میکند. سیستم های محتوم (Deterministic Systems) سیستم هایی هستند که
شرایط کنونی و دینامیک حاکم بر آنها شرایط آینده شان را تعیین میکنند.
آشوبناکی یک سیستم به این معناست که تغییرات کوچک در حالت سیستم با سرعت
نمایی گسترده شوند. طبیعتا برای قابل اعتماد بودن پردازش اطلاعات حسی,
دینامیک حاکم بر مغز ما نبایستی آشوبناک باشد. در این سمینار در ابتدا نشان
خواهم داد که فعالیت سلول های قشر مغز (Cerebral Cortex) محتوم اند. سپس
با بدست دادن مدلی از این سلول ها (Rapid Theta Neuron model) تلاش خواهیم
کرد که آشوبناکی در پردازش جمعی اطلاعات حسی را در این سیستم بررسی کنیم.
@CCNSD
برای حضور در وبینار، در روز سه شنبه ساعت ۱۴:۰۰، از طریق لینک زیر وارد جلسه شوید.
👇👇👇👇👇
http://meet.google.com/yuk-cbmv-tis
@Ai_Events
تئوری آشوب (Chaos Theory) یک چهارچوب نظری برای فهم بهتر سیستم های محتوم فراهم
میکند. سیستم های محتوم (Deterministic Systems) سیستم هایی هستند که
شرایط کنونی و دینامیک حاکم بر آنها شرایط آینده شان را تعیین میکنند.
آشوبناکی یک سیستم به این معناست که تغییرات کوچک در حالت سیستم با سرعت
نمایی گسترده شوند. طبیعتا برای قابل اعتماد بودن پردازش اطلاعات حسی,
دینامیک حاکم بر مغز ما نبایستی آشوبناک باشد. در این سمینار در ابتدا نشان
خواهم داد که فعالیت سلول های قشر مغز (Cerebral Cortex) محتوم اند. سپس
با بدست دادن مدلی از این سلول ها (Rapid Theta Neuron model) تلاش خواهیم
کرد که آشوبناکی در پردازش جمعی اطلاعات حسی را در این سیستم بررسی کنیم.
@CCNSD
برای حضور در وبینار، در روز سه شنبه ساعت ۱۴:۰۰، از طریق لینک زیر وارد جلسه شوید.
👇👇👇👇👇
http://meet.google.com/yuk-cbmv-tis
@Ai_Events
Google
Real-time meetings by Google. Using your browser, share your video, desktop, and presentations with teammates and customers.
پست جالب آقای پاول دروف، بنیانگذار تلگرام در مورد قطعی اینستاگرام:
Millions of people have been signing up and sharing content on Telegram in the last hour while Instagram and Facebook were down. Interestingly, Telegram is more reliable than these services — despite spending several times less on infrastructure per user.
We also have about 1000 times (!) fewer full-time employees than Meta, but manage to launch new features and innovate faster.
Throughout 2023, Telegram was unavailable for a total of only 9 minutes out of the year’s 525,600 minutes. That’s a 99.9983% uptime
https://www.tg-me.com/rove
@Ai_Events
Millions of people have been signing up and sharing content on Telegram in the last hour while Instagram and Facebook were down. Interestingly, Telegram is more reliable than these services — despite spending several times less on infrastructure per user.
We also have about 1000 times (!) fewer full-time employees than Meta, but manage to launch new features and innovate faster.
Throughout 2023, Telegram was unavailable for a total of only 9 minutes out of the year’s 525,600 minutes. That’s a 99.9983% uptime
https://www.tg-me.com/rove
@Ai_Events