15 апреля OpenAI опубликовала новую версию Preparedness Framework – внутренней системы оценки и управления рисками, связанными с «передовыми» ИИ-моделями. Обновление отражает подготовку к запуску систем нового уровня, которые уже возможно будут способны причинить какой-либо вред — от массовых кибератак до ускоренного биоинжиниринга.
AI self-improvement - теперь OpenAI отслеживает, может ли модель ускорить собственное развитие или R&D-процессы.
Приоритетными для отслеживания считаются риски, которые являются возможными, измеримыми, серьёзными, новыми по характеру и мгновенными или необратимыми.
Хотя ручное тестирование не отменено полностью, компания развивает «набор автоматических оценок», которые позволяют сохранить высокую скорость релизов.
Если другая лаборатория выпустит высокорисковую модель без достаточных мер защиты, OpenAI может скорректировать свои требования к безопасности. Но при этом:
#AI #Safety #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍6🔥4🙏1
📎В Нидерландах также функционирует Голландская ассоциация ИИ и правам роботов (Dutch Association for AI and Robot Rights, NVAIR).
Общее регулирование ИИ в рамках Закона об ИИ (AI Act) ЕС читайте в постах про регулирование ИИ в Европейском союзе.
Нидерланды не обладают обширным законодательством в области данных, тем не менее это не мешает развивать создание дата-сетов для исследований как государственными органами, так и частными компаниями.
Тестирование беспилотных автомобилей на дорогах общего пользования в Нидерландах стало возможным 26 апреля 2018 года, когда был принят закон «Об экспериментах с беспилотными автомобилями» (Experiments Act on Self-driving Cars). Закон «Об экспериментах с беспилотными автомобилями» вносит изменения в существующий закон «О дорожном движении» 1994 года (Road Traffic Act 1994) и позволяет проводить эксперименты с беспилотными автомобилями после получения соответствующего разрешения.
🧬 Регулирование ИИ в медицине
В сфере здравоохранения Нидерланды также руководствуется законодательством ЕС. В Нидерландах регистрация медицинских изделий отнесена к компетенции Министерства здравоохранения, социального обеспечения и спорта (the Ministry of Health, Welfare and Sport Agency, CIBG).
Концепция ELSA (Ethical, Legal, and Social Aspects) была разработана в рамках инициативы Нидерландской коалиции по ИИ (NL AIC) для обеспечения этичного, правового и социально ответственного использования ИИ.
#ИИ #ГлобальныйАтлас #ЕС #Нидерланды
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍5🔥5
Сразу две крупные технологические компании – Apple и Meta – заявили об обновлении своих стратегий по обучению ИИ на пользовательском контенте.
Поэтому компания решила прибегнуть к использованию персональных данных, не пренебрегая мерами обеспечения конфиденциальности:
Вместо этого компания будет сравнивать синтетические данные с реальными примерами – например, письмами в почтовом приложении – чтобы улучшить качество функций генерации текста.
Компания утверждает, что в декабре коллегия европейских регуляторов по защите данных подтвердила соответствие её изначального подхода юридическим требованиям.
* Meta признана в России экстремистской организацией и запрещена
#AI #Data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3🔥2🤩1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5🔥3🤩1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍6⚡3🔥2💯2
При новом главе FTC Эндрю Фергюсоне комиссия взяла курс на снижение регуляторного давления на ИИ-компании. Член FTC Мелисса Холяк заявила, что чрезмерные ограничения на сбор данных для обучения моделей могут затормозить инновации и дать преимущество крупным игрокам.
#AI #Regulation #USA #FTC #Data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤5🙏4🔥1💯1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥4🤩4👍3
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍5🔥3🤩1
30 апреля Главное управление по делам киберпространства КНР объявило о кампании по борьбе с незаконным использованием ИИ.
Этап
Этап
#AI #Regulation #China
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥5💯4❤2🤔1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥6❤3🙏3🤩1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4🤩4❤3🙏1
🇪🇺 EDPB выпустил рекомендации по защите данных в больших языковых моделях (LLMs)
📅 В апреле 2025 года Европейский комитет по защите данных (EDPB) представил доклад «AI Privacy Risks & Mitigations for LLMs». Документ подготовлен в рамках инициативы Support Pool of Experts (SPE) и стал первым специализированным руководством по рискам конфиденциальности при использовании больших языковых моделей в соответствии с требованиями GDPR.
🔍 Ключевые аспекты доклада:
⚡️ Как возникают риски?
EDPB подчёркивает, что даже при обучении на открытых данных LLM могут неосознанно запомнить персональную или чувствительную информацию.
✔️ Основные угрозы:
🔵 генерация ответов, содержащих реальные персональные данные,
🔵 возможность извлечения данных через специальные запросы,
🔵 нарушение принципа минимизации и неконтролируемое воспроизведение информации.
✏️ Юридическая квалификация участников
Документ поясняет, как определить роли контролёра и процессора данных при использовании LLM:
🔵 кто отвечает за выбор цели и средств обработки,
🔵 кто предоставляет ИИ как услугу,
🔵 как распределяется ответственность при совместной обработке.
✔️ Особое внимание уделяется сложным случаям, когда модель обучена третьей стороной, а используется конечным заказчиком.
🛡 Предлагаемые меры смягчения рисков
EDPB предлагает практические решения, в том числе:
🔵 внедрение механизмов ограничения «запоминаемости» модели,
🔵 минимизация использования персональных данных на этапе обучения,
🔵 реализация технических мер контроля доступа и логирования,
🔵 регулярная переоценка рисков и аудит моделей,
🔵 обеспечение прозрачности через уведомления пользователей и публичную документацию,
🔵 включение принципов Privacy by Design & by Default на всех этапах работы с ИИ.
🖥 Рекомендации для организаций из доклада:
🔵 Проводить DPIA (оценку воздействия на защиту данных) до внедрения или использования LLM, особенно если предполагается обработка персональных данных;
🔵 Не полагаться на «открытый статус» моделей как оправдание: даже open-source решения подлежат правовому контролю в рамках GDPR;
🔵 Обеспечивать прозрачность: пользователь должен понимать, как система устроена, какие данные она может использовать, и кто несёт за это ответственность;
🔵 Фиксировать юридические отношения между поставщиками и пользователями моделей, включая распределение ответственности в случае утечки или нарушения прав субъектов данных.
📅 В апреле 2025 года Европейский комитет по защите данных (EDPB) представил доклад «AI Privacy Risks & Mitigations for LLMs». Документ подготовлен в рамках инициативы Support Pool of Experts (SPE) и стал первым специализированным руководством по рискам конфиденциальности при использовании больших языковых моделей в соответствии с требованиями GDPR.
EDPB подчёркивает, что даже при обучении на открытых данных LLM могут неосознанно запомнить персональную или чувствительную информацию.
Документ поясняет, как определить роли контролёра и процессора данных при использовании LLM:
EDPB предлагает практические решения, в том числе:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤4👍2🤩2💯2
🏛Ответственным государственным органом за реализацию Стратегии является Министерство высшего образования, исследований и инноваций (Ministry of Higher Education, Research and Innovation).
Общее регулирование ИИ в рамках Закона об ИИ (AI Act) ЕС читайте в постах про регулирование ИИ в Европейском союзе
.15 февраля 2021 года Национальная комиссия информационных технологий и свобод (National Commission On Informatics And Liberty) опубликовала законодательную инициативу, устанавливающую регуляторную “песочницу” в сфере цифрового здравоохранения с использованием персональных данных.
На национальном уровне регулирование обработки персональных данных, в т.ч. автоматизированными системами, осуществляется посредством применения Закона “Об обработке данных, файлов данных и личных свободах” (Act on Data Processing, Data Files and Individual Liberties).
Во Франции действует Национальная стратегия развития беспилотной транспортной мобильности 2022-2025 (The French strategy for the development of automated road mobility 2022-2025), опубликованная в мае 2018 года и обновленная в 2022 году, в которой указаны ключевые приоритеты для беспилотных транспортных средств.
🧬 ИИ в здравоохранении
Правительство Франции объявило о запуске Центра данных здравоохранения (Health Data Hub) - национальной инициативы, которая напрямую отвечает на двойной вопрос - использования и защиты данных.
Во Франции учрежден Французский национальный пилотный комитет по цифровой этике (National Consultative Committee On Ethics For Artificial Intelligence) (создан по поручению Премьер-министра). Комитет состоит из 27 участников, объединяет специалистов в области цифровых технологий, философов, врачей, юристов и представителей гражданского общества.
Во Франции органом, осуществляющим деятельность в области национальной стандартизации, является Французская ассоциация по стандартизации (French Standardization Association, AFNOR). В рамках данной организации учреждена Комиссия по стандартизации в области ИИ (Artificial Intelligence AFNOR/CN IA), задачей которой является разработка свода стандартов в области ИИ.
#ИИ #ГлобальныйАтлас #ЕС #Франция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🙏2❤1🔥1💯1
В Палате представителей США обсуждается поправка в бюджетный законопроект, предложенная республиканцами, которая на
Этот шаг стал ответом на волну инициатив по защите прав граждан от автоматизированных решений в сфере найма, аренды жилья и социальных выплат.
#AI #Regulation #USA
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4🔥4
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥3🤩2⚡1
* Meta признана в России экстремистской организацией и запрещена
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4👏2🔥1🤩1💯1
Европейское ведомство интеллектуальной собственности (EUIPO) представило исследование о взаимодействии технологий генеративного ИИ с авторским правом.
Модели ИИ требуют большого объёма данных для обучения, что стимулирует формирование рынка лицензирования контента.
Национальные IP-ведомства и EUIPO могут:
#AI #Regulation #Copyright #IP #GenAI #EUIPO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4🙏3
📍Целью Стратегии является определение общего направления деятельности, связанной с ИИ, и формирование основ для будущего развития.
Общее регулирование ИИ в рамках Закона об ИИ (AI Act) ЕС читайте в постах про регулирование ИИ в Европейском союзе.
В Швеции действует регуляторная песочница FinTech, созданная в Стокгольме в 2018 году шведским Управлением финансового надзора (Financial Supervisory Authority). Данный режим введен в целях сохранения и развития потенциала страны в финансовом секторе.
В Швеции функционируют инновационные проекты «AI Sweden» и «Data Factory», благодаря которым исследователям данных возможно получить различные наборы данных для обучения моделей нейронных сетей как бесплатно, так и по лицензионному договору.
Шведское транспортное агентство (Swedish Transport Agency) устанавливает процедуру и выдает разрешения на тестовую эксплуатацию автоматизированных транспортных средств на дорогах общего пользования. Субъект, который запрашивает такое разрешение, должен доказать, что эксплуатация проводится безопасным для дорожного движения образом, а также соответствует установленной процедуре.
🧬 ИИ в здравоохранении
ПО с ИИ, являющимся частью медицинского устройства, должно соответствовать требованиям Регламента ЕС о медицинских изделиях (Regulation 2017/745 on medical devices) и Регламента о диагностике In Vitro (Regulation 2017/746 on in vitro diagnostics). Согласно Руководству по регистрации медицинских изделий в Швеции (Guideline for Registration of medical devices in Sweden), нормативная скорость регистрации медицинских изделий составляет максимум 2 месяца со дня подачи заявки.
В сфере этики ИИ в Швеции учрежден Комитет по технологическим инновациям и этике (The Committee for Technological Innovation and Ethics) (при Правительстве Швеции).
Вопросами стандартизации, в т. ч. в области технологий ИИ, занимается Шведский институт стандартов (Swedish Institute for Standards) - некоммерческая организация, специализирующаяся на национальных и международных стандартах, представляющая Швецию в ISO.
#ИИ #ГлобальныйАтлас #ЕС #Швеция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤5💯3
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤4🔥3