Telegram Web Link
🇪🇺 Европейский союз представил Apply AI Strategy

Еврокомиссия опубликовала стратегию Apply AI – план массового внедрения ИИ с фокусом на AI-first, поддержку open-source и технологический суверенитет. Документ дополняет AI Act и AI Continent Plan. По данным Комиссии, ИИ в ЕС используют лишь 13,5% компаний, поэтому стратегия делает акцент на практическом внедрении.

Стратегия предусматривает 3️⃣ основных направления ее реализации.

🏭 Секторальные программы
Apply AI делает ставку на реальные кейсы. Для 1️⃣0️⃣ ключевых отраслей – от здравоохранения и транспорта до креативных индустрий и госуправления – Еврокомиссия предлагает набор флагманских инициатив, которые помогут протестировать ИИ в действии и масштабировать удачные решения по всему Союзу.

🚀 Меры по преодолению барьеров
Чтобы устранить барьеры для внедрения ИИ, стратегия объединяет инфраструктуру, кадры и регулирование в единую систему. В ЕС появятся «центры опыта по ИИ» для малого бизнеса, тестовые полигоны и регуляторные песочницы, а также новые образовательные треки и инструменты по комплаенсу с AI Act.

🫡 Управление и координация
Для согласованных действий создаётся форум Apply AI Alliance, который объединит бизнес, науку и государство. Его работу дополнит AI Observatory – центр аналитики и мониторинга, где будут собираться данные о внедрении ИИ, инвестициях и тенденциях по всему континенту.

Параллельно с Apply AI выходит AI in Science Strategy – документ, нацеленный на развитие ИИ в научных исследованиях. Программа строится на 2️⃣ направлениях:
🔵 Science for AI – развитие базовых технологий ИИ;
🔵 AI in Science – применение ИИ для ускорения открытий в разных дисциплинах.

📇 К концу октября ожидается и Data Union Strategy – инициатива по созданию масштабных, высококачественных наборов данных для обучения моделей и развития европейской экосистемы ИИ.

#EU #AI #ApplyAI #AIAct
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍4🔥3🤡1
🇷🇺 ИИ в России: топ-5 событий прошедшей недели

1️⃣ Правительство России утвердило план по внедрению беспилотных грузовиков 5-го уровня автоматизации, предусматривающий разработку соответствующей нормативной базы.

2️⃣ В Госдуме готовят законопроект о блокировке созданного ИИ деструктивного контента, вызывающего агрессию или ненависть.

3️⃣ Краснодарский суд признал законным приговор, в котором защита заподозрила использование ИИ при его написании.

4️⃣ Консорциум исследований безопасности ИИ разработал концепцию реестра доверенных ИИ-решений.

5️⃣ По оценке НИУ ВШЭ, совокупные потери авторов и других правообладателей от использования контента, сгенерированного с помощью ИИ, с 2025 по 2030 год достигнут 1 трлн руб.
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍6🔥5
🌐 ИИ в мире: топ-5 событий прошедшей недели

1️⃣ ЕС готовит реформу цифрового регулирования, которая упростит правила об ИИ, кибербезопасности и конфиденциальности.

2️⃣ Правительство Японии потребовало от OpenAI прекратить использовать мангу и аниме без разрешения, назвав их «незаменимыми культурными сокровищами».

3️⃣ Губернатор Калифорнии наложил вето на законопроект, запрещающий детям пользоваться чат-ботами с ИИ, о подписал закон о мерах безопасности для несовершеннолетних при общении с ИИ.

4️⃣ Судебная система Нью-Йорка утвердила правила использования ИИ.

5️⃣ OpenAI создала Экспертный совет по вопросам благополучия и ИИ, который будет консультировать компанию по этике и психическому здоровью пользователей.
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍6🔥3
🎭 НИУ ВШЭ оценил потери авторов от генеративного контента

Исследователи НИУ ВШЭ на форуме «IPQuorum.Музыка» объявили, что к 2030 году совокупные потери российских авторов, музыкантов, журналистов и других правообладателей от распространения и использования контента, созданного ИИ, могут превысить 1 трлн рублей.

📊 Исследователи выделили два типа ущерба:
1️⃣ Замещение труда авторов — снижение числа и оплаты заказов из-за использования генеративных инструментов (935 млрд руб. за 5 лет).
2️⃣ Падение доходов от оборота ИИ-контента — 68,5 млрд руб., включая 38,9 млрд от распространения произведений в интернете.

Было выделено 1️⃣2️⃣ групп, наиболее подверженных рискам от использования ИИ:
1️⃣ Переводчики и лингвисты: к 2030 г. генеративные произведения могут достичь трети всего контента в этой профессиональной сфере.
2️⃣ Писатели, поэты, литераторы и композиторы (28%).
3️⃣ Программисты и разработчики приложений (26%).
4️⃣ Журналисты (24%).
5️⃣ Специалисты по рекламе и маркетингу (22%).

💱 Самый крупный ущерб понесут программисты и разработчики (542 млрд руб.), специалисты по рекламе и маркетингу (170 млрд руб.) и переводчики (49 млрд руб.). По дистрибуции ИИ-контента сильнее всего пострадают писатели (42 млрд руб.) и музыканты (25 млрд руб.).

💬 Эксперты НИУ ВШЭ отмечают, что генеративные нейросети меняют структуру творческих индустрий, снижая порог входа для непрофессионалов и усиливая конкуренцию, что пока ведёт к перераспределению доходов не в пользу профессиональных авторов.

#ИИ #АвторскоеПраво #Регулирование
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥65🤔5🤡4
Сделают ли в ЕС реформу цифрового законодательства - как обещают?

Выше в одной из новостей мы писали про планы ЕС смягчить все цифровое законодательство союза, включая одиозный AI Act.
Эта новость кажется особенно важной и хорошо если бы она не потерялась.

Еще 16 сентября на сайте ЕС появилась информация о сборе предложений по смягчению требований законодательства ЕС об охране данных, кибербезопасности и ИИ.

Полученные фидбэки, кстати, можно почитать здесь.

Что планируется - точнее, ожидается, - в этом цифровом пакете ("digital omnibus"):
- Упрощение правил использования файлов cookie и других технологий отслеживания, чтобы согласовать их с GDPR и "Digital Service Act"
- Гармонизация требований по отчетности о киберинцидентах
- Уточнение категорий высокорисковых систем в сфере искусственного интеллекта и обязательств для моделей общего назначения
- Снижение бюрократической нагрузки и сложностей для компаний, ведущих бизнес в ЕС, за счет упрощения и устранения дублирующихся правил
- Повышение инновационной привлекательности и конкурентоспособности цифрового рынка ЕС (какими-то другими способами)

Разумеется, сразу же начались публикации и со стороны недовольных таким поворотом вещей юристов. Показательна цитата в статье: все пропало, "европейцам остается полагаться только на Хартию ЕС, чтобы защищать свое право на неприкосновенность личной жизни, в то время как технологические гиганты США будут пользоваться полной свободой (carte blanche) для эксплуатации наших данных с целью получения прибыли".

Каким будем дерегуляционный пакет мы узнаем 19 ноября.

Независимо от исхода дела судьба AI Act остается одним из самых интересных экспериментов в истории регулирования.

Акт, который опередил время? Закон, нанесший огромный удар по инновациям? Единственный в мире щит для людей от развития ИИ? Пример? Антипример?

Тут сложно остаться равнодушным. Наблюдаем
4👍3🔥3
🇷🇺 ИИ в России: топ-5 событий прошедшей недели

1️⃣ Владимир Путин заявил, что суверенные модели ИИ можно создать только на основе российской культуры, языка и традиционных ценностей.

2️⃣ Совбез РФ обсудил угрозы национальной безопасности, связанные с использованием ИИ, и предложил создать профильные центры и нормативную базу для их нейтрализации.

3️⃣ Минцифры России в течение 2026 года планирует поэтапный запуск базы данных для обучения государственных ИИ-сервисов.

4️⃣ Минобрнауки России сформирует каталог наиболее эффективных практик использования ИИ в системе высшего образования.

5️⃣ Председатель Верховного суда Игорь Краснов поручил активнее внедрять ИИ в работу судов для анализа практики и цифровизации правосудия.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85🙏4
🌐 ИИ в мире: топ-5 событий прошедшей недели

1️⃣ Вьетнам представил законопроект об ИИ, основанный на риск-ориентированном подходе ЕС.

2️⃣ Индийское правительство опубликовало проект правил по обязательной маркировке ИИ-контента.

3️⃣ Reddit подал в суд на Perplexity и другие компании за веб-скрейпинг комментариев пользователей в промышленных масштабах для обучения ИИ-моделей.

4️⃣ Более 800 публичных личностей подписали открытое письмо, призывающее к запрету на разработку AGI до тех пор, пока не будет достигнут широкий научный консенсус относительно его безопасности и управляемости.

5️⃣ OpenAI усилила защитные меры Sora 2 после жалобы актера Брайана Крэнстона, чьё изображение и голос пользователи сгенерировали без его согласия.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍86🙏4
🧠 OpenAI создала Экспертный совет по вопросам благополучия и ИИ

Компания представила Expert Council on Well-Being and AI - группу из восьми ведущих исследователей в области психологии, психиатрии и взаимодействия человека с технологиями. Совет будет помогать формировать подходы OpenAI к созданию безопасных и поддерживающих пользователей функций в ChatGPT и Sora.

👥 В совет вошли эксперты из Гарварда, Оксфорда, Стэнфорда и Georgia Tech, исследующие влияние технологий на эмоции, мотивацию и психическое здоровье.

Чем будет заниматься совет?
🔵 консультировать OpenAI по вопросам этичного и безопасного поведения моделей в чувствительных ситуациях;
🔵 помогать разрабатывать инструменты вроде родительского контроля и систем оповещения о рисках для подростков;
🔵 формировать представление о том, как ChatGPT может улучшать эмоциональное благополучие пользователей.

🌐 Параллельно OpenAI сотрудничает с врачами и психиатрами из Global Physician Network, чтобы проверять реакции модели в реальных сценариях и адаптировать политику компании с учётом клинических рекомендаций.

#OpenAI #AI #Safety
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥2🤡1
🇻🇳 Вьетнам представил проект Закона об искусственном интеллекте

Министерство науки и технологий Вьетнама опубликовало проект первого самостоятельного Закона об ИИ. Документ заменит положения о нейросетях в Законе о цифровой индустрии и создаст единый режим регулирования ИИ.

⚙️ Основные положения
🔵 вводится четырёхуровневая классификация рисков по модели европейского AI Act: от запрещённых до низкорисковых систем;
🔵 для систем высокого риска обязательны оценка соответствия, регистрация и человеческий надзор;
🔵 закреплены принципы человекоцентричности, прозрачности, безопасности и национального суверенитета;
🔵 регулируются модели общего назначения (GPAI), устанавливая требования к документации, авторскому праву и кибербезопасности;
🔵 создаются регуляторные песочницы, Национальный фонд развития ИИ и налоговые стимулы для стартапов.

🧑‍⚖️ Контроль за исполнением и санкции
За надзор будет отвечать Национальная комиссия по ИИ, при участии Министерства науки и технологий. За серьёзные нарушения предусмотрены штрафы, привязанные к мировому обороту, по аналогии с AI Act.

🔍 Нарушениями считаются
🔵 разработка или использование запрещённых систем,
🔵 несоблюдение требований к системам высокого риска,
🔵 нарушение правил регистрации, отчётности и оценки соответствия,
🔵 воспрепятствование проверкам или предоставление ложных данных.

🗓️ Внедрение закона будет поэтапным: с 2026 по 2029 год – от создания Национальной комиссии и Фонда развития ИИ до полного введения требований для систем высокого риска и переходного периода для действующих решений.

#Vietnam #AI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥3
🤖 Очередной призыв остановить разработку «сверхинтеллекта»

Более 8️⃣5️⃣0️⃣ общественных деятелей, учёных и предпринимателей подписали открытое заявление с призывом запретить создание искусственного интеллекта, превосходящего человека по всем когнитивным способностям.

Среди подписантов:
🔵сооснователь Apple Стив Возняк,
🔵учёные Йошуа Бенжио, Джеффри Хинтон и Стюарт Рассел,
🔵принц Гарри и Меган Маркл,
🔵бывший президент Ирландии Мэри Робинсон,
🔵экс-глава Комитета начальников штабов США Майк Маллен.

📍 В заявлении говорится, что гонка за «сверхинтеллектом» несёт экзистенциальные и социальные риски: от потери контроля и гражданских свобод до угроз национальной безопасности и даже вымирания человечества. Подписанты требуют запретить разработку подобных систем, пока не будет научного консенсуса и общественного согласия на их безопасное создание.

Авторы заявления ссылаются на опрос Future of Life Institute, показавший, что только 5️⃣🔤 американцев поддерживают нынешние «ускоренные и нерегулируемые» темпы развития сверхинтеллекта.

💬 Профессор Йошуа Бенжио отметил, что в ближайшие годы системы ИИ смогут превосходить человека в большинстве когнитивных задач, что может помочь решать глобальные проблемы, но также несёт огромные риски.

«Чтобы безопасно двигаться к сверхинтеллекту, мы должны научно определить, как создавать системы, не способные причинить вред человеку, будь то из-за ошибок или злоумышленного использования», — подчеркнул он.


#AI #Superintelligence #Regulation #Ethics #Safety
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍5🔥5
🇷🇺 ИИ в России: топ-5 событий прошедшей недели

1️⃣ Правительство РФ планирует дать бизнесу доступ к федеральной платформе открытых данных для обучения ИИ.

2️⃣ Минпромторг представил обновлённую стратегию развития беспилотной авиации России до 2030 года, предусматривающую рост доли отечественных дронов и технологической независимости отрасли.

3️⃣ В правительстве России создана рабочая группа с участием энергетических, технологических компаний и органов власти, которая изучит варианты энергоснабжения дата-центров для ИИ.

4️⃣ Суд запретил использовать изображения, созданные ИИ, в предвыборной агитации, сочтя их манипулятивными и способными искажать восприятие кандидатов.

5️⃣ Национальная федерация музыкальной индустрии предложила приравнять использование образов человека без его согласия к нарушению интеллектуальных прав, предусматривая компенсации и штрафы по аналогии с авторским правом.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73🔥3
🌐 ИИ в мире: топ-5 событий прошедшей недели

1️⃣ США подписали соглашения с Японией и Южной Кореей о сотрудничестве в сфере ИИ, чипов и биотехнологий для укрепления технологического партнёрства и снижения зависимости от Китая.

2️⃣ Китай утвердил план научно-технического развития на 2026–2030 годы, включающий усиление исследований в области ИИ, а также продвижение инициативы «AI Plus» как нового двигателя экономического роста.

3️⃣ Министр науки, инноваций и технологий Великобритании представила новый план регулирования ИИ, направленный сокращение бюрократии и создание регуляторных песочниц.

4️⃣ Австралия рассматривает изменения в Законе об авторском праве в части использования ИИ, включая создание системы коллективного лицензирования и упрощение судебной защиты правообладателей.

5️⃣ Китай планирует внести поправки в Закон о кибербезопасности, добавив положения об ИИ для усиления мониторинга и надзора за рисками.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥43
Сегодня в Самарканде проходит церемония вручения Премии ЮНЕСКО за научные исследования в сфере этики ИИ имени Абу Райхона Беруни.

Это новая международная награда, учрежденная в 2024 году по инициативе Узбекистана и одобренная Исполнительным советом ЮНЕСКО. Премия направлена на поддержку этических исследований и разработок в области искусственного интеллекта и будет вручаться раз в два года за выдающиеся проекты, способствующие развитию этики, инклюзивности и международного сотрудничества в сфере ИИ.

Лауреаты получают денежное вознаграждение в размере 30 тысяч долларов США, медали и сертификаты ЮНЕСКО, респект и уважение мирового сообщества.

Итак, вести с полей о победителях:

1. Prof. Virgilio Augusto Fernandes Almeida, Бразилия. Он работает в Федеральном университете Минас-Жерайс и в Гарвардском университете.

2. Claudia Roda & Susan Perry, Италия и США соответственно. Они работают на кафедре ЮНЕСКО по ИИ и правам человека в Американском университете Парижа.

3. Institute of AI Governance Университета Цинхуа, Китай. Награду получает профессор Xue Lan.

Интересно что инициатива учреждения такой премии в 2021 году уже исходила от другой страны; жаль тогда не сложилось.
👍73🔥3
🇬🇧 Великобритания представила новый план регулирования ИИ

21 октября Министр науки, инноваций и технологий Великобритании Лиз Кендалл объявила о новом плане регулирования ИИ в стране. Документ запускает AI Growth Lab – инициативу, которая позволит компаниям тестировать ИИ-продукты в регуляторных песочницах с временным смягчением правил под строгим контролем государства.

Цели плана:
ускорить внедрение ИИ;
сократить бюрократию;
повысить экономический рост, сохраняя при этом безопасность и общественное доверие.

Основные элементы программы:
🔵 создание регуляторных песочниц в ключевых секторах экономики;
🔵 временное ослабление отдельных норм для тестирования ИИ в реальных условиях под надзором регуляторов;
🔵 строгая система лицензирования и немедленная приостановка проектов при выявлении нарушений или рисков;
🔵 выделение £1 млн на «песочницы» в сфере медицины для ускорения разработки лекарств и клинических испытаний.

Исключения из «песочниц»:
защита прав потребителей,
национальная безопасность,
сфера трудовых отношений,
интеллектуальная собственность.

💬 Комментарий Лиз Кендалл:
«Чтобы обновить страну, нужно избавиться от устаревших подходов, которые душат инновации. Мы хотим убрать лишнюю бумажную волокиту, ускорить рост и модернизировать государственные сервисы. Это не про упрощение, а про ответственное ускорение новаторских решений, которые реально улучшают жизнь людей».


🔍 Великобритания первой запустила финтех-песочницы ещё в 2016 году и теперь стремится сохранить лидерство в гибком регулировании ИИ.

#UK #AI #Regulation #AIGrowthLab #Sandbox
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74🔥3
🇷🇺 ИИ в России: топ-5 событий прошедшей недели

1️⃣ Россия и Китай договорились о расширении сотрудничества в сфере медицинских инноваций, включая применение ИИ и телемедицины.

2️⃣ Минцифры России готовит пилотный проект по маркировке контента, созданного ИИ.

3️⃣ Правительство РФ расширило ЭПР по эксплуатации беспилотников на Оренбургскую, Сахалинскую и Еврейскую АО, добавив тестирование «цифровых полетов» и финансово-экономических моделей применения БАС в разных отраслях.

4️⃣ На территории Арктической зоны РФ установят ЭПР для использования беспилотных систем, развития цифровых платформ и ИИ.

5️⃣ Москва, Санкт-Петербург и Республика Татарстан стали лидерами ежегодного «Индекса активности регионов в области ИИ» за 2024–2025 год.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🔥3
🌐 ИИ в мире: топ-5 событий прошедшей недели

1️⃣ Сенат Узбекистана одобрил закон, регулирующий использование технологий ИИ и устанавливающий правила их безопасного и этичного применения.

2️⃣ В США представлен законопроект «AI-Related Job Impacts Clarity Act», обязывающий компании отчитываться о сокращениях и изменениях в занятости, связанных с внедрением ИИ.

3️⃣ Суд в Лондоне частично удовлетворил иск Getty Images против Stability AI, признав нарушение товарных знаков, но не авторских прав, оставив вопрос об использовании защищённых данных для обучения ИИ открытым.

4️⃣ В США впервые выдан ордер, обязывающий OpenAI передать данные пользователя ChatGPT: власти запросили информацию о промптах подозреваемого в уголовном деле.

5️⃣ OpenAI представила Teen Safety Blueprint – фреймворк для ответственной разработки ИИ, защищающий подростков и адаптирующий ChatGPT под пользователей младше 18 лет.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84🔥4
💻 OpenAI представила «План безопасности подростков» для ChatGPT

6 ноября OpenAI опубликовала Teen Safety Blueprint – фреймворк для ответственной разработки ИИ, защищающий подростков и адаптирующий ChatGPT под пользователей младше 18 лет.

🔍 Основные положения:
🔵 автоматическая оценка возраста пользователя;
🔵 строгие правила модерации контента для несовершеннолетних (запрет описаний и изображений суицида, секса/насилия, опасных челленджей и т. д.);
🔵 детский режим по умолчанию при неопределённом возрасте;
🔵 напоминания о перерывах при длительном общении.

👨‍👩‍👧‍👦 Родители получат больше возможностей контролировать взаимодействие своего ребенка с чат-ботом:
🔵 привязывать аккаунт подростка (13+) к родительскому;
🔵 управлять настройками приватности (в т. ч. памятью и историей чатов);
🔵задавать «чёрные часы», когда подросток должен делать принудительный перерыв;
🔵 получать уведомления, если активность подростка указывает на намерение причинить себе вред.

🚑 Для кризисных случаев предусмотрено перенаправление к соответствующим службам поддержки, а при непосредственной угрозе себе или другим – сообщение в правоохранительные органы.

💬 По мнению OpenAI, безусловным приоритетом ИИ-разработчиков должно быть психическое здоровье подростков: компании должны внедрять научно обоснованные, регулярно обновляемые защиты при участии внешних экспертов.

При этом OpenAI обещает открытость и обмен практиками, постоянный сбор обратной связи, а также работу со школами, родителями и госорганами, чтобы ИИ давал пользу без вреда.

#AI #OpenAI #Safety #Children
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62🔥2
🇺🇸 В США представили законопроект о раскрытии влияния ИИ на занятость

5 ноября сенаторы Джош Хоули и Марк Уорнер представили «AI-Related Job Impacts Clarity Act», основной целью которого является анализ влияния технологий искусственного интеллекта на сферу занятости в США.

📍 Ключевые положения:
🔵 Публичные и крупные частные компании, а также федеральные ведомства
🔵 должны ежеквартально отчитываться в Минтруд США
🔵 о кадровых изменениях, вызванных ИИ (увольнения, сокращение найма, перераспределение ролей).

Министерство, в свою очередь, должно агрегировать данные и публиковать общедоступный отчёт.

💬 Марк Уорнер так прокомментировал подготовленный законопроект:
«Хорошая политика начинается с хороших данных. Этот двухпартийный законопроект наконец даст нам ясную картину влияния ИИ на рабочую силу: какие рабочие места исчезают, какие работники проходят переподготовку и где возникают новые возможности».


#USA #AI #Regulation #Labor
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥32🤔1
2025/11/15 02:19:43
Back to Top
HTML Embed Code: