Telegram Web Link
🇪🇺Вступил в силу закон ЕС о регулировании ИИ.

Европейский «Закон об ИИ», вступил в силу с 1 августа 2024 года. Положения документа будут внедряться поэтапно вплоть до середины 2026 года. Уже через шесть месяцев планируется обеспечить соблюдение запретов на несколько видов использования ИИ в конкретных сценариях, таких как использование правоохранительными органами удалённой биометрии в общественных местах.

«Закон об ИИ» использует градацию применений ИИ на основе потенциальных рисков. Согласно этому подходу, большинство применений ИИ считаются «малорисковыми», поэтому они вообще не подпадут под регулирование.

Уровень «ограниченного риска» применяется к технологиям ИИ, таким как чат-боты или инструменты, которые могут использоваться для создания дипфейков. От них требуется обеспечивать уровень прозрачности, исключающий введение пользователей в заблуждение.

К применениям ИИ с «высоким риском» отнесены обработка биометрических данных и распознавание лиц, медицинское программное обеспечение на основе ИИ или использование ИИ в таких областях, как образование и трудоустройство. Подобные системы должны быть зарегистрированы в базе данных ЕС, а их разработчики обязаны обеспечить соблюдение требований по управлению рисками и качеством.

«Закон об ИИ» предусматривает многоуровневую систему наказаний: штрафы в размере до 7 % от мирового годового оборота за использование запрещённых приложений ИИ, до 3 % за нарушение иных обязательств и до 1,5 % за предоставление регуляторам недостоверной информации.

Отдельный раздел нового закона касается разработчиков так называемого «ИИ общего назначения» (General Purpose Artificial Intelligence, GPAI). В отношении GPAI Евросоюз также принял подход, основанный на оценке рисков, при этом основным требованием к разработчикам таких систем является обеспечение прозрачности. Ожидается, что только часть наиболее мощных моделей будет вынуждена осуществлять оценку рисков и меры по их снижению.

Конкретные рекомендации для разработчиков GPAI пока не разработаны, поскольку опыт юридического применения нового закона отсутствует. Управление ИИ (AI Office), орган стратегического надзора и построения экосистемы ИИ, начало консультации и призвало к участию в этом процессе разработчиков. Полностью работа над кодексом применения ИИ должна быть завершена в апреле 2025 года.
🇦🇷Аргентина планирует внедрить ИИ для прогнозирования и предотвращения «будущих преступлений».

Аргентина намерена создать специализированную целевую группу, использующую искусственный интеллект для выявления и предотвращения будущих преступлений внутри страны.

Министерство безопасности Аргентины объявило о создании Подразделения прикладного искусственного интеллекта для обеспечения безопасности (UIAAS), возглавляемого директором по киберпреступности и киберпространствам, а также сотрудниками федеральной полиции и сил безопасности Аргентины.

Одной из основных задач группы будет “использовать алгоритмы машинного обучения для анализа исторических данных о преступлениях, чтобы предсказывать будущие преступления и помогать предотвращать их”.

Основное внимание уделяется выявлению потенциальных киберугроз путем обнаружения “необычных шаблонов в компьютерных сетях”, включая вредоносное ПО, фишинг и другие виды кибератак.

Мониторинг активности в социальных сетях также упоминался как метод обнаружения любых признаков коммуникации о потенциальных будущих преступлениях.
🇺🇸Американская ассоциация юристов выпустила этические рекомендации по использованию ИИ в профессиональной деятельности.

Юристы должны остерегаться этических нарушений, если они используют генеративный искусственный интеллект в своей работе, заявила Американская ассоциация юристов.

В своем первом официальном заключении по этике, комитет ассоциации заявил, что юристы, использующие технологию, должны "полностью учитывать" свои этические обязательства по защите клиентов, включая обязанности, связанные с компетентностью юриста, конфиденциальностью данных клиента, общением и гонорарами.

Юристы и юридические фирмы все чаще используют инструменты искусственного интеллекта для юридических исследований, составления и анализа документов и других задач в судебных разбирательствах, транзакционной и другой работе.

В опубликованном заключении комитета по этике и профессиональной ответственности говорится, что инструменты искусственного интеллекта могут помочь юристам повысить эффективность, но также могут нести риски, такие как получение неточных результатов. Юристы также должны стараться предотвращать непреднамеренное раскрытие или доступ к информации клиента и должны подумать, нужно ли им рассказывать клиенту об использовании ими генеративных технологий искусственного интеллекта.

В заключении отмечается, что использование ИИ часто приводит к тому, что юристы ссылались на несуществующие дела или неточный анализ. "Даже непреднамеренное искажение в суде может повлечь за собой введение в заблуждение" в соответствии с правилами профессионального поведения, говорится в заключении, предупреждающем, что юристы должны проверять все результаты после ИИ на предмет точности.
💻Госдума приняла закон об обезличивании персональных данных.

Госдума на пленарном заседании приняла во втором и третьем чтениях законопроект о порядке обезличивания персональных данных.

Проектом совершенствуется механизм обработки персональных данных, полученных в результате их обезличивания. Устанавливаются особенности обработки персональных данных, полученных в результате обезличивания, при формировании составов таких данных и предоставления доступа к ним.

Устанавливается порядок формирования состава персональных данных, полученных в результате их обезличивания, сгруппированных по определенному признаку, при условии, что последующая обработка таких данных не позволит определить их принадлежность к субъекту персональных данных.

Вводится прямой запрет на формирование состава персональных данных и специальных категорий и биометрических персональных данных.

Правительство по согласованию с ФСБ установит требования по обезличиванию таких данных.

Оператор персональных данных будет обязан по требованию Минцифры обезличить обрабатываемые данные и предоставить их в государственную информационную систему (ГИС), а Минцифры должно будет обеспечить конфиденциальность этих данных.
🇷🇺Путин подписал закон о легализации майнинга криптовалют.

Президент России Владимир Путин подписал закон, который позволит с ноября легализовать в России майнинг криптовалют. Соответствующий документ размещен на портале официального опубликования правовых актов.

В законе закреплены порядок и условия ведения такой деятельности. Заниматься майнингом будут вправе российские юрлица и индивидуальные предприниматели, включенные в реестр Минцифры.

Россияне, не являющиеся ИП, смогут заниматься майнингом цифровой валюты без включения в реестр, если не превышают установленные правительством РФ лимиты энергопотребления. Юрлица и ИП будут праве осуществлять деятельность оператора майнинговой инфраструктуры после включения в реестр таких операторов, который также будет вести Минцифры.

Изначально планировавшийся запрет на организацию обращения цифровой валюты на территории РФ не вошел в закон. Вместе с тем вводится запрет на рекламу криптовалют и предложение их неограниченному кругу лиц - он начнет действовать сразу после вступления закона в силу.

Не смогут заниматься майнингом ИП, имеющие неснятую или непогашенную судимость за преступления в сфере экономики, против госвласти, либо за умышленные преступления средней тяжести, тяжкие и особо тяжкие преступления; включенные в перечень террористов и экстремистов; а также юрлица, имеющие подобных лиц среди учредителей (участников), бенефициаров и руководителей.

Юрлицам и ИП запрещается совмещать майнинг цифровой валюты с деятельностью по передаче электроэнергии, оперативно-диспетчерскому управлению в электроэнергетике, производству или купле-продаже электроэнергии.
🇺🇸Бюро регистрации авторских прав США рекомендует принять новый закон о цифровых копиях.

Бюро регистрации авторских прав США опубликовало первый раздел своего отчета по искусственному интеллекту, посвященный цифровым копиям. В разделе рекомендуется принять новый федеральный закон о защите от несанкционированного распространения цифровых копий и дипфейков.

Рекомендация вызвана обеспокоенностью по поводу видео, изображений и аудиозаписей, созданных или измененных с использованием ИИ для ложного представления кого-либо, что может нанести ущерб его репутации и средствам к существованию.

Директор Регистра авторских прав и директор Бюро авторских прав США, подчеркнула необходимость немедленной национальной защиты от этих опасностей: «Стало ясно, что распространение несанкционированных цифровых копий представляет серьезную угрозу не только в развлекательной и политической аренах, но и для частных лиц. Мы считаем, что существует острая необходимость в эффективной общенациональной защите от вреда, который может быть нанесен репутации и средствам существования».
⚖️С 8 сентября 2024 года значительно вырастут размеры судебных госпошлин.

Президентом РФ подписан закон, вносящий масштабные поправки в налоговое законодательство (Федеральный закон от 8 августа 2024 г. № 259-ФЗ).

Значительно увеличат платежи, которые нужно вносить при подаче в арбитражные суды и СОЮ имущественных исков. То же коснется пошлин по заявлениям о признании незаконными решений госорганов, по искам о заключении, изменении или расторжении договоров, по жалобам в вышестоящие инстанции и пр.

Арбитражный процесс.
Размеры госпошлины при подаче имущественных исков, которые подлежат оценке:

До 100 тыс. включительно - 10 тыс.
Более 100 тыс. до 1 млн включительно - 10 тыс. плюс 5% от суммы свыше 100 тыс.
Более 1 млн до 10 млн включительно - 55 тыс. плюс 3% от суммы свыше 1 млн
Более 10 млн до 50 млн включительно - 325 тыс. плюс 1% от суммы свыше 10 млн
Более 50 млн - 725 тыс. плюс 0,5% от суммы свыше 50 млн, но не более 10 млн

Сейчас градация цен исков и размеры госпошлин другие. Например, при цене иска более 200 тыс. руб. (до 1 млн руб. включительно) платят 7000 руб. плюс 2% от суммы свыше 200 тыс. руб. Таким образом, если нужно подать иск, к примеру, на 500 тыс. руб., придется заплатить 30 тыс. руб. вместо 13 тыс. руб.

При обращении с иском, который не нужно оценивать, компания перечислит госпошлину в размере 50 тыс. руб. Пока по такому иску вносят ту же сумму, что и по неимущественному иску. Для большинства требований она составляет 6000 руб.

Гражданский процесс и административное судопроизводство
Размеры госпошлины при подаче имущественных исков, которые подлежат оценке:

До 100 тыс. включительно - 4 тыс.
Более 100 тыс. до 300 тыс. включительно - 4000 плюс 3% от суммы свыше 100 тыс.
Более 300 тыс. до 500 тыс. включительно - 10 тыс. плюс 2,5% от суммы свыше 300 тыс.
Более 500 тыс. до 1 млн включительно - 15 тыс. плюс 2% от суммы свыше 500 тыс.
Более 1 млн до 3 млн включительно - 25 тыс. плюс 1% от суммы свыше 1 млн
Более 3 млн до 8 млн включительно - 45 тыс. плюс 0,7% от суммы свыше 3 млн
Более 8 млн до 24 млн включительно - 80 тыс. плюс 0,35% от суммы свыше 8 млн
Более 24 млн до 50 млн включительно - 136 тыс. плюс 0,3% от суммы свыше 24 млн
Более 50 млн до 100 млн включительно - 214 тыс. плюс 0,2% от суммы свыше 50 млн
Более 100 млн - 314 тыс. плюс 0,15% от суммы свыше 100 млн, но не более 900 тыс.

На данный момент градация цен исков и размеры госпошлин иные.
Так, при цене иска более 200 тыс. руб. (до 1 млн руб. включительно) платеж – 5200 руб. плюс 1% от суммы свыше 200 тыс. руб.
Таким образом, если надо подать иск, к примеру, на 500 тыс. руб., придется заплатить 15 тыс. руб. вместо 8200 руб.

Заявления по делам о банкротстве.
Чтобы обратиться с заявлением о признании должника банкротом, компании придется внести 100 тыс. руб. Пока госпошлина – 6000 руб.

По заявлениям и требованиям в рамках обособленных споров установят платеж в размере половины от госпошлины, которая определяется исходя из сути требования. Сейчас применяют позицию ВС РФ о том, что госпошлину рассчитывают исходя из существа требований по общим правилам.

Также меняется размер гос.пошлины при жалобах в вышестоящие суды.
👮‍♂️В Госдуме предложили внести в УК наказание за кражу и клевету с применением дипфейка.

Глава комитета Госдумы по труду, социальной политике и делам ветеранов Ярослав Нилов (ЛДПР) разработал законопроект, которым предлагается ввести в несколько статей Уголовного кодекса новый квалифицирующий признак - использование дипфейк-технологии (deepfake).

Изменения предлагается внести в статьи "Клевета", "Мошенничество", "Кража", "Вымогательство", "Мошенничество в сфере компьютерной информации", "Причинение имущественного ущерба путем обмана или злоупотребления доверием".

Так, согласно законопроекту, клевета, совершенная с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего, а также с использованием его биометрических персональных данных, наказывается штрафом в размере до 1,5 млн рублей либо лишением свободы на срок до двух лет. Если речь идет о мошенничестве с использованием такой технологии, то за это может грозить штраф до 400 тыс. рублей либо лишение свободы на срок до шести лет.

В пояснительной записке отмечается, что развитие компьютерных технологий привело к расширению возможностей по созданию видео- и аудиоматериалов на основе образцов изображений и голоса гражданина, "искусственно воссоздающих несуществующие события".

"Ранее злоумышленники также осуществляли, например, в целях клеветы, такие действия, как подделку фотографий. Однако современные программно-аппаратные комплексы, а также использование нейросетей и искусственного интеллекта (технологии "дипфейк", "цифровые маски" и т. д.), позволяют создавать подделки, отличить которые от реальности неспециалисту практически невозможно. Те же технологии позволяют воспроизводить и иные биометрические персональные данные", - отмечается в пояснительной записке.

В официальном отзыве правительства на законопроект указано что, в отраслевом законодательстве не урегулированы вопросы использования технологий подмены личности. "Таким образом, введение предлагаемого регулирования в уголовное законодательство не представляется возможным из-за отсутствия корреспондирующих норм материального законодательства, что влечет существенные риски формирования некорректной правоприменительной практики".

Также в правительстве уточняют, что пояснительная записка к законопроекту не содержит статистических и иных данных, "свидетельствующих об общественной опасности криминализируемых деяний". В связи с этим невозможно сделать вывод о том, что совершение преступлений только с использованием изображения или голоса потерпевшего свидетельствует о повышенной степени общественной опасности указанных деяний.
🇲🇾В Малайзии до конца года будет принят Кодекс этики ИИ.

Кодекс этики для разработки и внедрения искусственного интеллекта (ИИ), также известный как Управление искусственным интеллектом и этика (AIGE), будет запущен до конца этого года, заявил министр науки, технологий и инноваций Малайзии Чанг Ли Кан.

AIGE - это основа для установления параметров для пользователей искусственного интеллекта в промышленности и кодекс этики в качестве нормативной меры для ответственной разработки и внедрения технологий искусственного интеллекта.
🇨🇳Для «больших языковых моделей» добавили «систему самоанализа».

Группа исследователей ИИ из китайской технологической компании Baidu Inc. предложила новую структуру проверки правильности ответов, разработанную для повышения надежности LLM (больших языковых моделей).

За последние два года LLM (большие языковые модели), такие как ChatGPT, стали применяться очень широко. Но остается одна очевидная слабость LLM — их неспособность проверять собственные результаты, чтобы убедиться, что они не представляют пользователям «галлюцинации», то есть ответы, которые не имеют смысла. Это не позволяет использовать ИИ для действительно важных приложений, которые полагаются на целостность данных и чье применение критично к ошибкам.

Команда Baidu придумала стратегию, направленную на то, чтобы заставить LLM проверять свою работу перед тем, как предоставить результаты конечным пользователям.

Новый подход заключается в добавлении трехэтапного процесса в движок LLM непосредственно перед представлением результатов. Первый — добавить модель, учитывающую релевантность результатов промпту пользователя. Второй этап включает в себя выбор из серии ответов, учитывающий доказательства, основанные на релевантных документах. Третий этап включает в себя модуль анализа траектории, который проводит четкий и краткий анализ того, как LLM пришла к тому выводу, который модель считает правильным.

Исследователи предполагают, что такие дополнения, могут привести к более надежным LLM. Это сделает модели пригодными для большего количества приложений. Ученые также предполагают, что они откроют возможность создания новых моделей.
🇦🇪Суд Дубая признал выплату заработной платы в криптовалюте законной.

Суд первой инстанции Дубая признал выплату заработной платы в криптовалюте законной в соответствии с трудовым договором.

Ирина Хивер, партнер юридической фирмы NeosLegal из ОАЭ, объяснила, что решение по делу № 1739 от 2024 года демонстрирует сдвиг от более ранней позиции суда в 2023 году, когда аналогичный иск был отклонен из-за отсутствия точной оценки криптовалюты.

В трудовом договоре работника была указана ежемесячная заработная плата в фиатных деньгах и 5250 в токенах EcoWatt. Спор проистекает из неспособности работодателя выплатить работнику часть заработной платы в токенах в течение шести месяцев.

В 2023 году суд признал включение токенов EcoWatts в контракт. Тем не менее, он не обеспечил принудительное исполнение платежа в криптовалюте, поскольку сотрудник не предоставил четкого метода оценки валюты в фиатном выражении.

Однако юрист сказал, что в 2024 году суд “сделал шаг вперед”, вынеся решение в пользу сотрудника и распорядившись о выплате зарплаты в криптовалюте в соответствии с трудовым договором без конвертации ее в фиатные деньги.

Суд сослался на Закон ОАЭ о гражданских сделках и Федеральный декрет-закон № 33 от 2021 года в обоих решениях свидетельствует о последовательном применении правовых принципов при определении заработной платы.
💵Московские финансисты внедряют сервисы на основе искусственного интеллекта.

Департамент финансов Москвы совместно с Департаментом информационных технологий Москвы совершенствует информационно-аналитические системы управления городскими финансами и сервисы для клиентов. Впервые в сфере государственных финансов запущен в эксплуатацию алгоритм обработки документов участников казначейского сопровождения на основе технологии искусственного интеллекта (ИИ).

«Цифровая экосистема управления городскими финансами позволяет клиенту в режиме онлайн формировать платежные документы, а работу по их анализу берет на себя цифровой помощник. «Одобрение» искусственного интеллекта подтверждает, что информация о платеже предоставлена в полном объеме и не содержит ошибок».

«Искусственный интеллект уже сейчас может обрабатывать такие документы почти в два раза быстрее, всего за 5-6 минут. В перспективе обработка будет проходить оперативнее. При этом программа выявляет ошибки и сообщает о них сотрудникам, например, указывает на отсутствие каких-либо документов или некорректное заполнение банковских реквизитов. Чтобы обучить нейросеть решению этой задачи до текущего уровня, потребовалось порядка 2 тысяч документов и два месяца работы специалистов с самой моделью. Точность работы алгоритма уже превышает 90%, причем само решение благодаря интуитивно понятному интерфейсу позволяет дообучать модель даже специалистам, не имеющим профессиональных знаний в сфере ИТ».
🇨🇳Верховный суд Китая включил «виртуальные активы» в закон о борьбе с отмыванием денег.

Верховный суд Китая и прокуратура пересмотрели свое толкование законов страны о борьбе с отмыванием денег (AML).

В соответствии с новым толкованием закона, операции с “виртуальными активами” теперь перечислены в качестве одного из признанных методов отмывания денег.

По мнению суда, перевод и конвертация доходов, полученных преступным путем посредством цифровых транзакций, теперь будет подпадать под действие нормативных актов, запрещающих “сокрытие источника и характера доходов, полученных преступным путем, и их выгод другими способами”.

Нарушителям закона грозят штрафы в размере от 10 000 китайских юаней (1400 долларов) до 200 000 юаней (28 000 долларов) за более серьезные правонарушения. Нарушителям также может грозить тюремное заключение на срок от пяти до 10 лет.
LegalTech
⚖️Апелляция подтвердила решение о признании дипфейка объектом авторского права. Девятый арбитражный апелляционный суд отклонил жалобу ООО «Бизнес-аналитика» на решение о взыскании с неё 500 тысяч рублей за незаконное использование дипфейк-видео с американским…
⚖️Кассация отнесла дипфейки к объектам авторских прав.

Суд по интеллектуальным правам отклонил кассационную жалобу компании «Бизнес-аналитика» на решения нижестоящих судов о взыскании с нее 500 000 руб. за неправомерное использование видеоролика, созданного с помощью технологии дипфейк (дело № А40-200471/2023). Информация об этом появилась в карточке дела, но само постановление еще не опубликовано.

В декабре 2023 года АСГМ удовлетворил иск и взыскал с «Бизнес-аналитики» 500 000 руб. компенсации и расходы на госпошлину. Суд решил: использование технологии дипфейк — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания. Группа лиц, которая написала сценарий ролика, провела съемку и аудиосопровождение, внесла личный творческий вклад в создание видео и считается его автором. После этого исключительные права на ролик передали истцу.

9-й ААС подтвердил законность решения первой инстанции. По его мнению, ответчик не мог заблуждаться в отношении природы видеоролика, ведь «Бизнес-аналитика» — это профессиональный участник рынка реализации компьютерного обеспечения. А значит, у компании есть базовое представление о принципах работы дипфейка, который не исключает того, что исходный видеоряд создан за счет творческого труда авторов.

Поэтому апелляция отклонила довод ответчика о том, что видеоряд якобы полностью сгенерирован нейросетью. Не согласился суд и с тем, что видеоролик не считается объектом авторского права из-за использования дипфейка. Создание ролика с помощью такой технологии не свидетельствует, что видеоролик доступен для свободного использования без согласия правообладателя, добавил суд. Теперь с ним согласился и СИП.
🇺🇸Технологические компании выступают против законопроекта об ИИ, который планируют принять в Калифорнии.

Законодатели Калифорнии намерены проголосовать по законопроекту, который в целом будет регулировать разработку и внедрение ИИ.

Законопроект предусматривает тестирование безопасности моделей искусственного интеллекта, разработка которых обходится более чем в 100 миллионов долларов или тех, которые требуют определенного объема вычислительной мощности. Разработчикам программного обеспечения для искусственного интеллекта, работающим в штате, также необходимо будет наметить методы отключения моделей искусственного интеллекта, если они выйдут из строя, фактически "выключателя".

Законопроект также даст генеральному прокурору штата право подавать в суд, если разработчики не соблюдают требования, особенно в случае продолжающейся угрозы, такой как захват ИИ государственных систем.

Кроме того, законопроект потребует от разработчиков нанимать сторонних аудиторов для оценки их методов безопасности и обеспечит дополнительную защиту информаторам, выступающим против злоупотреблений искусственным интеллектом.

Технологические компании выступают против законопроекта, и заявляют, что законопроект создает неопределённую правовую среду для разработчиков, что может вынудить их покинуть штат.

Также технологические компании указывают, что модели с открытым исходным кодом важны для более быстрого создания менее рискованных приложений с ИИ, но их могут привлечь к ответственности за контроль над моделями с открытым исходным кодом, если законопроект будет принят.
🇳🇱Голландское управление по защите данных предупреждает, что использование чат-ботов с искусственным интеллектом может привести к утечке персональных данных.

Голландское управление по защите данных (DPA) выпустило руководство, предупреждающее компании о потенциальных рисках защиты данных, связанных с использованием чат-ботов на базе искусственного интеллекта (AI).

В руководстве DPA признается, что многие люди на рабочем месте используют цифровых помощников, таких как ChatGPT и Copilot, для таких целей, как ответы на вопросы клиентов или обобщение больших файлов. Это может помочь сотрудникам сэкономить время и повысить качество их работы и продуктивность, но также сопряжено со значительными рисками с точки зрения GDPR.

GDPR определяет утечку персональных данных как “нарушение безопасности, приводящее к случайному или незаконному уничтожению, утере, изменению, несанкционированному раскрытию или доступу к передаваемым, хранимым или иным образом обработанным персональным данным”. Еще больший риск существует в контексте медицинских данных, которые считаются конфиденциальными и поэтому подлежат усиленной правовой защите. DPA считает, что передача конфиденциальных данных технологической компании без надлежащей защиты является серьезным нарушением конфиденциальности затронутых лиц.

Опасения DPA связаны в основном с тем фактом, что компании, стоящие за чат-ботами, часто хранят все введенные данные. В результате персональные данные могут оказаться на серверах технологических компаний, часто без ведома человека, который ввел данные, и без точного представления о том, что эта компания будет делать с этими данными. Во многих случаях лица, к которым относятся персональные данные, также не будут осведомлены.

Если сотрудник использует чат-бота в нарушение политики компании для обработки персональных данных, этого может быть достаточно для нарушения персональных данных. И если работодатели разрешают такое использование, сотрудникам должно быть ясно, какие данные они могут вводить, а какие нет. В свои договорные соглашения с поставщиками чат-ботов с искусственным интеллектом компании также должны включать положения, ограничивающие поставщика в хранении и использовании введенных данных.
🇷🇺В РФ замерят уровень внедрения ИИ в отраслях экономики и соцсферы.

Опрос среди российских организаций и органов исполнительной власти с целью замерить уровень внедрения технологий искусственного интеллекта начался с 19 августа. Об этом говорится в сообщении, распространенном аппаратом вице-премьера - руководителя аппарата правительства РФ Дмитрия Григоренко.

Как пояснили в аппарате вице-премьера, собранные данные лягут в основу расчета показателей эффективности развития ИИ в национальной стратегии развития ИИ на период до 2030 года, утвержденной указом президента. Там также отметили, что исследование будет учитывать специфику опрашиваемых организаций и включать в себя вопросы, в частности, о применении ИИ, эффектах от использования технологий, о деятельности организаций по обеспечению безопасности использования ИИ, а также наличии необходимых ресурсов.

"Планируется, что к 15 октября будет подготовлен аналитический доклад с оценкой уровня внедрения технологий ИИ в отраслях экономики, социальной сферы, а также результативности деятельности государственных органов и органов местного самоуправления по обеспечению внедрения таких технологий".
🇧🇪Бельгийской судебной системе рекомендуют принять стратегию использования ИИ.

Генеральный аудитор Государственного совета отмечает, что, поскольку крупные юридические фирмы в Брюсселе уже используют искусственный интеллект для более эффективной работы, судебной системе также необходимо перейти к использованию ИИ.

Государственный совет Бельгии является высшим административным судом страны и рассматривает споры о полномочиях государственных органов, а также дает рекомендации правительству по проектам законов и указов.

Генеральный аудитор считает, что использование искусственного интеллекта могло бы помочь уменьшить нагрузку на перегруженную судебную систему Бельгии, т.к. персонала не хватает и стороны в судебном процессе годами ждут решения.

Искусственный интеллект можно было бы использовать для обобщения и структурирования судебных решений, чтобы люди, которые сейчас занимаются этим, могли работать в других областях. Также использование чат-ботов, таких как ChatGPT, могло бы быть полезным.

Искусственный интеллект, вероятно, никогда полностью не заменит судей, но технология никуда не денется и уже используется некоторыми судебными органами в качестве инструментов принятия решений, соответственно правительству, парламенту и судебной системе Бельгии нужно внедрять ИИ целенаправленно, чтобы не отставать от других стран.

При этом использование искусственного интеллекта в правовой системе, может причинить больше вреда, чем пользы, если внести в систему не корректные данные или использовать искусственный интеллект для анализа прошлых решений конкретного суда или судьи и попыток предсказать будущие результаты.
💻В консорциум Минцифры по безопасности ИИ войдут 10 компаний и 5 вузов.

Порядка 10 компаний и 5 вузов войдут в консорциум, созданный для исследования информационной безопасности искусственного интеллекта (ИИ), сообщил замминистра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов.

«Мы создали консорциум, объединив три организации. Сейчас идет процесс вхождения в этот консорциум разработчиков искусственного интеллекта, компаний по кибербезопасности и высших учебных заведений.»

Он также отметил, что для России в рамках работы над ИИ сейчас ключевыми является информационная безопасность и надежность технологий.

"Если сравнить работу над ИИ в 2019 году и работу в 2024-м, то ранее мы говорили о господдержке отрасли, а сейчас появляется такой термин, как "доверенный ИИ", где говорится о том, что нужно реализовывать определенные меры, которые необходимы для использования ИИ в критических сферах, таких как госуправление, например", - сказал Шойтов.
🇬🇧Число успешных кибератак на британские юрфирмы за год увеличилось на 77%.

Количество успешных хакерских атак на юридические фирмы Великобритании за последний год выросло на 77 процентов.

По словам представителей компании Lubbock Fine, «волна» вызвана тем, что преступники, использующие программы-вымогатели или методы шантажа, рассматривают как главные цели для атак юрфирмы, владеющие конфиденциальной личной и финансовой информацией.

«Сведения, которые юридические фирмы хранят от имени своих клиентов, часто являются крайне конфиденциальными и поэтому представляют ценность для преступников. Это делает их очень привлекательной целью. Хакеры часто требуют от юридических фирм денег, угрожая продать информацию в даркнете или опубликовать конфиденциальные данные в интернете».

По данным отчета Национального центра кибербезопасности, жертвами кибератак стали почти три четверти из ста крупнейших юридических компаний Великобритании.
2025/07/02 02:17:58
Back to Top
HTML Embed Code: