⚖️В область правосудия ИИ должен зайти в последнюю очередь.
Внедрение искусственного интеллекта в судопроизводство необходимо производить предельно аккуратно и только после того, как технологию испытают в других менее критичных к ошибкам сферах, считает вице-президент Федеральной палаты адвокатов РФ Елена Авакян.
«Внедрение технологии искусственного интеллекта как аналитического аппарата, внедрение технологии искусственного интеллекта как технологии, помогающей анализировать данные, анализировать доказательства, анализировать большие объемы данных, проводить экспертизы — да. Но как метода принимающего решения, как нечто, что будет замещать человеческое судопроизводство, я всегда буду голосовать против», — отметила Авакян.
По ее словам, внедрение современных технологий лишает человечество права выносить суждение о себе самом, что приводит к проигрышу видовой конкуренции. В связи с этим применение ИИ должно быть аккуратным.
Вице-президент ФПА напомнила, что Китай уже четвертый год применяет систему «умный суд», которая по сути является электронным помощником судьи.
«Да, они действительно очень сильно разгрузили суды. Да, действительно сегодня несколько тысяч дел в день рассматривается с помощью технологии искусственного интеллекта. И они действительно дали возможность, по сути, на первой инстанции рассматривать дела технологически, а уже на этапах обжалования, соответственно, подключать человека к рассмотрению этого вида споров. Получили облегчение для судей? Наверное, да. Получили ли уверенность у общества, что то, что делается, делается правильно? Спорный вопрос».
Спикер также указала на необходимость внимательного отношения к ответам ИИ в адвокатуре. Она привела в пример прецедент с американским адвокатом, который не удостоверился в корректности подготовленных искусственным интеллектом документов и впоследствии лишился своего статуса из-за неуважения к суду.
Внедрение искусственного интеллекта в судопроизводство необходимо производить предельно аккуратно и только после того, как технологию испытают в других менее критичных к ошибкам сферах, считает вице-президент Федеральной палаты адвокатов РФ Елена Авакян.
«Внедрение технологии искусственного интеллекта как аналитического аппарата, внедрение технологии искусственного интеллекта как технологии, помогающей анализировать данные, анализировать доказательства, анализировать большие объемы данных, проводить экспертизы — да. Но как метода принимающего решения, как нечто, что будет замещать человеческое судопроизводство, я всегда буду голосовать против», — отметила Авакян.
По ее словам, внедрение современных технологий лишает человечество права выносить суждение о себе самом, что приводит к проигрышу видовой конкуренции. В связи с этим применение ИИ должно быть аккуратным.
Вице-президент ФПА напомнила, что Китай уже четвертый год применяет систему «умный суд», которая по сути является электронным помощником судьи.
«Да, они действительно очень сильно разгрузили суды. Да, действительно сегодня несколько тысяч дел в день рассматривается с помощью технологии искусственного интеллекта. И они действительно дали возможность, по сути, на первой инстанции рассматривать дела технологически, а уже на этапах обжалования, соответственно, подключать человека к рассмотрению этого вида споров. Получили облегчение для судей? Наверное, да. Получили ли уверенность у общества, что то, что делается, делается правильно? Спорный вопрос».
Спикер также указала на необходимость внимательного отношения к ответам ИИ в адвокатуре. Она привела в пример прецедент с американским адвокатом, который не удостоверился в корректности подготовленных искусственным интеллектом документов и впоследствии лишился своего статуса из-за неуважения к суду.
👮♂️Мужчина подает жалобу на OpenAI, после того, как ChatGPT обвинил его в убийстве.
ChatGPT снова подвергся критике за неточные результаты — на этот раз за то, что обвинил человека в убийстве.
Арве Ялмар Холмен хотел узнать, есть ли у ChatGPT какая-либо информация о нём, и был шокирован тем, что нашёл. В его биографии были реальные факты из его личной жизни, в том числе количество и пол его детей, а также название его родного города. Однако в ней он также был представлен как осуждённый преступник, который был приговорён к 21 году тюремного заключения.
Человек был шокирован, что о нем распространяется такая информация. «Тот факт, что кто-то может прочитать это и поверить, что это правда, пугает меня больше всего», сказал он.
«Галлюцинации» — постоянная проблема генеративного ИИ, и это не первый случай, когда они приводят к клевете.
Австрийская некоммерческая организация по защите конфиденциальности None Of Your Business подала жалобу в норвежский орган по защите данных, утверждая, что OpenAI сознательно позволила ChatGPT выдавать порочащие результаты в нарушение принципа точности данных GDPR.
«Очевидно, что простого предупреждения пользователей ChatGPT о том, что чат-бот может совершать ошибки, недостаточно. Вы не можете просто распространять ложную информацию и в конце добавлять небольшую оговорку о том, что информация может быть не корректной», — добавил юрист по защите данных некоммерческой организации.
OpenAI в ответ заявляет, что несмотря на то данная жалоба рассматривается, «она касается версии ChatGPT, которая с тех пор была дополнена возможностями онлайн-поиска, повышающими точность». И компания будет улучшать то, как его модели реагируют на запросы о реальных людях и известных личностях.
ChatGPT снова подвергся критике за неточные результаты — на этот раз за то, что обвинил человека в убийстве.
Арве Ялмар Холмен хотел узнать, есть ли у ChatGPT какая-либо информация о нём, и был шокирован тем, что нашёл. В его биографии были реальные факты из его личной жизни, в том числе количество и пол его детей, а также название его родного города. Однако в ней он также был представлен как осуждённый преступник, который был приговорён к 21 году тюремного заключения.
Человек был шокирован, что о нем распространяется такая информация. «Тот факт, что кто-то может прочитать это и поверить, что это правда, пугает меня больше всего», сказал он.
«Галлюцинации» — постоянная проблема генеративного ИИ, и это не первый случай, когда они приводят к клевете.
Австрийская некоммерческая организация по защите конфиденциальности None Of Your Business подала жалобу в норвежский орган по защите данных, утверждая, что OpenAI сознательно позволила ChatGPT выдавать порочащие результаты в нарушение принципа точности данных GDPR.
«Очевидно, что простого предупреждения пользователей ChatGPT о том, что чат-бот может совершать ошибки, недостаточно. Вы не можете просто распространять ложную информацию и в конце добавлять небольшую оговорку о том, что информация может быть не корректной», — добавил юрист по защите данных некоммерческой организации.
OpenAI в ответ заявляет, что несмотря на то данная жалоба рассматривается, «она касается версии ChatGPT, которая с тех пор была дополнена возможностями онлайн-поиска, повышающими точность». И компания будет улучшать то, как его модели реагируют на запросы о реальных людях и известных личностях.
🇰🇿Житель Алма-Аты использовал ChatGPT в качестве адвоката и выиграл дело.
В декабре прошлого года Кенжебека Исмаилова оштрафовали за нарушение ПДД — он выехал на полосу для общественного транспорта, чтобы объехать стоящий перед ним на перекрестке грузовик.
Однако водитель был уверен, что штраф ему выписали незаконно, и сначала подал жалобу в департамент полиции, а когда она была отклонена, пошел в суд.
С составлением запроса истцу помог ChatGPT. Также нейросеть в режиме реального времени подсказывала мужчине ответы на вопросы судьи, и по итогам заседания, которое продлилось всего 10 минут, штраф был отменен.
Теперь он планирует подать в суд на департамент полиции и добиться компенсации морального вреда.
В декабре прошлого года Кенжебека Исмаилова оштрафовали за нарушение ПДД — он выехал на полосу для общественного транспорта, чтобы объехать стоящий перед ним на перекрестке грузовик.
Однако водитель был уверен, что штраф ему выписали незаконно, и сначала подал жалобу в департамент полиции, а когда она была отклонена, пошел в суд.
С составлением запроса истцу помог ChatGPT. Также нейросеть в режиме реального времени подсказывала мужчине ответы на вопросы судьи, и по итогам заседания, которое продлилось всего 10 минут, штраф был отменен.
Теперь он планирует подать в суд на департамент полиции и добиться компенсации морального вреда.
💻В российском праве уже есть нормы по ответственности в сфере ИИ.
В российском праве уже есть точечные нормы по ответственности в сфере ИИ, заявил зампред правления Сбербанка Александр Ведяхин.
В прошлом году были приняты поправки в Федеральный закон «Об экспериментальных правовых режимах» (ЭПР). Появилась процедура выявления ответственных за инциденты с решениями на основе ИИ, которые тестируют в ЭПР.
Для этого после инцидента с причинением вреда технологическим решением с ИИ должна создаваться отдельная комиссия. Она исследует инцидент и выявляет, по какой причине тестируемое решение принесло вред.
Правовой подход к установлению ответственности должен соответствовать уровню развития технологий и предусматривать альтернативные меры, например этику ИИ как инструмент мягкого права, по недопущению причинения вреда.
Ряд этических и юридических рисков, в частности, возникает по мере развития больших генеративных и фундаментальных моделей. При этом необходимо исключить возможность незаконного привлечения к ответственности или причинения вреда деловой репутации разработчиков, пользователей, владельцев ИИ-систем.
Законодательство в этой сфере должно гарантировать эффективное функционирование институтов юридической ответственности и ее справедливое распределение.
В российском праве уже есть точечные нормы по ответственности в сфере ИИ, заявил зампред правления Сбербанка Александр Ведяхин.
В прошлом году были приняты поправки в Федеральный закон «Об экспериментальных правовых режимах» (ЭПР). Появилась процедура выявления ответственных за инциденты с решениями на основе ИИ, которые тестируют в ЭПР.
Для этого после инцидента с причинением вреда технологическим решением с ИИ должна создаваться отдельная комиссия. Она исследует инцидент и выявляет, по какой причине тестируемое решение принесло вред.
Правовой подход к установлению ответственности должен соответствовать уровню развития технологий и предусматривать альтернативные меры, например этику ИИ как инструмент мягкого права, по недопущению причинения вреда.
Ряд этических и юридических рисков, в частности, возникает по мере развития больших генеративных и фундаментальных моделей. При этом необходимо исключить возможность незаконного привлечения к ответственности или причинения вреда деловой репутации разработчиков, пользователей, владельцев ИИ-систем.
Законодательство в этой сфере должно гарантировать эффективное функционирование институтов юридической ответственности и ее справедливое распределение.
💻Новая модель изображений ChatGPT значительно упрощает подделку документов.
Новейшая модель изображений OpenAI позволяет создавать убедительные поддельные документы за считанные секунды, потенциально подавляя существующие системы безопасности, предоставляя любому человеку доступ к сложным инструментам подделки.
Хотя подделка документов всегда была возможна с использованием традиционного программного обеспечения для редактирования изображений, автоматизация AI кардинально меняет ситуацию. Вместо того, чтобы тратить часы на экспертную работу, теперь любой может создать убедительные поддельные документы за считанные секунды.
Потенциальный объем подделок, созданных AI, может перегрузить существующие системы проверки. Это становится особенно тревожным в ситуациях, когда организации выполняют только поверхностные проверки, такие как небольшие претензии на компенсацию, истории арендных платежей или первоначальные проверки заявлений о приеме на работу.
Текущие механизмы контроля в компаниях и государственных учреждениях могут дать сбой из-за огромного количества потенциальных подделок. Даже при постоянных показателях обнаружения, возросшее количество поддельных документов повышает вероятность того, что некоторые из них избегут обнаружения.
OpenAI встроил несколько функций безопасности для предотвращения несанкционированного использования. Каждое изображение, созданное GPT-4o, поставляется со специальными метаданными C2PA, которые отмечают его как сгенерированное AI.
Загвоздка в том, что любой, кто проверяет эти изображения, должен использовать специальный инструмент проверки, чтобы обнаружить эти метаданные. Кроме того, опытные пользователи могут найти способы удалить эти цифровые маркеры.
Новейшая модель изображений OpenAI позволяет создавать убедительные поддельные документы за считанные секунды, потенциально подавляя существующие системы безопасности, предоставляя любому человеку доступ к сложным инструментам подделки.
Хотя подделка документов всегда была возможна с использованием традиционного программного обеспечения для редактирования изображений, автоматизация AI кардинально меняет ситуацию. Вместо того, чтобы тратить часы на экспертную работу, теперь любой может создать убедительные поддельные документы за считанные секунды.
Потенциальный объем подделок, созданных AI, может перегрузить существующие системы проверки. Это становится особенно тревожным в ситуациях, когда организации выполняют только поверхностные проверки, такие как небольшие претензии на компенсацию, истории арендных платежей или первоначальные проверки заявлений о приеме на работу.
Текущие механизмы контроля в компаниях и государственных учреждениях могут дать сбой из-за огромного количества потенциальных подделок. Даже при постоянных показателях обнаружения, возросшее количество поддельных документов повышает вероятность того, что некоторые из них избегут обнаружения.
OpenAI встроил несколько функций безопасности для предотвращения несанкционированного использования. Каждое изображение, созданное GPT-4o, поставляется со специальными метаданными C2PA, которые отмечают его как сгенерированное AI.
Загвоздка в том, что любой, кто проверяет эти изображения, должен использовать специальный инструмент проверки, чтобы обнаружить эти метаданные. Кроме того, опытные пользователи могут найти способы удалить эти цифровые маркеры.
👩💻Госдума приняла закон о цифровизации при рассмотрении административных дел.
Госдума приняла в третьем чтении законопроект, который предоставляет участникам дел об административных правонарушениях возможность подавать заявления и документы в суд или в органы, занимающиеся производством по делу, как в бумажном, так и в электронном формате.
При этом, если документы подаются в электронном виде, все сопутствующие материалы также должны быть представлены в этом же формате. Добавляется возможность участия в заседании в удаленном формате.
"Заявление, ходатайство, жалоба, протест и иные документы могут быть поданы участниками производства по делу об административном правонарушении на бумажном носителе или при наличии технической возможности в суде, у органа, должностного лица, в производстве которых находится дело, в электронном виде, в том числе в форме электронного документа. В случае подачи заявления, ходатайства, жалобы, протеста и иных документов в электронном виде, в том числе в форме электронного документа, прилагаемые к ним документы должны быть представлены также в электронном виде, в том числе в форме электронного документа", - говорится в принятом законе.
Электронные документы можно отправлять через Единый портал государственных и муниципальных услуг, либо через информационную систему, определенную Верховным судом России, Судебным департаментом при Верховном суде, и в таком случае они могут быть подписаны простой электронной подписью. Если документы отправляются в суд посредством систем электронного документооборота участников производства по делу об административном правонарушении, то они должны быть подписаны усиленной квалифицированной электронной подписью.
Также в КоАП вносится статья, которая прописывает правила участия в рассмотрении дела об административном правонарушении с использованием системы веб-конференции. Оговаривается, что такая возможность используется при наличии у участников дела технической возможности. Установление личности участника дела, рассматриваемого через веб-конференцию, проводится с помощью Единой системы идентификации и аутентификации или Единой биометрической системы.
Судья, орган или должностное лицо, рассматривающие дело об административном правонарушении, через портал Госуслуг получают согласие от потерпевшего, свидетелей, специалистов, экспертов и переводчиков. Это делается для разъяснения им их прав и обязанностей, а также предупреждения об ответственности.
Нельзя использовать удаленное участие в рассмотрении дела, если вынесено решение о его закрытом рассмотрении.
Закон вступит в силу с 1 июля 2025 года.
Госдума приняла в третьем чтении законопроект, который предоставляет участникам дел об административных правонарушениях возможность подавать заявления и документы в суд или в органы, занимающиеся производством по делу, как в бумажном, так и в электронном формате.
При этом, если документы подаются в электронном виде, все сопутствующие материалы также должны быть представлены в этом же формате. Добавляется возможность участия в заседании в удаленном формате.
"Заявление, ходатайство, жалоба, протест и иные документы могут быть поданы участниками производства по делу об административном правонарушении на бумажном носителе или при наличии технической возможности в суде, у органа, должностного лица, в производстве которых находится дело, в электронном виде, в том числе в форме электронного документа. В случае подачи заявления, ходатайства, жалобы, протеста и иных документов в электронном виде, в том числе в форме электронного документа, прилагаемые к ним документы должны быть представлены также в электронном виде, в том числе в форме электронного документа", - говорится в принятом законе.
Электронные документы можно отправлять через Единый портал государственных и муниципальных услуг, либо через информационную систему, определенную Верховным судом России, Судебным департаментом при Верховном суде, и в таком случае они могут быть подписаны простой электронной подписью. Если документы отправляются в суд посредством систем электронного документооборота участников производства по делу об административном правонарушении, то они должны быть подписаны усиленной квалифицированной электронной подписью.
Также в КоАП вносится статья, которая прописывает правила участия в рассмотрении дела об административном правонарушении с использованием системы веб-конференции. Оговаривается, что такая возможность используется при наличии у участников дела технической возможности. Установление личности участника дела, рассматриваемого через веб-конференцию, проводится с помощью Единой системы идентификации и аутентификации или Единой биометрической системы.
Судья, орган или должностное лицо, рассматривающие дело об административном правонарушении, через портал Госуслуг получают согласие от потерпевшего, свидетелей, специалистов, экспертов и переводчиков. Это делается для разъяснения им их прав и обязанностей, а также предупреждения об ответственности.
Нельзя использовать удаленное участие в рассмотрении дела, если вынесено решение о его закрытом рассмотрении.
Закон вступит в силу с 1 июля 2025 года.
⚖️Верховный суд Аризоны использует аватары с ИИ, чтобы сделать судебную систему более доступной.
Верховный суд Аризоны создал двух аватаров, сгенерированных искусственным интеллектом, чтобы сообщать о каждом решении, вынесенном судьями. Считается, что это первый в США пример того, как система судов штата использует искусственный интеллект для создания более человекоподобных персонажей для взаимодействия с общественностью.
Эти аватары, представляют новости, поступающие из суда, как это сделал бы пресс-секретарь человек, но оперативнее и более подробно.
По словам представителя суда Альберто Родригеса, аватары, созданные с помощью ИИ, были самым эффективным способом создания видео и распространения информации. По его словам, создание видео обычно занимает несколько часов, но видео, созданное с помощью ИИ, готово примерно за 30 минут. В будущем суд может внедрить больше аватров, созданных с помощью ИИ, сообщил Родригес в пресс-релизе.
Судья, который вынес решение, также готовит пресс-релиз, формулировки которого должны быть одобрены всем составом суда. Затем судья работает с отделом коммуникаций суда над сценарием для аватаров — по словам Родригеса, аватары не интерпретируют оригинальные решения или определения суда.
Верховный суд Аризоны создал двух аватаров, сгенерированных искусственным интеллектом, чтобы сообщать о каждом решении, вынесенном судьями. Считается, что это первый в США пример того, как система судов штата использует искусственный интеллект для создания более человекоподобных персонажей для взаимодействия с общественностью.
Эти аватары, представляют новости, поступающие из суда, как это сделал бы пресс-секретарь человек, но оперативнее и более подробно.
По словам представителя суда Альберто Родригеса, аватары, созданные с помощью ИИ, были самым эффективным способом создания видео и распространения информации. По его словам, создание видео обычно занимает несколько часов, но видео, созданное с помощью ИИ, готово примерно за 30 минут. В будущем суд может внедрить больше аватров, созданных с помощью ИИ, сообщил Родригес в пресс-релизе.
Судья, который вынес решение, также готовит пресс-релиз, формулировки которого должны быть одобрены всем составом суда. Затем судья работает с отделом коммуникаций суда над сценарием для аватаров — по словам Родригеса, аватары не интерпретируют оригинальные решения или определения суда.
🖥 Яндекс представил Нейроэксперта.
Яндекс запустил бета-версию Нейроэксперта. В него можно загрузить ссылки из интернета, документы, таблицы, презентации, аудио- и видеофайлы, а сервис создаст из них удобную базу знаний и поможет найти в ней ответ на любой вопрос. Кроме того, Нейроэксперт может пересказать содержание документов, сделать общий вывод или сравнение, написать на основе загруженных данных текст в нужном стиле и многое другое. Воспользоваться сервисом можно по ссылке.
Базы знаний в Нейроэксперте напоминают привычные папки в облачных хранилищах, и ими так же можно делиться по ссылке. В одну такую «папку» можно загрузить до 25 файлов и ссылок разных форматов: от таблиц до аудиосообщений из мессенджера. По всей загруженной информации пользователь может задавать вопросы в режиме диалога — как при общении с обычным чат-ботом. Нейроэксперт подготовит ответ только на основе источников пользователя и не добавит ничего «от себя». После выхода сервиса из бета-тестирования пользователи смогут добавлять больше 25 файлов или ссылок.
Нейроэксперт будет полезен тем, кто работает с большим количеством информации. Например, преподаватели могут создавать из своих лекций и других материалов базы знаний и делиться ими со студентами. Учащиеся смогут искать в этих базах знаний ответы на вопросы при подготовке к экзаменам. Ещё сервис можно использовать, например, если нужно подготовить отчёт, а цифры из исследования содержатся в одной из множества презентаций. Нейроэксперт поможет их найти без необходимости пересматривать все материалы.
Извлекать знания из документов помогают сразу несколько технологий Яндекса. Визуально-языковая модель (VLM) находит нужные данные в графиках и диаграммах. Технология распознавания речи (ASR) применяется для аудио и видео. С текстом на картинках работает технология оптического распознавания символов (OCR).
Ответ на вопрос пользователя генерирует YandexGPT 5 Pro — самая последняя версия большой языковой модели Яндекса. Чтобы нейросеть могла понимать запрос и давать качественный и полезный ответ, она использует свои знания о мироустройстве и правилах языка. При этом модель отвечает, основываясь не на данных из своей памяти, а на информации из загруженных документов. Объединить знания нейросети и найденные сведения из файлов и ссылок помогает RAG-система (Retrieval Augmented Generation).
Яндекс запустил бета-версию Нейроэксперта. В него можно загрузить ссылки из интернета, документы, таблицы, презентации, аудио- и видеофайлы, а сервис создаст из них удобную базу знаний и поможет найти в ней ответ на любой вопрос. Кроме того, Нейроэксперт может пересказать содержание документов, сделать общий вывод или сравнение, написать на основе загруженных данных текст в нужном стиле и многое другое. Воспользоваться сервисом можно по ссылке.
Базы знаний в Нейроэксперте напоминают привычные папки в облачных хранилищах, и ими так же можно делиться по ссылке. В одну такую «папку» можно загрузить до 25 файлов и ссылок разных форматов: от таблиц до аудиосообщений из мессенджера. По всей загруженной информации пользователь может задавать вопросы в режиме диалога — как при общении с обычным чат-ботом. Нейроэксперт подготовит ответ только на основе источников пользователя и не добавит ничего «от себя». После выхода сервиса из бета-тестирования пользователи смогут добавлять больше 25 файлов или ссылок.
Нейроэксперт будет полезен тем, кто работает с большим количеством информации. Например, преподаватели могут создавать из своих лекций и других материалов базы знаний и делиться ими со студентами. Учащиеся смогут искать в этих базах знаний ответы на вопросы при подготовке к экзаменам. Ещё сервис можно использовать, например, если нужно подготовить отчёт, а цифры из исследования содержатся в одной из множества презентаций. Нейроэксперт поможет их найти без необходимости пересматривать все материалы.
Извлекать знания из документов помогают сразу несколько технологий Яндекса. Визуально-языковая модель (VLM) находит нужные данные в графиках и диаграммах. Технология распознавания речи (ASR) применяется для аудио и видео. С текстом на картинках работает технология оптического распознавания символов (OCR).
Ответ на вопрос пользователя генерирует YandexGPT 5 Pro — самая последняя версия большой языковой модели Яндекса. Чтобы нейросеть могла понимать запрос и давать качественный и полезный ответ, она использует свои знания о мироустройстве и правилах языка. При этом модель отвечает, основываясь не на данных из своей памяти, а на информации из загруженных документов. Объединить знания нейросети и найденные сведения из файлов и ссылок помогает RAG-система (Retrieval Augmented Generation).
📈ФНС разместила информацию о котировках криптовалют.
Федеральная налоговая служба (ФНС) РФ разместила на официальном сайте информацию о рыночных котировках цифровых валют для налогоплательщиков.
"На сайте Федеральной налоговой службы опубликована информация о рыночных котировках цифровых валют и суммарных объемах ежедневных торгов у иностранных организаторов торговли (бирж) для налогоплательщиков для определения дохода по операциям с цифровой валютой на основании сведений из открытых источников. Таким образом, налогоплательщики смогут рассчитывать налоговую базу по операциям с цифровой валютой на каждую дату признания дохода".
Отмечается, что доход в виде цифровой валюты, полученной в результате майнинга, является доходом в натуральной форме, а стоимость цифровой валюты определяется исходя из ее рыночной котировки на дату фактического получения дохода.
Так, как отметили в ФНС, датой фактического получения дохода в виде цифровой валюты считается день, когда у лица возникло право распоряжаться ею. В ведомстве сообщили, что благодаря данному сервису налогоплательщики смогут рассчитывать стоимость цифровой валюты, полученной в результате майнинга для учета дохода, а также высчитывать себестоимость реализованной цифровой валюты, полученной в результате майнинга для учета расходов.
В ФНС напомнили, что доходы в виде цифровой валюты, полученной в результате майнинга, определяются исходя из ее рыночной котировки на дату признания дохода. Информация о предоставлении отчетности по полученной в результате майнинга цифровой валюте и расчете налоговой базы по операциям с цифровой валютой размещена на промостранице "МайнингРеестр".
Федеральная налоговая служба (ФНС) РФ разместила на официальном сайте информацию о рыночных котировках цифровых валют для налогоплательщиков.
"На сайте Федеральной налоговой службы опубликована информация о рыночных котировках цифровых валют и суммарных объемах ежедневных торгов у иностранных организаторов торговли (бирж) для налогоплательщиков для определения дохода по операциям с цифровой валютой на основании сведений из открытых источников. Таким образом, налогоплательщики смогут рассчитывать налоговую базу по операциям с цифровой валютой на каждую дату признания дохода".
Отмечается, что доход в виде цифровой валюты, полученной в результате майнинга, является доходом в натуральной форме, а стоимость цифровой валюты определяется исходя из ее рыночной котировки на дату фактического получения дохода.
Так, как отметили в ФНС, датой фактического получения дохода в виде цифровой валюты считается день, когда у лица возникло право распоряжаться ею. В ведомстве сообщили, что благодаря данному сервису налогоплательщики смогут рассчитывать стоимость цифровой валюты, полученной в результате майнинга для учета дохода, а также высчитывать себестоимость реализованной цифровой валюты, полученной в результате майнинга для учета расходов.
В ФНС напомнили, что доходы в виде цифровой валюты, полученной в результате майнинга, определяются исходя из ее рыночной котировки на дату признания дохода. Информация о предоставлении отчетности по полученной в результате майнинга цифровой валюте и расчете налоговой базы по операциям с цифровой валютой размещена на промостранице "МайнингРеестр".
👮♂️Президент поручил изучить применение ИИ в преступлении как отягчающее обстоятельство.
Правительство РФ и силовые структуры должны к новому году изучить целесообразность признания использования искусственного интеллекта в преступлениях отягчающим обстоятельством. Такое поручение дал президент РФ Владимир Путин.
Кабмину вместе с Верховным судом, МВД, СК и ФСБ поручено "рассмотреть вопрос о целесообразности признания в качестве обстоятельства, отягчающего ответственность или наказание, использования при совершении правонарушения (преступления) технологий искусственного интеллекта и при необходимости обеспечить внесение" поправок до января 2026 года, говорится в тексте поручений.
Правительство РФ и силовые структуры должны к новому году изучить целесообразность признания использования искусственного интеллекта в преступлениях отягчающим обстоятельством. Такое поручение дал президент РФ Владимир Путин.
Кабмину вместе с Верховным судом, МВД, СК и ФСБ поручено "рассмотреть вопрос о целесообразности признания в качестве обстоятельства, отягчающего ответственность или наказание, использования при совершении правонарушения (преступления) технологий искусственного интеллекта и при необходимости обеспечить внесение" поправок до января 2026 года, говорится в тексте поручений.
⚖️Аватар созданный искусственным интеллектом пытался вести дело в суде Нью-Йорка.
Истец по трудовому спору в качестве аргумента просил Апелляционный суд Нью-Йорка посмотреть запись видео. На видео человек начал излагать доводы.
На вопрос одного из судей, является человек на видео адвокатом, истец ответил, что у него нет адвоката, который представлял бы его интересы в суде, поэтому ему пришлось самому приводить свои юридические аргументы. И он решил создать аватар, который сможет выступить убедительно, не волноваться и не допускать запинаний.
Судьи были крайне недовольны, что их не предупредили, что выступать будет не реальный человек, а аватар, и посчитали такой поступок неуважением к суду.
Эксперт указал, что если бы так поступил адвокат, его могли бы лишить лицензии. Но люди, которые приходят в суд без адвоката и просят разрешения выступить в суде, обычно не понимают рисков, связанных с использованием видео, созданного искусственным интеллектом, для представления их дела.
Истец по трудовому спору в качестве аргумента просил Апелляционный суд Нью-Йорка посмотреть запись видео. На видео человек начал излагать доводы.
На вопрос одного из судей, является человек на видео адвокатом, истец ответил, что у него нет адвоката, который представлял бы его интересы в суде, поэтому ему пришлось самому приводить свои юридические аргументы. И он решил создать аватар, который сможет выступить убедительно, не волноваться и не допускать запинаний.
Судьи были крайне недовольны, что их не предупредили, что выступать будет не реальный человек, а аватар, и посчитали такой поступок неуважением к суду.
Эксперт указал, что если бы так поступил адвокат, его могли бы лишить лицензии. Но люди, которые приходят в суд без адвоката и просят разрешения выступить в суде, обычно не понимают рисков, связанных с использованием видео, созданного искусственным интеллектом, для представления их дела.
💻В Нью-Йорке предложили использовать блокчейн при проведении выборов.
Депутат Ассамблеи штата Нью-Йорк Клайд Ванель внёс законопроект A07716, предписывающий Избирательной комиссии штата оценить, как блокчейн может помочь защитить данные избирателей и результаты выборов.
Согласно обоснованию, цель закнопроекта состоит в том, чтобы «изучить и оценить использование технологии блокчейн для защиты данных об избирателях и результатов выборов».
Законопроект обязывает Избирательную комиссию в течение года подготовить отчёт с оценкой потенциальных преимуществ блокчейна для защиты данных о выборах. В исследовании должны принять участие эксперты в области блокчейна, кибербезопасности, фальсификации выборов и ведения избирательной документации.
Эксперты считают, что надёжность блокчейн-систем зависит от надёжности вводимых в них данных. Эту концепцию часто формулируют как «что введёшь, то и получишь». Хотя блокчейн обеспечивает защиту от несанкционированного доступа, он не гарантирует целостность исходных данных.
Депутат Ассамблеи штата Нью-Йорк Клайд Ванель внёс законопроект A07716, предписывающий Избирательной комиссии штата оценить, как блокчейн может помочь защитить данные избирателей и результаты выборов.
Согласно обоснованию, цель закнопроекта состоит в том, чтобы «изучить и оценить использование технологии блокчейн для защиты данных об избирателях и результатов выборов».
Законопроект обязывает Избирательную комиссию в течение года подготовить отчёт с оценкой потенциальных преимуществ блокчейна для защиты данных о выборах. В исследовании должны принять участие эксперты в области блокчейна, кибербезопасности, фальсификации выборов и ведения избирательной документации.
Эксперты считают, что надёжность блокчейн-систем зависит от надёжности вводимых в них данных. Эту концепцию часто формулируют как «что введёшь, то и получишь». Хотя блокчейн обеспечивает защиту от несанкционированного доступа, он не гарантирует целостность исходных данных.
💻В России обсудят запрет ИИ с «угрожающим уровнем риска».
Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России»
Что предлагает законопроект:
- Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
- Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
- Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
- Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
- Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
- Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
- Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).
Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.
Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России»
Что предлагает законопроект:
- Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
- Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
- Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
- Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
- Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
- Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
- Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).
Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.
👮♂️Власти одобрили механизм изъятия криптовалюты при уголовных делах.
Власти одобрили механизм признания криптовалюты имуществом и способы ее изъятия при уголовных делах.
Соответствующие нормы содержатся в законопроекте, который вносит изменения в Уголовный кодекс и Уголовно-процессуальный кодекс РФ.
Что устанавливают поправки:
- Законопроект признает цифровую валюту имуществом для целей Уголовного и Уголовно-процессуального кодексов.
- Определяет действия следователя и дознавателя в случаях, если при предварительном расследовании выявляется цифровая валюта, подлежащая изъятию и признанию вещественным доказательством. Изъятие может происходить по двум сценариям в зависимости от типа хранения криптовалюты.
- Следователи смогут изымать сами материальные устройства, на которых хранится цифровая валюта или код доступа к ней, а также переводить криптовалюту на адрес-идентификатор, «позволяющий обеспечить ее сохранность».
В пояснительной записке подчеркивается, что выбор способа изъятия криптовалюты будет зависеть от ситуации и конкретного вида криптовалюты, но возможно осуществление обеих мер. Криптовалюта хранится в офлайне с помощью специальных аппаратных устройств (так называемых холодных кошельков, например USB-устройств), или в мобильных приложениях, или на веб-кошельках (горячие кошельки).
«Изъятие осуществляется с участием специалиста, который определяет в том числе выбор необходимых мер для обеспечения сохранности с учетом особенностей цифровой валюты», — говорится в пояснительной записке. Изъятие необходимо, чтобы владелец криптовалюты или третьи лица не могли проводить с ней операции, подчеркивается в документе.
Власти одобрили механизм признания криптовалюты имуществом и способы ее изъятия при уголовных делах.
Соответствующие нормы содержатся в законопроекте, который вносит изменения в Уголовный кодекс и Уголовно-процессуальный кодекс РФ.
Что устанавливают поправки:
- Законопроект признает цифровую валюту имуществом для целей Уголовного и Уголовно-процессуального кодексов.
- Определяет действия следователя и дознавателя в случаях, если при предварительном расследовании выявляется цифровая валюта, подлежащая изъятию и признанию вещественным доказательством. Изъятие может происходить по двум сценариям в зависимости от типа хранения криптовалюты.
- Следователи смогут изымать сами материальные устройства, на которых хранится цифровая валюта или код доступа к ней, а также переводить криптовалюту на адрес-идентификатор, «позволяющий обеспечить ее сохранность».
В пояснительной записке подчеркивается, что выбор способа изъятия криптовалюты будет зависеть от ситуации и конкретного вида криптовалюты, но возможно осуществление обеих мер. Криптовалюта хранится в офлайне с помощью специальных аппаратных устройств (так называемых холодных кошельков, например USB-устройств), или в мобильных приложениях, или на веб-кошельках (горячие кошельки).
«Изъятие осуществляется с участием специалиста, который определяет в том числе выбор необходимых мер для обеспечения сохранности с учетом особенностей цифровой валюты», — говорится в пояснительной записке. Изъятие необходимо, чтобы владелец криптовалюты или третьи лица не могли проводить с ней операции, подчеркивается в документе.
👮♂️В России запустят единый реестр подозрительных криптокошельков.
Росфинмониторинг собирается запустить реестр подозрительных адресов-идентификаторов цифровых валют. Соответствующее положение содержится в техническом задании на развитие внутренней IT-системы ведомства, опубликованном на сайте госзакупок.
Ведомство собирается включать в реестр адреса криптокошельков, которые будут поставлять налоговая служба, МВД, спецслужбы, банки и некоторые «иностранные партнеры».
В ведомстве утверждают, что создают цифровую экосистему для усиления борьбы с отмыванием преступных доходов, финансированием террористических групп и распространением оружия массового уничтожения.
Реестр также будет использоваться для автоматизации финансовых расследований, мониторинга операций с цифровым рублем и регистрации майнеров.
Криптобиржи могут обязать взаимодействовать с реестром, предоставляя информацию о переводах.
Росфинмониторинг собирается запустить реестр подозрительных адресов-идентификаторов цифровых валют. Соответствующее положение содержится в техническом задании на развитие внутренней IT-системы ведомства, опубликованном на сайте госзакупок.
Ведомство собирается включать в реестр адреса криптокошельков, которые будут поставлять налоговая служба, МВД, спецслужбы, банки и некоторые «иностранные партнеры».
В ведомстве утверждают, что создают цифровую экосистему для усиления борьбы с отмыванием преступных доходов, финансированием террористических групп и распространением оружия массового уничтожения.
Реестр также будет использоваться для автоматизации финансовых расследований, мониторинга операций с цифровым рублем и регистрации майнеров.
Криптобиржи могут обязать взаимодействовать с реестром, предоставляя информацию о переводах.
⚖️Рабочая группа Совета судей РФ сформулирует концептуальные подходы к использованию искусственного интеллекта в судах.
На заседании Президиума Совета судей РФ был рассмотрен вопрос о разработке новых технологий для судебной системы, которые позволят ей интегрироваться в новую информационную структуру социума и автоматизировать рабочие места (в том числе с использованием технологий искусственного интеллекта).
В связи с этим было принято решение о создании рабочей группы под руководством председателя Совета судей РФ Виктора Момотова с участием представителей Верховного Суда РФ, председателей судов, представителей Совета судей РФ, Высшей квалификационной коллегии судей РФ, Судебного департамента при Верховном Суде РФ, медиагруппы «Судья» и Российского агентства правовой и судебной информации (РАПСИ).
На заседании Президиума Совета судей РФ был рассмотрен вопрос о разработке новых технологий для судебной системы, которые позволят ей интегрироваться в новую информационную структуру социума и автоматизировать рабочие места (в том числе с использованием технологий искусственного интеллекта).
В связи с этим было принято решение о создании рабочей группы под руководством председателя Совета судей РФ Виктора Момотова с участием представителей Верховного Суда РФ, председателей судов, представителей Совета судей РФ, Высшей квалификационной коллегии судей РФ, Судебного департамента при Верховном Суде РФ, медиагруппы «Судья» и Российского агентства правовой и судебной информации (РАПСИ).
👮♂️На Госуслугах может появиться возможность подачи заявлений в полицию.
Минцифры РФ планирует обсудить с МВД введение возможности подачи заявлений в правоохранительные органы через "Госуслуги". Об этом сообщил министр цифрового развития РФ Максут Шадаев.
Он отметил, что такая мера может появиться в рамках второго пакета поправок к закону по борьбе с кибермошенниками. По словам министра, данные заявления планируется подавать по киберпреступлениям.
Минцифры РФ планирует обсудить с МВД введение возможности подачи заявлений в правоохранительные органы через "Госуслуги". Об этом сообщил министр цифрового развития РФ Максут Шадаев.
Он отметил, что такая мера может появиться в рамках второго пакета поправок к закону по борьбе с кибермошенниками. По словам министра, данные заявления планируется подавать по киберпреступлениям.
⚖️Дела о разводах хотят отдать искусственному интеллекту.
В Госдуму в ближайшее время могут внести законопроект, который узаконит использование искусственного интеллекта (ИИ) в судопроизводстве. Технологию на первом этапе могут допустить к оформлению наиболее простых документов — судебных приказов, но уже есть перспективы использования ИИ в делах, которые носят массовый характер, например, бракоразводных процессах, взыскании платы за ЖКХ, задолженностей по кредитам.
Нагрузка на российских судей постоянно растет: за десять лет количество рассматриваемых дел утроилось, с 14 миллионов в 2014-м до 42 миллионов в 2024 году, привел данные председатель Амурского областного суда Олег Васильев. По статистике, почти треть рабочего времени судья проводит за изучением материалов дела, а две трети уходит у него на написание и проверку текста решения. В работе над последним может помочь ИИ, считают в профессиональном сообществе.
В трети российских регионов проходит эксперимент по автоматизации так называемых бесспорных дел, или приказного производства. Судебный приказ используют, когда между сторонами нет спора о праве и размер долга не превышает определенную пороговую сумму по закону, напомнил зампред Благовещенского райсуда Амурской области Игорь Емшанов. ИИ вполне может штамповать судебные приказы, что подтвердили эксперименты, поэтому в ближайшее время могут «предусмотреть в процессуальном кодексе механизм автоматического формирования судебного приказа при подаче заявления в суд в электронной форме», сообщил Емшанов. По его информации, Совет судей РФ готов выступить с инициативой о внесении соответствующих изменений в законодательство. Это будет первый опыт признания ИИ в судебной системе.
Об ответственности и этических рисках думают и в Верховном суде, представитель которого Алексей Солохин, отвечающий за систематизацию законодательства и анализ судебной практики по делам об экономических спорах, сказал, что как раз при рассмотрении экономических дел ИИ может демонстрировать наибольшую эффективность. Споры хозяйствующих субъектов наименее подвержены оценочным суждениям. В России, по словам Солохина, ежегодно рассматривают 1,8 миллиона экономических дел.
В Госдуму в ближайшее время могут внести законопроект, который узаконит использование искусственного интеллекта (ИИ) в судопроизводстве. Технологию на первом этапе могут допустить к оформлению наиболее простых документов — судебных приказов, но уже есть перспективы использования ИИ в делах, которые носят массовый характер, например, бракоразводных процессах, взыскании платы за ЖКХ, задолженностей по кредитам.
Нагрузка на российских судей постоянно растет: за десять лет количество рассматриваемых дел утроилось, с 14 миллионов в 2014-м до 42 миллионов в 2024 году, привел данные председатель Амурского областного суда Олег Васильев. По статистике, почти треть рабочего времени судья проводит за изучением материалов дела, а две трети уходит у него на написание и проверку текста решения. В работе над последним может помочь ИИ, считают в профессиональном сообществе.
В трети российских регионов проходит эксперимент по автоматизации так называемых бесспорных дел, или приказного производства. Судебный приказ используют, когда между сторонами нет спора о праве и размер долга не превышает определенную пороговую сумму по закону, напомнил зампред Благовещенского райсуда Амурской области Игорь Емшанов. ИИ вполне может штамповать судебные приказы, что подтвердили эксперименты, поэтому в ближайшее время могут «предусмотреть в процессуальном кодексе механизм автоматического формирования судебного приказа при подаче заявления в суд в электронной форме», сообщил Емшанов. По его информации, Совет судей РФ готов выступить с инициативой о внесении соответствующих изменений в законодательство. Это будет первый опыт признания ИИ в судебной системе.
Об ответственности и этических рисках думают и в Верховном суде, представитель которого Алексей Солохин, отвечающий за систематизацию законодательства и анализ судебной практики по делам об экономических спорах, сказал, что как раз при рассмотрении экономических дел ИИ может демонстрировать наибольшую эффективность. Споры хозяйствующих субъектов наименее подвержены оценочным суждениям. В России, по словам Солохина, ежегодно рассматривают 1,8 миллиона экономических дел.
🇦🇪ОАЭ первыми в мире начнут использовать ИИ для написания законов.
В ОАЭ решили использовать ИИ для написание новых законов и изменение старых. Власти страны рассчитывают, что это позволит сократить время разработки законов на 70%.
Планируется создать общую базу данных со всеми федеральными и местными законами, судебными прецедентами и другими сведениями из различных государственных ведомств. ИИ будет анализировать эту информацию, формировать предложения по изменению законодательства и оценивать их возможное влияние на экономику и общество.
ОАЭ хочет стать первой страной, которая будет использовать ИИ для законотворчества и пересмотра законодательства. В большинстве стран ИИ применяется только в качестве вспомогательного инструмента, например, для анализа данных или оптимизации рабочих процессов.
Эксперты предупреждают о возможных рисках инициативы. Как подчеркнул Винсент Штрауб, исследователь из Оксфордского университета, ИИ может выдавать ненадёжные или даже ложные результаты, а его логические рассуждения не всегда понятны. По его словам, несмотря на перспективность, идея зависимости от машинных алгоритмов в такой важной сфере, как законотворчество, может быть опасной.
В ОАЭ решили использовать ИИ для написание новых законов и изменение старых. Власти страны рассчитывают, что это позволит сократить время разработки законов на 70%.
Планируется создать общую базу данных со всеми федеральными и местными законами, судебными прецедентами и другими сведениями из различных государственных ведомств. ИИ будет анализировать эту информацию, формировать предложения по изменению законодательства и оценивать их возможное влияние на экономику и общество.
ОАЭ хочет стать первой страной, которая будет использовать ИИ для законотворчества и пересмотра законодательства. В большинстве стран ИИ применяется только в качестве вспомогательного инструмента, например, для анализа данных или оптимизации рабочих процессов.
Эксперты предупреждают о возможных рисках инициативы. Как подчеркнул Винсент Штрауб, исследователь из Оксфордского университета, ИИ может выдавать ненадёжные или даже ложные результаты, а его логические рассуждения не всегда понятны. По его словам, несмотря на перспективность, идея зависимости от машинных алгоритмов в такой важной сфере, как законотворчество, может быть опасной.
💻Компании начнут нанимать виртуальных ИИ-сотрудников в 2026 году.
Виртуальные сотрудники, созданные искусственным интеллектом (ИИ), получат полноценную работу в крупных корпорациях уже в 2026 году, считает топ-менеджер технологической компании Anthropic Джейсон Клинтон. По его словам, у них будут отдельные должности, корпоративные учетные записи и пароли.
Появление виртуальных сотрудников на рабочих местах станет новым этапом в развитии ИИ. При этом он предупредил, что для компаний это станет дополнительным риском в безопасности.
Сотрудники на основе ИИ могут выйти из-под контроля и взломать внутренние системы компании. Кроме того, возникнут проблемы в вопросах корпоративного управления. Джейсон Клинтон уточнил, что в компании уже с трудом отслеживают, какой объем информации доступен для разных учетных записей. По его словам, в некоторых случаях это ведет к утечкам корпоративных данных.
Виртуальные сотрудники, созданные искусственным интеллектом (ИИ), получат полноценную работу в крупных корпорациях уже в 2026 году, считает топ-менеджер технологической компании Anthropic Джейсон Клинтон. По его словам, у них будут отдельные должности, корпоративные учетные записи и пароли.
Появление виртуальных сотрудников на рабочих местах станет новым этапом в развитии ИИ. При этом он предупредил, что для компаний это станет дополнительным риском в безопасности.
Сотрудники на основе ИИ могут выйти из-под контроля и взломать внутренние системы компании. Кроме того, возникнут проблемы в вопросах корпоративного управления. Джейсон Клинтон уточнил, что в компании уже с трудом отслеживают, какой объем информации доступен для разных учетных записей. По его словам, в некоторых случаях это ведет к утечкам корпоративных данных.