О разработке законопроекта сообщило издание РБК, сославшись на несколько знакомых с ситуацией источники. РБК также приводит выдержки из проекта. Так, в пояснительной записке обозначено, что инициатива подготовлена в целях реализации Национальной стратегии развития ИИ до 2030 года.
Законопроектом предлагается ввести определение понятий искусственного интеллекта, а также технологий и систем на его основе. Кроме того, авторы считают необходимым внедрить требования по маркировке таких систем в виде обязательного информационного обозначения, а также их классификацию по уровню потенциального риска (системы с неприемлемым, высоким, ограниченным, минимальным уровнями риска). Разработку и использование систем с неприемлемым уровнем риска в России предлагается запретить.
Помимо этого, в документе есть пункт о введении ответственности для разработчиков технологий на основе ИИ за причинение вреда жизни, здоровью или имуществу пользователей. Однако, указывается в проекте регламента, ответственность за такие последствия не наступит, если создатель ИИ-решения принял все меры для предотвращения причинения вреда или если пользователь сам нарушил правила эксплуатации системы.
В случае, если документ утвердят в актуальной на данный момент редакции, системы ИИ с высоким уровнем риска должны будут в обязательном порядке пройти сертификацию в течение двух лет в момента принятия регламента.
По словам зампреда Комитета Госдумы по информационной политике Андрея Свинцова, в ближайшие месяцы будет подготовлено несколько инициатив, направленных на «точечное» регулирование отдельных сфер отрасли. Среди прочего этими вопросами занимается специальная группа «по разработке всего, что связано с законодательством в области ИИ», – ее создали по поручению председателя нижней палаты парламента Вячеслава Володина. Несмотря на это, появление законопроекта, который бы регламентировал всю деятельность ИИ, на уровне Госдумы в этом году не ожидается, отметил Свинцов.
В марте 2025 года межведомственная рабочая группа при Минздраве РФ по вопросам создания, развития и внедрения в клиническую практику медицинских изделий и сервисов с использованием технологий ИИ утвердила Кодекс этики применения ИИ в сфере охраны здоровья. О том, как разработчики ИИ-решений, представителями врачебного сообщества и медвузов оценили нововведение – в материале Vademecum.
О разработке законопроекта сообщило издание РБК, сославшись на несколько знакомых с ситуацией источники. РБК также приводит выдержки из проекта. Так, в пояснительной записке обозначено, что инициатива подготовлена в целях реализации Национальной стратегии развития ИИ до 2030 года.
Законопроектом предлагается ввести определение понятий искусственного интеллекта, а также технологий и систем на его основе. Кроме того, авторы считают необходимым внедрить требования по маркировке таких систем в виде обязательного информационного обозначения, а также их классификацию по уровню потенциального риска (системы с неприемлемым, высоким, ограниченным, минимальным уровнями риска). Разработку и использование систем с неприемлемым уровнем риска в России предлагается запретить.
Помимо этого, в документе есть пункт о введении ответственности для разработчиков технологий на основе ИИ за причинение вреда жизни, здоровью или имуществу пользователей. Однако, указывается в проекте регламента, ответственность за такие последствия не наступит, если создатель ИИ-решения принял все меры для предотвращения причинения вреда или если пользователь сам нарушил правила эксплуатации системы.
В случае, если документ утвердят в актуальной на данный момент редакции, системы ИИ с высоким уровнем риска должны будут в обязательном порядке пройти сертификацию в течение двух лет в момента принятия регламента.
По словам зампреда Комитета Госдумы по информационной политике Андрея Свинцова, в ближайшие месяцы будет подготовлено несколько инициатив, направленных на «точечное» регулирование отдельных сфер отрасли. Среди прочего этими вопросами занимается специальная группа «по разработке всего, что связано с законодательством в области ИИ», – ее создали по поручению председателя нижней палаты парламента Вячеслава Володина. Несмотря на это, появление законопроекта, который бы регламентировал всю деятельность ИИ, на уровне Госдумы в этом году не ожидается, отметил Свинцов.
В марте 2025 года межведомственная рабочая группа при Минздраве РФ по вопросам создания, развития и внедрения в клиническую практику медицинских изделий и сервисов с использованием технологий ИИ утвердила Кодекс этики применения ИИ в сфере охраны здоровья. О том, как разработчики ИИ-решений, представителями врачебного сообщества и медвузов оценили нововведение – в материале Vademecum.