Исследования и инновации
Облачные решения становятся базой для развития ИИ в медицине
Исследование консалтингового агентства «Яков и Партнеры» совместно с Yandex B2B Tech показало, что российские медорганизации пока тратят мало средств на «облако» и слабо оценивают его влияние на бизнес, но именно развитая облачная инфраструктура становится ключевым условием для внедрения ИИ: компании, активно использующие public cloud, запускают ИИ-проекты в десятки раз чаще. Работа демонстрирует разрыв между текущей практикой в здравоохранении и требованиями для масштабирования ИИ, а также объясняет, почему без перехода в «облако» цифровая трансформация медицины будет буксовать.
Мировые регуляторы ужесточают требования к синтетическим медданным
Ученые из Университета Оттавы (Канада) выяснили, что регуляторы Великобритании, Сингапура и Южной Кореи ужесточают требования к синтетическим медданным, рассматривая их как потенциальный источник рисков. В руководствах закреплены базовые проверки качества и приватности, включая сопоставимость с реальными наборами и оценку остаточного риска раскрытия личности. По данным исследования, синтетические данные активно используются при разработке медицинского ИИ, но без понятных стандартов сохраняют уязвимости, и регуляторы требуют строгого документирования процедур и соблюдения норм обработки персональных данных.
Аналитики зафиксировали резкий разброс точности ИИ-ассистентов
Исследование Artificial Analysis показало, что точность и частота галлюцинаций у ИИ-ассистентов сильно варьируются: даже лидеры дают лишь около половины корректных ответов, а у многих моделей уровень ошибок достигает 60–90%. Такой разнобой эксперты фиксировали в условиях, близких к реальной работе через API, которыми пользуются медсервисы. Работа демонстрирует, что ИИ может выглядеть уверенно, но систематически выдавать неверные выводы, что усложняет его применение в медицине.
Данные клинических работ опровергли ожидания о «сверхсинергии» врача и ИИ
Анализ 52 клинических работ показал, что тандем «врач + ИИ» действительно повышает точность, но не дает ожидаемой «сверхсинергии»: лучший эффект достигается в одновременном режиме, когда специалист видит данные и подсказки одновременно. По мнению авторов, гибридные системы работают лишь при правильной настройке процессов, а ожидания от их «магического» усиления заметно завышены.
Международный опыт
Разработан мобильный ИИ для ранней диагностики ухудшения зрения
Платформа Iriscience превращает смартфон в инструмент офтальмологического скрининга и позволяет рано выявлять катаракту, глаукому и диабетическую ретинопатию там, где нет доступа к офтальмологам. Решение основано на видеосъемке глазного дна, работает в мобильных и сельских пунктах помощи, учитывает требования к качеству данных и безопасности медицинского ПО. Так, доступный мобильный ИИ закрывает дефицит диагностики, снижает риск предотвратимой слепоты и расширяет применение цифровых биомаркеров.
У FDA появится ИИ-платформа для сотрудников
Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США запускает экспериментальную ИИ-платформу, чтобы разгрузить сотрудников после ранее проведенных сокращений и ускорить внутренние процессы – от рассмотрения заявок и инспекций до анализа данных и администрирования. Использование ИИ-агента добровольное, модели не обучаются на входящих материалах. Ведомство делает ставку на ИИ для повышения эффективности, параллельно тестируя сценарии применения через внутренний конкурс и опираясь на опыт уже внедренного инструмента Elsa, которым пользуется большая часть сотрудников.
Этика и цифровая безопасность
Разработчики платформы для ментального здоровья признали технологии ИИ небезопасными
Основатели стартапа Yara AI закрыли сервис эмоциональной поддержки на базе ИИ после того, как пришли к выводу, что современные модели небезопасны для работы с уязвимыми пользователями: они непредсказуемы, не отслеживают динамику состояния и могут ошибаться в критических ситуациях. На решение повлияли резонансные случаи, обсуждение рисков, данные исследований и региональные запреты на использование ИИ в терапии. Команда открыла для общего доступа созданные инструменты безопасности и заявила, что надежные системы поддержки должны развивать медучреждения или НКО, а один из основателей стартапа переключился на проект по повышению прозрачности и безопасности ИИ.
Длительное общение с ИИ может усиливать риск психотических эпизодов
Ученые описали более десятка случаев так называемого «психоза ИИ», когда длительное общение с чат-ботами усиливало маниакальные идеи у уязвимых пользователей, хотя доказательств того, что ИИ может вызвать психоз у здоровых людей, нет. Исследование подчеркивает риск непреднамеренного подкрепления симптомов моделями, ориентированными на удержание пользователя, и обосновывает необходимость встроенных защитных механизмов и своевременного перенаправления к профессиональной помощи.
Исследования и инновации
Облачные решения становятся базой для развития ИИ в медицине
Исследование консалтингового агентства «Яков и Партнеры» совместно с Yandex B2B Tech показало, что российские медорганизации пока тратят мало средств на «облако» и слабо оценивают его влияние на бизнес, но именно развитая облачная инфраструктура становится ключевым условием для внедрения ИИ: компании, активно использующие public cloud, запускают ИИ-проекты в десятки раз чаще. Работа демонстрирует разрыв между текущей практикой в здравоохранении и требованиями для масштабирования ИИ, а также объясняет, почему без перехода в «облако» цифровая трансформация медицины будет буксовать.
Мировые регуляторы ужесточают требования к синтетическим медданным
Ученые из Университета Оттавы (Канада) выяснили, что регуляторы Великобритании, Сингапура и Южной Кореи ужесточают требования к синтетическим медданным, рассматривая их как потенциальный источник рисков. В руководствах закреплены базовые проверки качества и приватности, включая сопоставимость с реальными наборами и оценку остаточного риска раскрытия личности. По данным исследования, синтетические данные активно используются при разработке медицинского ИИ, но без понятных стандартов сохраняют уязвимости, и регуляторы требуют строгого документирования процедур и соблюдения норм обработки персональных данных.
Аналитики зафиксировали резкий разброс точности ИИ-ассистентов
Исследование Artificial Analysis показало, что точность и частота галлюцинаций у ИИ-ассистентов сильно варьируются: даже лидеры дают лишь около половины корректных ответов, а у многих моделей уровень ошибок достигает 60–90%. Такой разнобой эксперты фиксировали в условиях, близких к реальной работе через API, которыми пользуются медсервисы. Работа демонстрирует, что ИИ может выглядеть уверенно, но систематически выдавать неверные выводы, что усложняет его применение в медицине.
Данные клинических работ опровергли ожидания о «сверхсинергии» врача и ИИ
Анализ 52 клинических работ показал, что тандем «врач + ИИ» действительно повышает точность, но не дает ожидаемой «сверхсинергии»: лучший эффект достигается в одновременном режиме, когда специалист видит данные и подсказки одновременно. По мнению авторов, гибридные системы работают лишь при правильной настройке процессов, а ожидания от их «магического» усиления заметно завышены.
Международный опыт
Разработан мобильный ИИ для ранней диагностики ухудшения зрения
Платформа Iriscience превращает смартфон в инструмент офтальмологического скрининга и позволяет рано выявлять катаракту, глаукому и диабетическую ретинопатию там, где нет доступа к офтальмологам. Решение основано на видеосъемке глазного дна, работает в мобильных и сельских пунктах помощи, учитывает требования к качеству данных и безопасности медицинского ПО. Так, доступный мобильный ИИ закрывает дефицит диагностики, снижает риск предотвратимой слепоты и расширяет применение цифровых биомаркеров.
У FDA появится ИИ-платформа для сотрудников
Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США запускает экспериментальную ИИ-платформу, чтобы разгрузить сотрудников после ранее проведенных сокращений и ускорить внутренние процессы – от рассмотрения заявок и инспекций до анализа данных и администрирования. Использование ИИ-агента добровольное, модели не обучаются на входящих материалах. Ведомство делает ставку на ИИ для повышения эффективности, параллельно тестируя сценарии применения через внутренний конкурс и опираясь на опыт уже внедренного инструмента Elsa, которым пользуется большая часть сотрудников.
Этика и цифровая безопасность
Разработчики платформы для ментального здоровья признали технологии ИИ небезопасными
Основатели стартапа Yara AI закрыли сервис эмоциональной поддержки на базе ИИ после того, как пришли к выводу, что современные модели небезопасны для работы с уязвимыми пользователями: они непредсказуемы, не отслеживают динамику состояния и могут ошибаться в критических ситуациях. На решение повлияли резонансные случаи, обсуждение рисков, данные исследований и региональные запреты на использование ИИ в терапии. Команда открыла для общего доступа созданные инструменты безопасности и заявила, что надежные системы поддержки должны развивать медучреждения или НКО, а один из основателей стартапа переключился на проект по повышению прозрачности и безопасности ИИ.
Длительное общение с ИИ может усиливать риск психотических эпизодов
Ученые описали более десятка случаев так называемого «психоза ИИ», когда длительное общение с чат-ботами усиливало маниакальные идеи у уязвимых пользователей, хотя доказательств того, что ИИ может вызвать психоз у здоровых людей, нет. Исследование подчеркивает риск непреднамеренного подкрепления симптомов моделями, ориентированными на удержание пользователя, и обосновывает необходимость встроенных защитных механизмов и своевременного перенаправления к профессиональной помощи.
