Необходимость новой профессии объясняется тем, что прямое взаимодействие врачей и ИИ пока не всегда повышает качество решений: даже имея доступ к результатам работы алгоритмов, медики часто неверно их трактуют, а существующие инструменты интерпретации остаются недостаточно транскрибируемыми для клинической практики.
По замыслу авторов статьи, алгоритмический консультант будет выполнять две основные функции. Первая – сопровождать врачей при выборе подходящей модели ИИ и интерпретации ее результатов. Вторая – управлять экосистемой алгоритмов в медорганизации, контролируя их внедрение, обновление и корректность применения. Подобная практика уже существует в других областях, например, клинические фармацевты помогают врачам в работе с лекарствами и формуляром больницы.
Исследователи признали, что внедрение такой службы потребует дополнительных расходов, но, по их мнению, это оправдано. «Некоторые могут утверждать, что использование алгоритмического консультанта, по сравнению с прямым применением ИИ врачами, подрывает предполагаемую эффективность использования ИИ в клинической практике. Однако мы предполагаем, что такая служба существенно повысит результативность работы управляемых ею ИИ-систем», – убеждают авторы. По аналогии с клиническими фармацевтами, алгоритмические консультанты смогут сделать применение ИИ в медицине более безопасным и результативным.
Отдельное внимание уделено вопросу ответственности. Пока не существует универсального решения, кто несет юридическую ответственность за ошибки алгоритмов ИИ, однако наличие специалистов, проверяющих модели и сопровождающих их использование, снизит риски для врачей и медорганизаций. Алгоритмический консультант фактически «разделит» ответственность, сняв с врача часть нагрузки, и минимизирует вероятность некорректного применения неподтвержденных инструментов, считают ученые.
Также они отметили, что врачи не всегда будут осознавать, когда именно стоит привлекать консультанта. Поэтому работа таких специалистов должна строиться по принципу непрерывного сопровождения – с возможностью оперативного подключения при выявлении риска неправильного применения алгоритма.
Алгоритмические консультанты должны обладать комбинированной подготовкой в медицине и науке о данных, что позволит им учитывать как клинический контекст, так и особенности конкретной модели. Авторы статьи предложили развивать обучение таких специалистов на базе программ по клинической информатике, где может появиться отдельное направление.
Несмотря на дополнительные издержки, внедрение алгоритмических консультантов, по мнению исследователей, позволит повысить эффективность применения ИИ в здравоохранении, сократить риски для пациентов, снизить нагрузку на врачей и обеспечить долгосрочную устойчивость цифровых технологий. В перспективе именно такие работники могут стать ключевым звеном в интеграции ИИ в систему здравоохранения, что особенно важно на фоне стремительного внедрения новых моделей вроде GPT-5, которые уже находят применение в медицине, но все еще несут высокие риски без должного контроля и экспертного сопровождения.
Междисциплинарное исследование Цюрихского университета, посвященное цифровым двойникам в медицине, показало: большинство респондентов признают потенциал технологии ИИ, но настаивают на добровольности ее применения и сохранении ведущей роли врачей. Эксперты также указывают на риски цифрового неравенства, возможное давление алгоритмов на образ жизни и низкий уровень доверия к коммерческим разработчикам.
Необходимость новой профессии объясняется тем, что прямое взаимодействие врачей и ИИ пока не всегда повышает качество решений: даже имея доступ к результатам работы алгоритмов, медики часто неверно их трактуют, а существующие инструменты интерпретации остаются недостаточно транскрибируемыми для клинической практики.
По замыслу авторов статьи, алгоритмический консультант будет выполнять две основные функции. Первая – сопровождать врачей при выборе подходящей модели ИИ и интерпретации ее результатов. Вторая – управлять экосистемой алгоритмов в медорганизации, контролируя их внедрение, обновление и корректность применения. Подобная практика уже существует в других областях, например, клинические фармацевты помогают врачам в работе с лекарствами и формуляром больницы.
Исследователи признали, что внедрение такой службы потребует дополнительных расходов, но, по их мнению, это оправдано. «Некоторые могут утверждать, что использование алгоритмического консультанта, по сравнению с прямым применением ИИ врачами, подрывает предполагаемую эффективность использования ИИ в клинической практике. Однако мы предполагаем, что такая служба существенно повысит результативность работы управляемых ею ИИ-систем», – убеждают авторы. По аналогии с клиническими фармацевтами, алгоритмические консультанты смогут сделать применение ИИ в медицине более безопасным и результативным.
Отдельное внимание уделено вопросу ответственности. Пока не существует универсального решения, кто несет юридическую ответственность за ошибки алгоритмов ИИ, однако наличие специалистов, проверяющих модели и сопровождающих их использование, снизит риски для врачей и медорганизаций. Алгоритмический консультант фактически «разделит» ответственность, сняв с врача часть нагрузки, и минимизирует вероятность некорректного применения неподтвержденных инструментов, считают ученые.
Также они отметили, что врачи не всегда будут осознавать, когда именно стоит привлекать консультанта. Поэтому работа таких специалистов должна строиться по принципу непрерывного сопровождения – с возможностью оперативного подключения при выявлении риска неправильного применения алгоритма.
Алгоритмические консультанты должны обладать комбинированной подготовкой в медицине и науке о данных, что позволит им учитывать как клинический контекст, так и особенности конкретной модели. Авторы статьи предложили развивать обучение таких специалистов на базе программ по клинической информатике, где может появиться отдельное направление.
Несмотря на дополнительные издержки, внедрение алгоритмических консультантов, по мнению исследователей, позволит повысить эффективность применения ИИ в здравоохранении, сократить риски для пациентов, снизить нагрузку на врачей и обеспечить долгосрочную устойчивость цифровых технологий. В перспективе именно такие работники могут стать ключевым звеном в интеграции ИИ в систему здравоохранения, что особенно важно на фоне стремительного внедрения новых моделей вроде GPT-5, которые уже находят применение в медицине, но все еще несут высокие риски без должного контроля и экспертного сопровождения.
Междисциплинарное исследование Цюрихского университета, посвященное цифровым двойникам в медицине, показало: большинство респондентов признают потенциал технологии ИИ, но настаивают на добровольности ее применения и сохранении ведущей роли врачей. Эксперты также указывают на риски цифрового неравенства, возможное давление алгоритмов на образ жизни и низкий уровень доверия к коммерческим разработчикам.