Авторы отмечают, что искусственный интеллект уже широко используются в обучении студентов-медиков, и призывают преподавателей медицинских вузов проявлять бдительность и корректировать учебные программы, чтобы смягчить недостатки этой технологии. В настоящее время искусственный интеллект используется для решения множества различных задач, однако, по мере роста его потенциала, растет риск чрезмерной зависимости от него и возникновения множества проблем для студентов-медиков и врачей-стажеров.
К потенциальным проблемам относятся:
● Некритическое доверие к информации после длительного использования ИИ.
● Когнитивная разгрузка и передача искусственному интеллекту функций поиска, оценки и синтеза информации, что подрывает критическое мышление и память.
● Снижение квалификации, что особенно важно для студентов-медиков и молодых врачей, которые только осваивают эту профессию и которым не хватает опыта для проверки советов ИИ.
● Галлюцинации — беглая и правдоподобная, но неточная информация.
● Нарушения конфиденциальности, безопасности и управления данными — особая проблема, связанная с конфиденциальностью медицинских данных. И другие проблемы.
Авторы предлагают минимизировать риски, связанные с использованием ИИ в образовании, оценивая не только результат, но и процесс обучения. Они рекомендуют создавать контролируемые оценки ключевых навыков (как общение с пациентами или профессиональное суждение), где ИИ исключён, а также ввести оценку ИИ-компетенции как обязательной. По их мнению, стажеры должны глубоко понимать принципы ИИ, его слабые и сильные стороны, уметь внедрять такие инструменты в клиническую практику и критически оценивать их эффективность и возможные искажения.
Авторы отмечают, что искусственный интеллект уже широко используются в обучении студентов-медиков, и призывают преподавателей медицинских вузов проявлять бдительность и корректировать учебные программы, чтобы смягчить недостатки этой технологии. В настоящее время искусственный интеллект используется для решения множества различных задач, однако, по мере роста его потенциала, растет риск чрезмерной зависимости от него и возникновения множества проблем для студентов-медиков и врачей-стажеров.
К потенциальным проблемам относятся:
● Некритическое доверие к информации после длительного использования ИИ.
● Когнитивная разгрузка и передача искусственному интеллекту функций поиска, оценки и синтеза информации, что подрывает критическое мышление и память.
● Снижение квалификации, что особенно важно для студентов-медиков и молодых врачей, которые только осваивают эту профессию и которым не хватает опыта для проверки советов ИИ.
● Галлюцинации — беглая и правдоподобная, но неточная информация.
● Нарушения конфиденциальности, безопасности и управления данными — особая проблема, связанная с конфиденциальностью медицинских данных. И другие проблемы.
Авторы предлагают минимизировать риски, связанные с использованием ИИ в образовании, оценивая не только результат, но и процесс обучения. Они рекомендуют создавать контролируемые оценки ключевых навыков (как общение с пациентами или профессиональное суждение), где ИИ исключён, а также ввести оценку ИИ-компетенции как обязательной. По их мнению, стажеры должны глубоко понимать принципы ИИ, его слабые и сильные стороны, уметь внедрять такие инструменты в клиническую практику и критически оценивать их эффективность и возможные искажения.