Мнение ВОЗ о регулировании применения искусственного интеллекта в здравоохранении

06.11.2023

Всемирная организация здравоохранения (ВОЗ) опубликовала новую статью, в которой перечислены основные аспекты регулирования применения искусственного интеллекта (ИИ) в здравоохранении. В публикации подчеркивается важность установления безопасности и эффективности систем искусственного интеллекта, быстрого предоставления соответствующих систем тем, кто в них нуждается, и развития диалога между заинтересованными сторонами, включая разработчиков, регулирующие органы, производителей, медицинских работников и пациентов.

С ростом доступности данных о здравоохранении и быстрым развитием методов анализа — будь то машинное обучение, логические или статистические методы — инструменты ИИ могут изменить сектор здравоохранения. ВОЗ признает потенциал ИИ в повышении результативности здравоохранения за счет усиления клинических испытаний, улучшения медицинской диагностики, лечения, самообслуживания и медицинского ухода, ориентированного на человека, а также дополнения знаний, навыков и компетенций медицинских работников. Например, ИИ может быть полезен в условиях нехватки медицинских специалистов, например, при интерпретации снимков сетчатки глаза и радиологических изображений.

Однако технологии ИИ, включая большие языковые модели, быстро внедряются, иногда без полного понимания того, как они могут работать, что может принести пользу или вред конечным пользователям, включая медицинских работников и пациентов. При использовании медицинских данных системы искусственного интеллекта могут получить доступ к конфиденциальной личной информации, что требует создания надежной нормативно-правовой базы для обеспечения конфиденциальности, безопасности и целостности, созданию и поддержанию которой призвана помочь данная публикация.

По словам генерального директор ВОЗ доктора Тедроса Адханома Гебрейесуса,

Это новое руководство поможет странам эффективно регулировать ИИ, чтобы использовать его потенциал, будь то лечение рака или выявление туберкулеза, и при этом минимизировать риски.

В ответ на растущие потребности стран в ответственном управлении стремительно развивающимися технологиями ИИ в здравоохранении в публикации изложены шесть направлений регулирования ИИ в здравоохранении.

  • Для укрепления доверия подчеркивается важность прозрачности и документирования, например, путем документирования всего жизненного цикла продукта и отслеживания процессов разработки.
  • Для управления рисками необходимо всесторонне рассмотреть такие вопросы, как "целевое использование", "непрерывное обучение", вмешательство человека, модели обучения и угрозы кибербезопасности, а также максимально упростить модели.
  • Внешняя проверка данных и четкое определение предполагаемого использования ИИ помогают обеспечить безопасность и облегчают регулирование.
  • Приверженность качеству данных, например путем тщательной оценки систем перед выпуском, является жизненно важной для обеспечения того, чтобы системы не усиливали предвзятость и ошибки.
  • Проблемы, связанные с важными и сложными нормативными актами, такими как Общее положение о защите данных (GDPR) в Европе и Закон о переносимости и подотчетности медицинского страхования (HIPAA) в США, решаются с акцентом на понимание сферы юрисдикции и требований к согласию в интересах обеспечения конфиденциальности и защиты данных.
  • Укрепление сотрудничества между регулирующими органами, пациентами, медицинскими работниками, представителями отрасли и государственными партнерами поможет обеспечить соответствие продуктов и услуг нормативным требованиям на протяжении всего их жизненного цикла.

Системы искусственного интеллекта сложны и зависят не только от кода, на основе которого они созданы, но и от данных, используемых при обучении, например, из клинических условий и взаимодействия с пользователем. Более эффективное регулирование может помочь управлять рисками, связанными с усилением предвзятости ИИ в обучающих данных.

Например, моделям ИИ может быть сложно точно представить разнообразие популяций, что может привести к предвзятости, неточностям или даже провалу. Для снижения этих рисков можно использовать нормативные акты, обеспечивающие указание таких признаков, как пол, раса и этническая принадлежность людей, фигурирующих в обучающих данных, и намеренное обеспечение репрезентативности наборов данных.

Новая публикация ВОЗ призвана изложить ключевые принципы, которым могут следовать правительства и регулирующие органы при разработке новых или адаптации существующих руководств по ИИ на национальном или региональном уровнях. 

Источник: WHO

По материалам сайта EverCare

Назад