ВОЗ разработала документ про этические принципы использования ИИ в сфере здравоохранения

 | 17.00

medicine медицина

Всемирная организация здравоохранения подготовила документ, в котором описаны 6 ключевых принципов этичного использования искусственного интеллекта в сфере медицины. Данное руководство стало первым консенсусным отчётом по этике использования ИИ в медицинских учреждениях.

В документе подчеркиваются перспективы ИИ в области здравоохранения и его потенциал для помощи врачам в лечении пациентов, особенно в районах с ограниченными ресурсами. Но он также подчеркивает, что подобные технологии не являются быстрым решением проблем здравоохранения, особенно в странах с низким и средним уровнем доходов, и что правительства и регулирующие органы должны тщательно изучить, где и как ИИ используется в здравоохранении.

medicine_dron

ВОЗ предлагает следующие 6 шесть этических принципов в своём руководстве:

Защита автономии: люди должны иметь надзор и последнее слово за всеми решениями, касающимися здоровья. Решения не должны приниматься исключительно машинами, а врачи должны иметь возможность отменять их в любое время. ИИ не должен использоваться для оказания помощи кому-либо без их согласия, а данные пациентов должны быть защищены.

Обеспечение безопасности человека: разработчики должны постоянно отслеживать любые инструменты искусственного интеллекта, чтобы убедиться, что они работают должным образом и не причиняют вреда.

Обеспечение прозрачности: разработчики должны публиковать информацию об архитектуре инструментов искусственного интеллекта. Системы ИИ критикуют за то, что они представляют собой «чёрные ящики», а исследователям и врачам слишком сложно понять, как они принимают решения. ВОЗ хочет видеть достаточную прозрачность, чтобы системы ИИ могли быть полностью поняты и доступны для проверки пользователям и регулирующим органам.

Стимулирование ответственности: когда что-то идет не так с технологией ИИ, например, если решение, принятое инструментом, приводит к причинению вреда пациенту, должны быть механизмы, определяющие, кто несёт ответственность (например, производители и клинические пользователи).

Обеспечение справедливости: инструменты быть доступны на нескольких языках и обучены работе с различными наборами данных. В последние несколько лет тщательное изучение общих алгоритмов в здравоохранении показало, что некоторые из них имеют расовую предвзятость.

Продвижение устойчивых систем ИИ: разработчики должны иметь возможность регулярно обновлять свои инструменты, а учреждения должны иметь возможность корректировать работу, если инструмент кажется неэффективным. Учреждения или компании также должны внедрять только те инструменты, которые можно отремонтировать, даже в системах здравоохранения с ограниченными ресурсами.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *