Ученые создали инструмент для этического контроля ИИ в медицине

    14.11.2024
    Новости
    131

    Для разрешения этических вопросов при использовании устройств с искусственным интеллектом в медицине специалисты Национального исследовательского университета ВШЭ разработали чат-бот. С его помощью можно оценить, как пользователи понимают потенциальные этические риски, которые могут возникнуть при разработке, внедрении и использовании систем с ИИ, сообщает пресс-служба университета.

    Внедрение искусственного интеллекта в различные области жизни, включая медицину, создает новые вызовы. Они затрагиваюют информационную безопасность, экономику и социальную сферу, а также этические аспекты. Существующие стандарты и законодательство не всегда учитывают этические моменты. Поэтому специалисты Центра искусственного интеллекта НИУ ВШЭ  разработали специализированный инструмент — индекс для оценки медицинских ИИ-систем с этической точки зрения. Его цель — снизить вероятные риски и обеспечить безопасное создание и применение технологий с ИИ в медицине.  

    В рамках проекта «Этическая экспертиза в сфере ИИ» команда Центра ИИ НИУ ВШЭ провела теоретическую и практическую работу. Сначала специалисты изучили большое количество отечественных и международных документов. Это позволило им выделить и определить основные принципы профессиональной медицинской этики. В их числе оказались такие важные ценности, как автономия, благодеяние, справедливость, ненанесение вреда и забота. На основе этих принципов специалисты провели с врачами и разработчиками систем с ИИ глубинное полуструктурированное интервью (такое интервью предполагает не короткие, а развернутые ответы на вопросы,  с выражением респондентом личного мнения, восприятия и убеждений). В итоге ученые уточнили и дополнили ранее сформулированные этические принципы новыми.

    В рамках этого проекта был создан круглосуточный чат-бот. Для оценки уровня осведомленности разработчиков и пользователей систем с ИИ был разработан специальный тест. Он помогает оценить, насколько участники процесса понимают возможные этические риски, связанные с разработкой, внедрением и использованием ИИ в медицине. 

    Новая методика уже апробирована и получила признание ряда ведущих IT-компаний, таких как MeDiCase и Globus IT, специализирующихся на разработке ИИ-решений для медицины. Кроме того, ее одобрила Комиссия по реализации Кодекса этики в сфере искусственного интеллекта и Московское городское научное общество терапевтов.

    «Разработка данного индекса стала важным шагом на пути обеспечения этичного использования ИИ в медицине. Мы надеемся, что наша разработка будет небесполезной для медицинского сообщества, обеспокоенного, как показывают наши исследования, возможными негативными именно этическими последствиями широкого внедрения ИИ в медицинскую практику», — сказала Анастасия Углева руководитель проекта, профессор, заместитель директора Центра трансфера и управления социально-экономической информацией НИУ ВШЭ.  

    Разработчики предполагают, что предложенный ими индекс будет востребован этическими комиссиями, судебно-медицинским экспертным сообществом и другими организациями, ответственными за оценку и сертификацию ИИ. Он также будет способствовать переходу от принципа индивидуальной ответственности медицинских работников к модели, в которой ответственность распределяется между всеми участниками процесса. Внедрение этого индекса позволит сделать использование искусственного интеллекта более безопасным и соответствующим высоким этическим стандартам.

    Еще в октябре 2021 года ведущие российские организации, специализирующиеся на разработке систем искусственного интеллекта, утвердили этический кодекс. Этим документом они руководствовуются на всех стадиях работы.

    Материал подготовлен с использованием пресс-релиза НИУ ВШЭ. 

    Фото: iStock.com.

    Новости

    читать все
    наверх