Эксперты назвали риски применения ChatGPT в медицине

    11.08.2025
    Новости
    71

    Генеральный директор компании OpenAI — разработчика новой языковой модели GPT-5 — рассказал о возможностях ее использования в здравоохранении. По мнению Сэма Альтмана, обновленная версия чата может помогать в медицинских вопросах и принимать решения, которые обычно требуют участия квалифицированного специалиста, сообщает Vademecum. С его заявлением согласны далеко не все эксперты.

    С одной стороны, все выглядит достаточно оптимистично.

    После выхода нового чат-бота, на платформе HealthBench 250 врачей дали оценку использования GPT-5 в медицинских целях. Как показал анализ 5000 диалогов цифровых помощников с пользователями, нейросеть давала более точные и качественные ответы, чем ее предшественники.

    Сейчас GPT-5 уже применяется в фармацевтике и страховании. Amgen использует модель для разработки лекарств, анализа массивов клинической и научной информации. Для толкования сложных медицинских регламентов ее применяет страховая компания Oscar Health.

    Однако, несмотря на рост интереса к ИИ в медицине, на первый план все чаще выходит безопасность, считают эксперты. В Microsoft подчеркивают, что в медицине риск ошибок нейросети особенно велик, поскольку они способны навредить больным. Контроль в этой сфере должен быть максимально строгим.

    В 2024 году австрийские и немецкие специалисты исследовали применение ChatGPT в медицине и нашли, что модель не дотягивает до клинических стандартов, нуждается в доработке. Если в сфере онкологии ChatGPT показал высокую точность, то в других медицинских разделах все не так очевидно.

    Ученые указали на ряд недостатков, которые не позволяют использовать модель в практической медицине. ChatGPT-4 обрабатывает только текст, она не может анализировать визуал, не обладает экспертной логикой. Ее «обоснования» — только прогноз вероятности, поэтому даже верный ответ модель объясняет абсурдно. Она не распознает ложную и правдивую информацию, повышая риск опасных рекомендаций. ChatGPT склонна генерировать правдоподобную, но абсолютно вымышленную информацию, причем весьма убедительно. Ученые отметили, что результаты ответа бота во многом зависят от того, как поставлен вопрос, и это может кардинально изменить ответ при его незначительных итерациях.

    Серьезной проблемой для применения бота в медицине является конфиденциальность информации, так как в ряде случаев оно может нарушать требования по защите приватности пациентов.

    Эксперты шведской Swiss Re прогнозируют, что к 2034 году фармацевтическая и медицинская сферы станут лидерами по уровню страховых рисков из-за активного применения ИИ.

    Опросы как в США, так и в России показывают настороженность к ИИ в здравоохранении. В США 63% при поиске информации о здоровье готовы полагаться на ИИ-ответы. В России, несмотря на интерес к новым технологиям, предпочитают боту общение с врачом. Практически половина респондентов (46%) не доверяют ИИ, 51% сомневаются в учёте индивидуальных особенностей, а 36% обеспокоены утечкой данных. Масштабное исследование по восприятию ChatGPT в Китае студентами медвузов показало, что 76,9% опасаются получить недостоверную информацию. между тем порядка 60% студентов считают ChatGPT полезным для медицинского образования и готовы использовать его при подготовке.

    Фото: wolfhound911 © 123RF.com

    Новости

    читать все
    Спецпроект


    Опрос

    Мы хотим узнать, кто нас читает. Познакомимся?

    Загрузка ... Загрузка ...
    наверх