Эксперты назвали риски применения ChatGPT в медицине

Генеральный директор компании OpenAI — разработчика новой языковой модели GPT-5 — рассказал о возможностях ее использования в здравоохранении. По мнению Сэма Альтмана, обновленная версия чата может помогать в медицинских вопросах и принимать решения, которые обычно требуют участия квалифицированного специалиста, сообщает Vademecum. С его заявлением согласны далеко не все эксперты.
С одной стороны, все выглядит достаточно оптимистично.
После выхода нового чат-бота, на платформе HealthBench 250 врачей дали оценку использования GPT-5 в медицинских целях. Как показал анализ 5000 диалогов цифровых помощников с пользователями, нейросеть давала более точные и качественные ответы, чем ее предшественники.
Сейчас GPT-5 уже применяется в фармацевтике и страховании. Amgen использует модель для разработки лекарств, анализа массивов клинической и научной информации. Для толкования сложных медицинских регламентов ее применяет страховая компания Oscar Health.
Однако, несмотря на рост интереса к ИИ в медицине, на первый план все чаще выходит безопасность, считают эксперты. В Microsoft подчеркивают, что в медицине риск ошибок нейросети особенно велик, поскольку они способны навредить больным. Контроль в этой сфере должен быть максимально строгим.
В 2024 году австрийские и немецкие специалисты исследовали применение ChatGPT в медицине и нашли, что модель не дотягивает до клинических стандартов, нуждается в доработке. Если в сфере онкологии ChatGPT показал высокую точность, то в других медицинских разделах все не так очевидно.
Ученые указали на ряд недостатков, которые не позволяют использовать модель в практической медицине. ChatGPT-4 обрабатывает только текст, она не может анализировать визуал, не обладает экспертной логикой. Ее «обоснования» — только прогноз вероятности, поэтому даже верный ответ модель объясняет абсурдно. Она не распознает ложную и правдивую информацию, повышая риск опасных рекомендаций. ChatGPT склонна генерировать правдоподобную, но абсолютно вымышленную информацию, причем весьма убедительно. Ученые отметили, что результаты ответа бота во многом зависят от того, как поставлен вопрос, и это может кардинально изменить ответ при его незначительных итерациях.
Серьезной проблемой для применения бота в медицине является конфиденциальность информации, так как в ряде случаев оно может нарушать требования по защите приватности пациентов.
Эксперты шведской Swiss Re прогнозируют, что к 2034 году фармацевтическая и медицинская сферы станут лидерами по уровню страховых рисков из-за активного применения ИИ.
Еще по теме
- 03.07.2025 Ученые обеспокоены, что популярные чат-боты легко обучить выдаче ложной медицинской информации
- 19.02.2025 Российская нейросеть впервые сдала экзамен как кардиолог и онколог
- 11.02.2025 Опубликованы результаты иccледования о том, что делают врачи в интернете
- 16.01.2025 Новые ГОСТы отрегулируют разработку и применение ИИ в медицине
Опросы как в США, так и в России показывают настороженность к ИИ в здравоохранении. В США 63% при поиске информации о здоровье готовы полагаться на ИИ-ответы. В России, несмотря на интерес к новым технологиям, предпочитают боту общение с врачом. Практически половина респондентов (46%) не доверяют ИИ, 51% сомневаются в учёте индивидуальных особенностей, а 36% обеспокоены утечкой данных. Масштабное исследование по восприятию ChatGPT в Китае студентами медвузов показало, что 76,9% опасаются получить недостоверную информацию. между тем порядка 60% студентов считают ChatGPT полезным для медицинского образования и готовы использовать его при подготовке.
Фото: wolfhound911 © 123RF.com