Пациенты уличили медиков в использовании чат-ботов при написании медицинских заключений
Нижегородский Минздрав запретил врачам использовать эмодзи в электронной документации. Такое распоряжение получили подведомственные учреждения из министерства после того, как пациенты после приема у врача все чаще стали получать медицинские документы на портале «Госуслуги» с нейросетевыми символами, пишет МИА «Стационар-Пресс».
В публикации перечислены эмодзи, которые встречаются в заключениях медиков, полученных через портал «Госуслуги». Среди них таблетка, календарь, синее сердце, красный круг, телефонная трубка, лупа, скорая помощь, кнопка.
Еще по теме
- 16.04.2026 ИИ дают ошибочные ответы по медицине на каждый второй вопрос
- 09.02.2026 Медикам пропишут нормы и правила использования ИИ в здравоохранении
- 24.12.2025 Нейросети дают пользователям опасные советы по здоровью и лечению
- 11.08.2025 Эксперты назвали риски применения ChatGPT в медицине
«Мы посмотрели список эмодзи и поняли, откуда ноги растут. Это типичные символы, которые использует ChatGPT, т. е. кто-то из докторов формулирует тексты протоколов и заключений с помощью нейросетей», — заявил Алексей Никонов, главред «Стационар-Пресс» . Главный редактор издания полагает, что использование нейросети для создания черновика допустимо, но врач обязательно должен проверить итоговый результат.
Чтобы понять, насколько массовое это явление, издание опросило медиков и выяснило, что примерно пятая часть из них регулярно использует чат-боты в работе. Еще 30% хотели бы это делать, но пока не умеют.
Между тем, недавно ученые исследовали пять популярных чат-ботов на точность ответов, которые они дают. Оказалось, что нейросети ошибаются почти в половине случаев при ответах на медицинские вопросы.
Фото: aoo3771 @123RF.com










