ChatGPT не заменит доктора: почему нельзя полностью доверять ИИ
Из-за высоких цен на медицинские услуги и сложностей с доступом к врачам все больше людей обращаются к чат-ботам за советами по здоровью. Однако новое исследование, проведенное в Великобритании, предупреждает: полагаться на ИИ в вопросах диагностики и лечения может быть опасно.
Исследование показало, что даже самые продвинутые модели искусственного интеллекта не помогают людям принимать лучшие медицинские решения. В нем приняли участие около 1300 жителей Великобритании, которым предлагались смоделированные врачами сценарии: от легких симптомов до потенциально опасных состояний. Участники должны были определить проблему и выбрать действия — обратиться к терапевту, вызвать скорую или просто понаблюдать.
В качестве помощников выступали разные ИИ-модели: ChatGPT на базе GPT-4o, Command R+ от Cohere и Llama 3 от Meta. Однако вопреки ожиданиям, использование чат-ботов не помогло участникам эффективнее распознавать серьезность состояний. Напротив, ИИ часто занижал уровень угрозы, а советы, даже при точной диагностике, могли быть запутанными или противоречивыми.
"Между людьми и ИИ происходит двусторонний сбой коммуникации", — говорит Адам Махди, директор магистратуры Оксфордского интернет-института и один из авторов работы. По его словам, пользователи часто не сообщают ключевые детали, а чат-боты, в свою очередь, выдают рекомендации, которые трудно интерпретировать правильно.
Исследователи подчеркнули, что нынешние методы оценки ИИ не учитывают всех сложностей реального взаимодействия между человеком и машиной — особенно в области, где ошибка может стоить жизни.
Тем временем технологические гиганты продолжают активно продвигать ИИ в медицине. Apple работает над персональным ассистентом, который будет подсказывать, как лучше спать и питаться. Amazon развивает инструменты для анализа социальных факторов, влияющих на здоровье. Microsoft учит ИИ обрабатывать обращения от пациентов. Но врачи остаются настороженными.
Американская медицинская ассоциация официально не рекомендует использовать ChatGPT и другие ИИ-модели для постановки диагнозов. Сами разработчики, включая OpenAI, подчеркивают: ИИ не заменяет врача и не предназначен для клинических решений.