Многие сегодня обращаются к ChatGPT за объяснением симптомов, но мало кто задумывается, насколько эти ответы точны и безопасны. Медики напоминают: искусственный интеллект не обязан соблюдать медицинскую тайну, не всегда опирается на свежие клинические рекомендации и не несёт ответственности за последствия.
Главный врач из Тольятти Сергей Тетюшкин рассказал, почему опасно слепо верить чат-ботам и как использовать их без вреда для здоровья. Несмотря на растущее доверие пользователей к нейросетям, советы ИИ не могут заменить консультацию специалиста и иногда представляют реальную угрозу.
Так, 60‑летний пациент, следуя рекомендации ChatGPT, заменил обычную соль на бромид натрия. Результат — тяжёлое отравление, три недели в психиатрической клинике. Бромизм сопровождается спутанностью сознания, заторможенностью, бредом, галлюцинациями и психозами.
Эксперт подчёркивает: ИИ не знает вашей медицинской истории, не способен оценить срочность ситуации, а предоставляемая им информация может быть устаревшей. Алгоритмы обучены на прошлых данных и не всегда в курсе последних изменений, например, в схемах вакцинации.
Чат-боты могут помочь составить план питания или объяснить незнакомые термины, но они не учитывают индивидуальный баланс макронутриентов и особенности здоровья. Оптимальный подход — использовать ИИ для уточнения формулировок и подготовки вопросов к врачу, а не для постановки диагноза или выбора лечения.