Использование генеративных чат-ботов на основе искусственного интеллекта, таких как ChatGPT, может нанести серьезный вред людям с тяжелыми психическими заболеваниями.
К такому выводу, как сообщает корреспондент сетевого издания «Белновости», пришли исследователи из Дании, проанализировав тысячи медицинских записей пациентов, проходивших лечение в психиатрической службе Центрального региона страны.
Результаты работы, опубликованной в журнале Acta Psychiatrica Scandinavica (APS), показали, что для части пользователей взаимодействие с ИИ обернулось ухудшением симптомов.

Ученые изучили электронные медицинские карты почти 54 тысяч пациентов за период с сентября 2022 года по июнь 2025 года.
За это время врачи внесли более 10 миллионов клинических заметок. Специалисты искали в них упоминания чат-ботов и ChatGPT, включая распространенные опечатки.
В результате было выявлено 126 пациентов, чье использование искусственного интеллекта так или иначе отражалось в медицинской документации. У 38 из них медики зафиксировали потенциально неблагоприятные последствия.
Наиболее частой проблемой стало усиление бредовых идей – такие случаи отмечены у 11 пациентов.
Исследователи объясняют это особенностью работы языковых моделей: они склонны соглашаться с пользователем и «поддерживать» его точку зрения, что может закреплять ложные убеждения и делать их более устойчивыми.
Еще более тревожные данные касаются суицидального поведения. У шести пациентов на фоне общения с чат-ботами усилились мысли об уходе, либо они напрямую обращались к ИИ за информацией о способах.
У пяти человек ухудшилось течение расстройств пищевого поведения: они использовали ботов для навязчивого подсчета калорий, что усугубило их состояние.
Также зафиксированы отдельные случаи усиления маниакальных эпизодов и компульсивного использования ИИ при обсессивно-компульсивном расстройстве.
Впрочем, исследование зафиксировало и положительные примеры.
32 пациента применяли чат-ботов для получения информации о своем заболевании или как форму неформальной психологической поддержки. Еще 20 человек использовали их для организации повседневных задач, что помогало справляться с бытовыми трудностями.
Ученые подчеркивают, что необходимы дополнительные контролируемые исследования и качественные интервью с пациентами для более глубокого понимания феномена.
Они предлагают внедрить в ИИ-системы автоматические механизмы выявления признаков психоза и проч. с последующим перенаправлением пользователя к профессиональной помощи.
По мнению авторов работы, регулирование таких технологий должно осуществляться на государственном уровне, а не оставаться исключительно в зоне ответственности компаний-разработчиков.
Пока же они рекомендуют специалистам в области психического здоровья активно обсуждать с пациентами их цифровые привычки и возможные риски, связанные с использованием генеративных нейросетей.












