Los pacientes informan casos de inteligencia artificial sustituyendo a terapeutas humanos

Los pacientes informan casos de inteligencia artificial sustituyendo a terapeutas humanos

IBL News | Nueva York

Algunos terapeutas están utilizando AI en secreto durante las sesiones, poniendo en riesgo la confianza y la privacidad de los datos de sus clientes en el proceso, según una historia publicada en MIT Technology Review.

Específicamente, ChatGPT está proporcionando resúmenes, respuestas y análisis de las preguntas de los pacientes.

Sustituir el chatbot por terapeutas humanos sigue las ramificaciones inesperadas de la IA en el campo de la psicoterapia, como está sucediendo en muchas otras profesiones.

Desde el lado del paciente, muchos creen que los chatbots pueden ofrecer una alternativa asequible a las terapias en persona, y hay muchos casos de personas que utilizan AI mientras están bajo los efectos de psicodélicos. Muchos expertos dicen que es una mala idea.

Los investigadores a menudo dicen que las respuestas escritas por ChatGPT pero atribuidas erróneamente a los terapeutas están recibiendo las calificaciones más altas en general.

Un número creciente de empresas, como Heidi Health, Upheal, Lyssn y Blueprint, están comercializando herramientas especializadas para terapeutas, como toma de notas asistida por IA, entrenamiento y servicios de transcripción.