MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
IA en la salud mental
El uso de herramientas de IA es válido cuando contacta al paciente con un profesional, pero no cuando es usada directamente como consejera
Con la llegada de ChatGPT han surgido nuevas herramientas de inteligencia artificial, que además de brindar información de diversos temas, han trascendido sus funciones a temas personales, como la salud de los usuarios. De hecho, muchos han optado por recurrir a estas inteligencias para poder tratar su salud mental, a través de lo que ellos consideran terapias psicológicas, pero, ¿hasta qué punto esto puede llegar a ser negativo para las personas?
De acuerdo con Sonia Margarita Leal Cruz, psicóloga, especialista es gestión de conflictos, el uso de la Inteligencia artificial en temas de salud mental es común, tanto en personas que sienten que algo está pasando en sus emociones y pensamientos, como en los mismos profesionales, ya que estas herramientas, bien utilizadas, puede brindar información de valor que conduce a entender casos y buscar opciones terapéuticas. “Aun así, es diferente usarla de apoyo a encontrar la solución en estas herramientas”, añadió.
Entre las contraindicaciones de buscar ayuda psicológica en línea, Catalina Romero, psicóloga clínica, resaltó que al usar la IA para estos fines, esta, “puede sugerir diagnósticos sin una evaluación correcta y las personas tienden a autodiagnosticarse mucho, así que esto puede ser un riesgo. Yo creo que puede dar más bien respuestas más generalistas, reduccionistas, descontextualizadas, porque nosotros tenemos muy en cuenta la realidad de cada persona, de su contexto, de sus aprendizajes, de sus creencias, etc”.
Por su parte, Leal señaló que al buscar diagnóstico con una IA, se debe considerar que los síntomas pueden ser los mismos para muchas personas, ya que las manifestaciones fisiológicas y emocionales suelen ser recurrentes de acuerdo al problema o patología en salud mental, “pero el origen en cada persona es distinto y eso es lo que se trabaja, no el síntoma en sí mismo”. Romero agregó también que otra parte importante es que en psicoterapia se maneja el secreto profesional, por lo que con el uso de IA se puede correr el riesgo de caer en filtración de datos importantes.
Aun con lo anterior, las expertas coincidieron en que lo que sí puede hacer la IA es brindar algunas herramientas, pero nada comparado con un proceso psicoterapéutico. Por ende, herramientas como Notta, ChatGPT, Siri, el Asistente de Google, Pi, Meta, entre otros, aunque parezcan muy completas, no pueden suplir la terapia que ofrece un profesional. Sin embargo, esto no es una generalización para la tecnología, pues aplicaciones como Selia sí resultan beneficiosas para este campo, pues con IA busca los médicos más adecuados para cada usuario.
Razones del uso de IA en la salud mental
Si bien es un hecho que esta práctica es cada vez más recurrente, las expertas explicaron que el fenómeno puede deberse a varios aspectos como falta de tiempo, malas experiencias en estos procesos o simplemente un tema económico que no tienen con el uso de las IA. Para estos casos, tal como indicó Romero, aplicaciones como Selia ofrecen una serie de precios que pueden elegir los usuarios según se acomoden a sus necesidades. A esta se suman otras como Cita.iO, Psicólogo Plus, Phobious, Appsy mHealth, ChatPsi, AirPersons o APA Monitor+ que, de hecho, es la aplicación oficial de la American Psychological Association.
Con la llegada de los smartphones y plataformas de música, como Spotify, YouTube y Apple Music, empezaron a perder relevancia