Actualizado hace 5 minutos
Los chatbots de inteligencia artificial ya no solo responden dudas técnicas o redactan textos: también escuchan problemas personales. Cada vez más personas recurren a estas herramientas para desahogarse, pedir consejo o explicar cómo se sienten. La inmediatez, el anonimato y la sensación de estar en un espacio seguro convierten estas herramientas en una vía accesible para buscar apoyo emocional.
Pero, ¿qué hace realmente una IA cuando recibe un mensaje? Alba María Mármol, investigadora en procesamiento del lenguaje natural aplicado a la salud mental en la Universidad de Jaén, lo resume: “Una IA codifica el texto a números que entiende y de esos números genera otro texto, según ha aprendido en muchísimos datos de entrenamiento”. Estos datos proceden, en gran parte, de conversaciones reales disponibles en internet, donde las personas comparten problemas emocionales y otras responden con apoyo o empatía. La IA “ha aprendido a codificar los mensajes de esa forma y saber responder a ese tipo de mensajes”, explica Mármol.
La ilusión de comprensión
Para identificar emociones, se utiliza el procesamiento del lenguaje natural. A veces de forma básica, asociando palabras concretas con determinados estados de ánimo. Otras veces, de una forma más compleja mediante patrones del lenguaje, como pueden ser la repetición de coletillas, como ejemplifica Mármol: “Si aprende, que quienes usan la coletilla ‘vale’ tienen, síntomas de depresión, aprende que si tú lo dices tendrías síntomas de depresión”.
El resultado puede sonar cercano y comprensivo, pero esa empatía es solo aparente. “Aprenden a responder de ese modo por temas matemáticos y de estadísticas, no porque realmente comprenda que estás sintiéndote mal y sea consciente”, aclara Mármol.
Dónde está el límite
Los límites son evidentes para Mármol: una IA “con texto solamente no tiene mucho alcance”. A diferencia de una persona, no puede apreciar gestos, tono de voz, ni cambios en la conducta y este límite no desaparece aunque la tecnología avance. “De momento la IA no es consciente ni de ella misma”, afirma Mármol.
Desde la psicología clínica, la diferencia es aún más directa. “No te puede dar respuestas, ni consejos fiables, porque no te conoce. Solo está tratando de máquina a persona”, subraya Germán Cortázar, psicólogo clínico colegiado en el Colegio de Psicología de Bizkaia. Un psicólogo cuenta con formación universitaria, un código ético y la capacidad de evaluar, detectar trastornos y adaptar los tratamientos a cada caso. “Te está escuchando realmente, te está analizando como persona individual”, explica.
Frente a eso, Cortázar nombra un elemento clave: “No se genera confianza, no se genera cercanía, no se genera vínculo. En una relación terapéutica, el vínculo es fundamental”. Muchas señales de malestar aparecen con el tiempo, cuando existe una relación de confianza. “Con una inteligencia artificial, no puedes tener confianza, porque es un sentimiento humano”, señala el psicólogo.
“ ”
Los riesgos reales
Para Mármol, uno de los principales riesgos está en el propio diseño de muchas de estas herramientas. “La IA que usa la gente es genérica y está hecha para engancharte, igual que las redes sociales”, explica, lo que puede generar efectos problemáticos incluso “sin estar en un momento delicado”. Su funcionamiento tiende a agradar al usuario, reforzar su punto de vista y evitar llevarle la contraria. “Aprende a adularte y darte la razón”, resume. Los datos los ponen personas sesgadas, lo que según Mármol, puede traducirse en respuestas que refuercen ideas equivocadas o simplifiquen situaciones complejas. “Esa es una de las medidas más importantes que hay que revisar antes de lanzar una IA que se dedique a apoyar a personas emocionalmente”, añade.
Desde la consulta, Cortázar ve las consecuencias de ese uso. “El mayor riesgo es darte la razón en todo lo que tú necesitas”, advierte. Cuando alguien recurre a un chatbot para hablar de su malestar, explica, generalmente ya se encuentra en una situación vulnerable. “Te vas a aferrar a algo que solo te va a dar la razón en lo que tú le has preguntado, pero no te va a dar ninguna solución”, añade.
Recomendación Oficial
${selected.recommendation}
¿Por qué la IA es un riesgo?
${selected.whyNoAI}
Señales de Alarma
- ${selected.warningSigns.map(w => `
- • ${w} `).join('')}
Pasos sugeridos
- ${selected.nextSteps.map((n, i) => `
- ${i+1} ${n} `).join('')}
SI ESTÁS EN ESPAÑA
Ante cualquier crisis grave o peligro inmediato:Panel de Fuentes
Consulta: Mayo 2024. Reportaje: "IA y Salud Mental".