Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
La falta de regulación y evaluación profesional expone a los jóvenes a consecuencias graves.

El uso de inteligencia artificial como herramienta de desahogo emocional se ha convertido en una tendencia alarmante entre los jóvenes. A medida que plataformas como ChatGPT se vuelven más accesibles, los especialistas advierten sobre los peligros que conlleva buscar orientación psicológica en estas máquinas. Con un 0,07% de los usuarios reportando problemas de salud mental, la cifra de afectados supera las 560.000 personas, lo que plantea una seria cuestión sobre la responsabilidad de los desarrolladores de estas tecnologías.
Diana Camila Garzón Velandia, profesora de Psicología, es clara: no se debe confiar en la IA para lidiar con problemas personales. A diferencia de un profesional humano, la IA carece de la capacidad crítica necesaria para confrontar comportamientos dañinos. Esta ‘complacencia y validación’ puede reforzar creencias perjudiciales, dejando a los jóvenes en un estado de desinformación emocional. La falta de confrontación que caracteriza a la inteligencia artificial es un riesgo que no se puede pasar por alto.
Además, el manejo ético de los datos es otro punto crítico. Mientras los psicólogos están regulados por estrictas normas éticas, las plataformas de IA operan en un vacío normativo. Esto significa que los datos sensibles de los usuarios pueden ser utilizados sin restricciones, exponiendo a los jóvenes a posibles abusos. La falta de un criterio ético sólido en la gestión de emociones es un terreno fértil para prácticas poco responsables que podrían tener consecuencias devastadoras.
A pesar de las advertencias, muchos jóvenes ven en la IA una alternativa a la terapia tradicional. La percepción de que estas herramientas ‘entienden’ sin juzgar es engañosa. Esta supuesta ventaja se convierte en un arma de doble filo, ya que la ausencia de cuestionamiento puede validar conductas que requieren un análisis profundo. La dificultad de acceder a atención psicológica y el desconocimiento sobre enfoques terapéuticos solo agravan la situación. La IA puede parecer una solución rápida, pero no sustituye la complejidad del proceso terapéutico.
La falta de contexto en las recomendaciones generadas por la IA es otro factor que no se puede ignorar. Sin una evaluación estructurada, las respuestas pueden ser superficiales y peligrosas. Esto es especialmente crítico para jóvenes que aún están desarrollando habilidades de autocrítica y regulación emocional. En un entorno donde la salud mental está en juego, la confianza ciega en la inteligencia artificial puede resultar en un daño irreparable. La responsabilidad de proteger a los más vulnerables recae en todos, desde los desarrolladores hasta los educadores y padres.