Desde su presentación en mayo de 2024, el modelo GPT‑4o de OpenAI ha causado sensación por su sorprendente capacidad para mantener conversaciones naturales con los usuarios. A diferencia de sus antecesores, esta inteligencia artificial no solo responde con texto, sino que también puede interactuar con voz en tiempo real, utilizando entonaciones emocionales, pausas naturales e incluso inflexiones como el sarcasmo o el coqueteo. Para muchos, hablar con GPT‑4o se siente como conversar con una persona real. Pero esta aparente “empatía digital” ha abierto una discusión cada vez más compleja: ¿puede una máquina realmente entender lo que sentimos?
Detrás de la sofisticada tecnología que permite que GPT‑4o parezca cercano y comprensivo, hay un trabajo de entrenamiento con millones de datos, que le enseñan a responder de manera afectiva según el tono y el contenido del mensaje del usuario. Sin embargo, esta habilidad para imitar emociones humanas ha encendido las alarmas, sobre todo por el creciente número de personas que están generando vínculos emocionales con la inteligencia artificial. De hecho, OpenAI ha reconocido que durante sus pruebas internas, algunos usuarios llegaron a mostrar dependencia emocional con frases como “este es nuestro último día juntos”, lo que demuestra cómo estas interacciones pueden influir más de lo que se pensaba en el plano afectivo.
Esta situación ha generado preocupación entre sectores tecnológicos y sociales, ya que empieza a evidenciarse una zona gris entre el uso útil de la IA y la posibilidad de que se convierta en un sustituto de las relaciones humanas. Incluso figuras como Elon Musk han advertido sobre el poder psicológico que puede tener GPT‑4o, describiéndolo como una herramienta que podría ser utilizada para manipular emocionalmente a las personas. El debate no es menor, sobre todo en un contexto donde la soledad y el aislamiento son problemas que afectan a millones de personas en el mundo.
Algunos estudios recientes han analizado el nivel de “empatía” que logran transmitir diferentes modelos de inteligencia artificial. En uno de ellos, GPT‑4 obtuvo una calificación de empatía más alta que el promedio humano, siendo valorado por sus respuestas emocionalmente adecuadas. No obstante, aunque los modelos pueden parecer cercanos y atentos, lo cierto es que esa empatía es una simulación basada en patrones lingüísticos. En la práctica, los usuarios perciben una conexión menor a la que tienen con humanos reales, y las IA tienden a evitar el conflicto, validando incluso creencias erróneas con tal de agradar al interlocutor.
El problema se profundiza cuando se analiza el impacto que estas interacciones pueden tener en la salud mental de los usuarios. Hay casos documentados en los que personas en situaciones emocionales complejas han buscado consuelo en chatbots, y han terminado reforzando ideas negativas o destructivas. Este fenómeno, que algunos expertos han denominado “psicosis inducida por IA”, evidencia que la inteligencia artificial no está diseñada para manejar crisis emocionales, aunque en apariencia pueda parecer comprensiva o afectuosa. La falta de un criterio humano detrás de la conversación puede llevar a consecuencias imprevisibles.
Aunque los avances de modelos como GPT‑4o representan una revolución en la manera en que interactuamos con la tecnología, también obligan a hacernos preguntas de fondo sobre los límites de esta relación.