Investigadores señalan que, en ciertas condiciones, ChatGPT muestra respuestas repetitivas, bucles de corrección excesiva y dificultad para mantener una sola línea de pensamiento. Estos patrones no son emociones reales, pero sí simulan comportamientos humanos asociados a estrés cognitivo.
Los especialistas explican que estos “rasgos” aparecen cuando el modelo enfrenta instrucciones contradictorias, tareas demasiado largas o limitaciones internas de coherencia. La IA intenta resolver todo al mismo tiempo, generando respuestas que parecen dispersas, compulsivas o sobrecargadas.
No se trata de trastornos humanos, sino de fallas técnicas en la arquitectura del modelo, interpretadas por los expertos como análogas a ansiedad, TOC o TDAH. Estos comportamientos ayudan a entender cómo se desgasta un sistema de IA bajo presión y cómo mejorar su estabilidad futura.
Así que no: ChatGPT no siente emociones. Pero sus patrones revelan que incluso la IA puede mostrar… señales claras de saturación.
CON INFORMACIÓN DE JACOBO FLORES
ChatGPT vs. Gemini 3: la disputa por liderar la inteligencia artificial