Rendición Cognitiva: La evidencia experimental que confirma la Deuda Cognitiva
Llevo tiempo argumentando que existe un coste oculto en la forma en que usamos la IA. Lo he llamado deuda cognitiva: lo que dejas de aprender hoy por delegar tu pensamiento a la IA, y que necesitarás saber mañana.
Ahora tengo evidencia experimental que lo confirma. Y los datos son más duros de lo que pensaba.
Shaw y Nave, investigadores de The Wharton School de la Universidad de Pensilvania, acaban de publicar un paper que extiende el marco clásico de Kahneman — Sistema 1 rápido, Sistema 2 lento — añadiendo un Sistema 3: la cognición artificial. No como metáfora. Como agente funcional que opera fuera del cerebro y que puede reemplazar, suprimir o amplificar los dos sistemas internos.
Su predicción central es lo que llaman rendición cognitiva: el momento en que dejas de evaluar la respuesta de la IA y la adoptas como tuya. Sin filtro. Sin criterio. Sin que tu Sistema 2 llegue siquiera a activarse.
Para demostrarla, diseñaron un experimento con 1.372 participantes y 9.593 ensayos en tres estudios preregistrados. Los participantes respondían preguntas del Cognitive Reflection Test — un test diseñado para medir si activas el pensamiento deliberado o te quedas en la respuesta intuitiva. Tenían acceso opcional a un chatbot de ChatGPT embebido en cada pregunta. Lo que no sabían es que ese chatbot estaba programado para dar respuestas incorrectas en la mitad de los casos, presentadas con confianza y con una explicación racional convincente.
Los resultados son los que deberían preocuparte.
Sin IA, los participantes respondían correctamente el 45.8% de las preguntas. Con IA correcta, subían al 71% — un salto de 25 puntos. Hasta aquí, la IA como amplificador funciona. Pero con IA incorrecta, caían al 31.5% — 14 puntos por debajo de no usar IA en absoluto. Usar una IA que falla te deja peor que si no la hubieras usado. No neutro. Peor.
Pero el hallazgo más perturbador no es ese.
Es que la confianza de los participantes aumentó en ambos casos. Da igual si la IA acertaba o fallaba — los participantes se sentían más seguros de sus respuestas. La IA produce una sensación de certeza que no está calibrada con la realidad. Y cuando la presión temporal entraba en juego, la precisión en los ensayos con IA incorrecta caía al 12%. Casi el colapso total del juicio bajo las condiciones exactas en las que Eduardo — el profesional que toma decisiones — opera habitualmente.
El perfil más vulnerable es específico: personas con mayor confianza en la IA y menor hábito de pensamiento deliberado. No es una cuestión de inteligencia. Es una cuestión de práctica cognitiva. Quien más ejercita el pensamiento crítico, menos se rinde. Quien menos lo ejercita, más.
Aquí es donde el paper de Wharton y el concepto de deuda cognitiva se complementan sin solaparse.
Shaw y Nave trabajan en el instante de la decisión: ¿adoptó el usuario la respuesta de la IA o la evaluó? Su respuesta es que la rendición ocurre de forma automática, invisible, y persiste incluso con incentivos económicos y feedback inmediato. Eso es el mecanismo de entrada a la deuda.
Lo que su paper no responde es la pregunta que más importa para el profesional que toma decisiones: ¿Qué capacidades no puedes delegar nunca sin pagar un coste que no ves hasta que es tarde?
Eso es lo que el concepto de deuda cognitiva añade. No toda delegación crea deuda. Solo la que te priva de ejercitar capacidades cuyo valor está en el proceso de generarlas, no en el output. El pensamiento profundo, el análisis crítico, navegar la ambigüedad, decidir ante lo que no tiene patrón previo, construir criterio en situaciones nuevas. Estas capacidades solo se desarrollan ejercitándolas con fricción. Si la IA elimina la fricción, elimina el aprendizaje. No el resultado — el aprendizaje.
El criterio práctico que propongo es este: antes de delegar algo a la IA, hazte una pregunta. ¿Hacerlo yo me haría mejor en algo que importa? Si la respuesta es sí, no lo delegues todavía. Úsalo como andamiaje, no como muleta. Si la respuesta es no, delégalo sin culpa.
Shaw y Nave terminan el paper preguntándose cómo diseñar sistemas de IA que preserven el juicio humano. Es una pregunta de ingeniería. Pero hay una pregunta anterior que ellos no hacen: cómo entrena una persona el hábito de no rendirse en un entorno que empuja sistemáticamente hacia la delegación.
Eso no es un problema de diseño tecnológico. Es un problema de desarrollo cognitivo deliberado.
Y es exactamente la pregunta para la que trabajo cada día.
¿Qué capacidad cognitiva sientes que estás ejercitando menos desde que usas IA? No hace falta que sea dramático. Puede ser algo concreto y pequeño.
