La velocidad de desarrollo de la IA es tal que ha transcendido la fase de ser simplemente grandes herramientas para convertirse en algo mucho mayor que aún no se soy capaz de explicar. Por eso, he querido escuchar a mi intuición y parar durante unas horas para leer a otros expertos e intentar comprender. He leído a Matt Shumer, viralizado estos días, y he visto los vídeos de Nadella, Hassabis, Altman, Harari y Amodei en Davos. Esto me he obligado a ordenar algunas de mis ideas que te quiero transmitir porque me preocupan, y creo que a ti también deberían de preocuparte.
Incompetencia de pensamiento.
La primera idea que te quiero transmitir es que no somos capaces de pensar en el impacto que la IA va a tener en nuestras vidas, ya no en el largo plazo, sino en el corto. Aquí el problema es doble, en primer lugar, la velocidad a la que vamos no nos permite parar para pensar y reflexionar con la debida tranquilidad. Vivimos llenando nuestras agendas como si no hubiera un final, y lo hacemos para parecer ocupados, porque una persona ocupada es una persona de éxito ¿no? Pues no (si tu problema es este, lee a Chul Han). Esta saturación de agenda no nos permite la reflexión sosegada y oportuna sobre el impacto que la IA va a tener en nuestras vidas. Y digo bien en nuestras vidas y no la de nuestros hijos, que también, porque la disrupción de la IA nos impacta desde ya, y a todos. Como no somos capaces de parar, no somos capaces de pensar bien.
El segundo problema del por qué no somos capaces de pensar bien sobre el impacto de la IA es que no tenemos la capacidad mental suficiente para pensar en todas las implicaciones que esta tecnología va a tener en nuestras vidas profesionales. Y no tenemos capacidad porque las ramificaciones de una tecnología tan disruptiva como es la IA se nos escapa biológicamente. ¿Sabías que tenemos una limitación biológica para pensar en más de 3 hilos de pensamiento paralelo para temas complejos? Pues es así, y me temo que la IA impacta en mucho más que tres.
Esto ya no es el gran reemplazo, es inutilidad.
Hace unos días mantenía este debate con mis alumnos de la universidad: La IA no es que nos reemplace, es que a muchos nos hará inútiles. Si te fijas en los últimos lanzamientos de grandes modelos de lenguaje (LLMs) como ChatGPT Codex 5.3 o Opus 4.6, aunque de momento están vinculados al mundo de la programación, ya nos muestra evidencias de un gran cambio, y es que vemos como los propios modelos más viejos están siendo utilizados para programar los nuevos modelos. Esta es la recursividad que tanto temor nos genera: máquinas fabricando máquinas. En ese contexto, que ya ha empezado a ocurrir, la pregunta es evidente ¿Qué narices pintamos nosotros en todo esto? Algoritmos mucho más rápidos que yo e incansables, trabajando para producir la siguiente versión de sí mismos más inteligentes que la anterior. Esto ya está ocurriendo en el mundo del software ¿Cuánto tardará en extenderse al resto de sectores, industrias o áreas de conocimiento?
Cuando eso ocurra, cuando se extienda, la IA puede que ya no nos reemplace, sino que hagas inútiles para muchas de las tareas que hacemos hoy día. Satya Nadella, CEO de Microsoft, ha caracterizado el año 2026 como el momento en que la tecnología pasa de la “experimentación” a la “difusión” a gran escala, es decir, a su expansión.
La implicación de que una IA ayude a construir su propia versión sucesora es la definición práctica de una explosión de inteligencia. Dario Amodei, CEO de Anthropic, ha señalado que en su empresa la IA ya escribe gran parte del código de la empresa, y estima que estamos a solo uno o dos años de que la generación actual de IA construya de forma autónoma la siguiente. Este bucle de retroalimentación se está fortaleciendo mes a mes, reduciendo la necesidad de supervisión humana en las capas más profundas de la arquitectura del software. Siguiendo con esta idea, Amodei predice que la IA eliminará el 50% de los empleos de oficina en un plazo de uno a cinco años, y su análisis se basa en la idea de que la IA no está reemplazando una habilidad específica, sino que actúa como un “sustituto general del trabajo cognitivo”.
Os recuerdo una vez más que la IA es la herramienta cognitiva más potente jamás inventada. La especie humana ha llegado a donde está por sus capacidades cognitivas (memoria, aprendizaje, razonamiento, análisis…), y ahora nos enfrentamos a la difícil tarea de “pensar con cosas que piensan”. Pero ¿Y si esas cosas que piensan lo hacen mejor que los humanos? En esa distopía, nosotros cada vez pensaríamos menos y nos atrofiaríamos, y ellas cada vez pensarían más y se potenciarían. Quizás no tengamos que llegar a esto, hay formas de agencia compartida donde nosotros aportamos juicio y propósito, pero desde luego es todo un reto. (La agencia hace referencia a quién tiene el control del proceso y la responsabilidad: La IA o nosotros)
La evidencia nos sugiere que el reemplazo no es una posibilidad futura, sino una realidad presente. Sectores como la ingeniería del software, los servicios legales, los analistas financieros o la atención del cliente, por nombrar sólo unos pocos, ya están inmersos en el gran reemplazo. Dario Amodei ha advertido que la velocidad de progreso es “inusualmente dolorosa” para el mercado laboral. La capacidad de adaptación humana es lineal, mientras que el progreso de la IA es exponencial.
No entendemos las reglas del crecimiento exponencial
Nos gusta pensar que todo se comporta de manera líneal, y lo hacemos porque somos capaces de entender el crecimiento lineal. Sin embargo, y como dice Amodei, el crecimiento de la IA es exponencial y eso rompe todo horizonte temporal, y toda nuestra comprensión humana. Si, sabemos cómo es el dibujo de una gráfica exponencial, pero sufrimos y nos perdemos al intentar entender sucesos que crecen a esa velocidad. Cuando en el año 1990 los investigadores se propusieron descifrar el genoma humano, en 1997 sólo habían descifrado el 1% del mismo, y muchos pensaron que tardaríamos cientos de años en hacerlo a esa velocidad, sin embargo, los avances se comportaron de forma exponencial y en 2003 los investigadores lograron descifrar el 100% (tardamos 7 años en lograr el 1%, y 7 años en lograr el 99% restante).
En el desarrollo de la IA, estamos en la curva de la rodilla de la curva exponencial, y nadie, repito, nadie, sabe dónde vamos a terminar.
La paradoja de Fermi
El análisis de las declaraciones de Amodei, Nadella y Hassabis, cruzado con el rendimiento de los modelos de lenguaje lanzados en febrero de 2026, confirma que no estamos ante una tendencia pasajera, sino ante una reconfiguración definitiva de la civilización humana. Al menos, así lo veo yo.
La paradoja de Fermi es la aparente contradicción entre las altas probabilidades de que existan civilizaciones extraterrestres y la total falta de evidencia o contacto con ellas. Una teoría del por qué esto ocurre, de por qué no hay vida inteligente colonizando las galaxias es por qué toda civilización llega a un momento de filtro, es decir, un momento de su evolución que termina en extinción.
Amodei advierte que la IA es el primer “sustituto general del trabajo cognitivo”. Si una especie no es capaz de alinear los valores de esa inteligencia con los suyos se auto-elimina antes de ser detectable. Por otro lado, Hassabis dice que si no vemos basura robótica en el espacio es que la idea de una destructiva no es un destino inevitable.
Sea como fuera, o aprendemos a darle propósito, juicio y sentido a la IA, o esto se nos puede ir de las manos. Por favor, ¿Por qué esa manía de humanizar la máquina? La máquina es la máquina y las personas somos personas. ¿Por qué esa manía de buscar consciencia humana en la IA? Será otra cosa, pero no consciencia. De hecho, el problema no es que la IA tenga o no consciencia, el problema es que nos lo creamos. Cuando eso ocurra, cuando creamos que la IA tiene consciencia empezaremos a pedir derechos para ese ente, y ahí vendrá el problema.
El futuro no está llegando, ya ha iniciado sesión
No estamos ante una moda pasajera, estamos ante una redefinición de la vida humana. Esto no es el Metaverso que se inventó Zuckerberg en pandemia. Esto es otra cosa, y muy gorda.
La IA ha dejado de ser una herramienta de consulta para convertirse en un actor con capacidad de automejora, juicio estratégico y razonamiento científico. La diferencia entre el éxito y el fracaso, tanto a nivel individual como corporativo, radicará en la velocidad de reconocimiento de esta nueva realidad. Si hoy detuviéramos el desarrollo mundial de la IA, las empresas aún tardaríamos años en saber cómo aplicar todas esas capacidades que nos ofrece. Pero ¿Crees que el desarrollo de la IA va a parar? No, no va a parar, y te digo otra cosa: que exista o no burbuja de valoración en las principales empresas mundiales de IA te da igual. No pienses en ello, qué más da, la inercia ya existe y es exponencial. Recuerda, máquinas creando máquinas.
IA: Esto no es un Cisne Negro, es el Elefante en la Habitación
Por definición, un evento de tipo Cisne Negro es aquel suceso aleatorio e impredecible de gran impacto en la sociedad, es decir, eso que es poco probable, que nadie espera, pero cuando ocurre rompe con todo lo que conocemos, como la pandemia del covid. Pero el desarrollo de la IA no es aleatorio, está documentado y es observable, vemos su crecimiento, lo que ocurre es que sólo unas pocas personas del mundo lo entienden. Ver no es comprender.
El desarrollo de la IA no es un suceso de tipo Cisne Negro, es más bien del tipo Elefante en la Habitación, todos lo vemos, pero nadie quiere hablar de él por las implicaciones que tiene. Dario Amodei ha puesto cifras al elefante: el 50% de los empleos de oficina podrían desaparecer en un horizonte de 1 a 5 años. Las empresas ya están desviando presupuestos de nóminas hacia infraestructura de computación para agentes autónomos. Satya Nadella describe el “colapso” de las aplicaciones tradicionales en agentes invisibles. Esto significa que el software, como lo conocemos, está dejando de ser una herramienta para convertirse en el trabajador mismo.
El elefante ha decidido empezar a pensar.
¿Y no hay nada qué podamos hacer?
El margen de maniobra es pequeño. El desarrollo de la IA va a toda máquina y ahí no podemos hacer nada. Que Europa diseñe normativa legal de protección de poco sirve porque nosotros no tenemos empresas desarrolladoras, están en EEUU y China. Además, estos dos países se encuentran en una carrera competitiva por dominar la tecnología, por lo que ninguno de los dos pondrá barreras a su desarrollo.
Lo que sí podemos hacer, entre otras cosas, es preocuparnos más de la inteligencia humana. Es clave formar a las personas a utilizar la IA no como sustituto sino como una herramienta capaz de potenciar sus capacidades cognitivas. Si enseñamos a la gente a evitar la descarga cognitiva podemos hacer que la gente sea más creativa que nunca junto con la IA. Pero no sólo eso, si lo hacemos bien, podemos hacer que las personas tengan mayor capacidad de razonamiento que nunca, mayor capacidad de toma de decisiones y mayor capacidad de resolución de problemas complejos. Pero esto no vendrá sólo, hay que formar a la gente. Tengo amigos que me dicen que no hace falta entender la tecnología 5G para saber utilizar un móvil, pero esto no es lo mismo. La IA es una herramienta cognitiva, y tenemos que entender cómo funciona para utilizar al máximo rendimiento para hacer mejor a las personas, y no para que sean reemplazables.
Va a ser inevitable, y es que vamos a tener a agentes cognitivos trabajando para nosotros, y tenemos que formar a la gente una forma de trabajo híbrida entre humanos y máquinas. Pero tenemos poco tiempo, ya te dije que la velocidad de desarrollo de la IA es exponencial, y nos enfrentamos a la realidad de que la velocidad de aprendizaje humana es lineal. Debemos empezar ya a concienciar y a formar.
Pascual Parada
