Apocaloptimismo: criar a un hijo en la era de la IA
Hace unos días vi el tráiler de The AI Doc: Or How I Became an Apocaloptimist . En el tráiler hay una frase que se me quedó clavada: “Si esta tecnología sale mal, puede salir muy mal”. No es una advertencia cualquiera, está dicha por personas que están construyendo esa tecnología.
La película, dirigida por Daniel Roher y Charlie Tyrell y producida por parte del equipo detrás de Everything Everywhere All at Once y Navalny, fue seleccionada en la sección Premieres del Festival de Sundance, donde se estrenó el 27 de enero de 2026.
El punto de partida es íntimo: Roher se prepara para ser padre y decide entrevistar a algunas de las voces más influyentes del sector para entender qué mundo heredará su hijo. La inquietud que atraviesa el documental es sencilla y brutal a la vez: si traer un niño al mundo en plena aceleración de la inteligencia artificial es un acto de confianza o de temeridad.
Puede parecer una inquietud personal, casi cinematográfica. Pero lo inquietante es que esa misma pregunta la he escuchado en conversaciones privadas con directivos del sector tecnológico en España y fuera. No formulada así, tan desnuda. Pero sí en forma de duda: “¿Estamos acelerando demasiado?”, “¿Tenemos realmente control?”, “¿Quién está pensando en el largo plazo?”.
Lo que me interesa del documental no es tanto si aporta respuestas nuevas, probablemente no, sino que condensa algo que ya es estructural: la industria que promete “resolver el cambio climático”, “curar enfermedades” y “aumentar las capacidades humanas” es la misma que admite, con una naturalidad inquietante, que podría provocar una “desaparición súbita de la humanidad”.
Y esa contradicción ya no es algo marginal. Está en el corazón de la industria.
Del miedo íntimo al riesgo sistémico
El recurso narrativo de Roher, sentarse a hablar con Sam Altman, Demis Hassabis, Dario Amodei, Tristan Harris o Dan Hendrycks mientras se prepara para ser padre, es algo más que un truco emocional bien pensado. Funciona como un puente entre una discusión filosófica abstracta y una biografía concreta. No está preguntando por el futuro en términos académicos, sino por el mundo en el que crecerá su hijo.
Cuando alguien que trabaja analizando los riesgos existenciales de la IA afirma que no espera que sus hijos lleguen al instituto, no estamos ante una exageración retórica. Es un escenario que algunos investigadores contemplan como plausible y que, en determinados círculos técnicos, se discute con absoluta seriedad.
Al mismo tiempo, escuchamos a los líderes de las grandes compañías describir la IA como la herramienta que permitirá colonizar el cosmos, multiplicar la productividad y eliminar enfermedades. “El único día más emocionante que hoy es mañana”. La promesa es expansiva, casi épica.
Entre esos dos extremos aparece el término apocaloptimista : alguien que reconoce el potencial apocalíptico, pero decide apostar por el lado luminoso. Yo llevo tiempo dándole vueltas a esa posición. No me resulta indiferente. ¿Es una síntesis verdaderamente madura o una forma sofisticada de gestionar la ansiedad?
Porque aquí hay una contradicción difícil de ignorar: la propia industria alimenta simultáneamente ambas narrativas. Por un lado, el discurso del riesgo existencial, que sitúa la IA al nivel de la guerra nuclear; por otro, una carrera empresarial y geopolítica por desplegar modelos cada vez más potentes, “de forma prematura”, como se dice en el tráiler.
Si de verdad creemos que estamos ante “el último error que podremos permitirnos cometer”, la pregunta es inevitable: ¿cómo se justifica esta velocidad?
La carrera que nadie quiere perder
n el tráiler se escucha una frase que me parece clave: “Estamos en una carrera para lograr una IA mucho más inteligente que las personas dentro de esta década. Quien gane será, en esencia, quien controle a la humanidad”. No es una línea dramática pensada para impactar. Es una forma bastante descarnada de describir el momento que vivimos.
Ahí, para mí, está el núcleo del problema.
No hablamos solo de avances tecnológicos. Lo que está en juego es geopolítico, económico y cultural al mismo tiempo. Estados Unidos y China compiten abiertamente, Europa intenta no quedarse descolgada, los fondos de inversión empujan, los mercados premian al que promete más capacidad y más velocidad, pero penalizan a los que miran a largo plazo. La lógica se parece inquietantemente a la de una carrera armamentística, aunque se presente envuelta en el lenguaje amable de la innovación y la eficiencia.
En ese contexto, pedir que todo se detenga suena casi infantil. “¿Por qué no podemos simplemente parar?”, plantea el director. La respuesta es muy cruda: porque hay empresas cotizadas que deben responder cada trimestre, capital riesgo que necesita retornos y una convicción muy extendida de que, si tú decides frenar, otro ocupará tu lugar sin dudarlo.
Hace poco, un CIO de una gran compañía española me lo decía sin rodeos: “No podemos permitirnos no experimentar con IA generativa, aunque no tengamos claro el retorno. El riesgo reputacional es quedarnos atrás”. No hablaba de euforia tecnológica, sino de presión competitiva.
La sensación es la de estar construyendo tu negocio sobre una casa alquilada que está siendo reformada en tiempo real. Sabes que el suelo puede moverse bajo tus pies, que las paredes pueden cambiar de sitio, pero también sabes que todos tus competidores están viviendo dentro de esa misma casa. Y nadie quiere ser el único que se quede fuera.
CEOs, responsabilidad y narrativa
El documental, según varias críticas, muestra a Sam Altman diciendo poco realmente sustantivo. No me sorprende demasiado. Los CEOs de las grandes tecnológicas no hablan solo como ingenieros o visionarios; hablan como gestores de equilibrios inestables. Juegan en varios tableros a la vez: innovación, regulación, opinión pública y mercados financieros. Cada palabra tiene consecuencias.
Prometer que “todo irá bien” es, sencillamente, imposible. Pero presentarse como profetas del desastre tampoco es una opción viable cuando diriges una compañía valorada en miles de millones y dependes de la confianza de clientes, inversores y gobiernos. Necesitan transmitir ambición sin pánico, prudencia sin freno.
Ahí aparece una tensión que me parece clave para quienes dirigimos, asesoramos o analizamos empresas: la narrativa se ha convertido en una herramienta de gestión del riesgo. No es solo comunicación corporativa; es arquitectura estratégica.
Hablar de riesgos existenciales puede cumplir varias funciones a la vez. Puede servir para impulsar marcos regulatorios que, bajo la bandera de la seguridad, consoliden a los grandes actores y eleven las barreras de entrada. También puede reforzar la posición de determinadas compañías como interlocutores imprescindibles ante los gobiernos cuando se diseñan nuevas normas.
Mientras tanto, en paralelo, las startups y los equipos internos de innovación siguen avanzando en lo tangible: automatización de procesos, copilotos de código, sistemas de diagnóstico médico, optimización logística. Casos de uso concretos, presupuestos asignados, métricas de eficiencia.
La IA se está configurando, al mismo tiempo, como infraestructura crítica emergente y como herramienta directa de productividad. Es una capa estratégica sobre la que se reorganizan sectores enteros y, a la vez, una tecnología que promete ahorrar costes el próximo trimestre.
Esa dualidad es profunda. Y no se resuelve con una etiqueta simplona como “apocaloptimismo”.
Del debate filosófico al comité de dirección
Desde mi experiencia analizando estrategia tecnológica, veo tres implicaciones que no podemos ignorar.
- La gestión del riesgo ya no es solo ciberseguridad o cumplimiento normativo. Empieza a incluir escenarios sistémicos. ¿Qué pasa si un modelo crítico falla? ¿Qué pasa si dependes de un proveedor que decide cambiar condiciones, precios o capacidades? ¿Qué pasa si la regulación se endurece de forma abrupta tras un incidente grave?
- La dependencia tecnológica se intensifica. Si la IA se convierte en la capa que optimiza, decide o recomienda en múltiples procesos, ¿Quién controla esa capa? ¿Tu empresa? ¿Un proveedor estadounidense? ¿Un consorcio internacional? En Europa, esta pregunta debería ponernos en alerta más de lo que lo hace.
- La dimensión ética deja de ser un departamento aislado. Si de verdad creemos que estamos ante una tecnología con potencial de alterar el equilibrio humano, la gobernanza no puede limitarse a un comité decorativo.
He hablado con responsables de innovación que reconocen en privado que están desplegando soluciones más rápido de lo que su marco interno de control puede absorber. No por irresponsabilidad, sino por presión competitiva.
Creo que la clave es otra: no decidir si usarla o no, sino entender si estamos ante una herramienta competitiva o ante una capa estructural del sistema.
¿Madurez o deseo?
El director del documental termina abrazando la etiqueta de “apocaloptimista”. Puedo entender el impulso. Cuando estás a punto de ser padre, creer que el mundo será habitable deja de ser una idea abstracta y se convierte en una necesidad muy concreta.
Ahora bien, si me muevo del plano personal al estructural, la síntesis me genera dudas. No porque sea ingenua, sino porque puede ser insuficiente. Hay una diferencia entre integrar tensiones y neutralizarlas emocionalmente. El riesgo es que el “apocaloptimismo” funcione más como mecanismo psicológico de adaptación que como marco riguroso de decisión.
Ser realista respecto al riesgo implica asumir que ciertas líneas de desarrollo podrían necesitar límites claros, ralentizaciones deliberadas o incluso prohibiciones. No como gesto simbólico, sino como consecuencia lógica de aceptar escenarios graves. Ser optimista, en cambio, implica continuar invirtiendo, desplegando y compitiendo en un entorno donde la velocidad se premia y la prudencia rara vez cotiza.
Sostener ambas posiciones exige algo más que equilibrio retórico. Exige rediseñar incentivos.
En el tráiler hay otra frase que me parece más exigente que esperanzadora: “Si podemos ser la versión más madura de nosotros mismos, quizá haya un camino”. La palabra clave ahí no es “camino”, es “madura”. Y cuando observo cómo funcionan nuestras instituciones, empresas presionadas por resultados trimestrales, gobiernos atrapados en ciclos electorales cortos, mercados que penalizan la espera, me pregunto si están configuradas para la madurez o para la aceleración permanente.
No tengo una respuesta definitiva, y desconfío de quien la tenga. Lo que sí veo con claridad es que esta conversación ha dejado de ser un debate abstracto entre tecnólogos. Está entrando en los consejos de administración, en los comités de inversión y, cada vez más, en conversaciones íntimas sobre hijos y futuro.
Si uno quisiera llevar el “apocaloptimismo” hasta el extremo, la coherencia exigiría algo casi temerario: tener al hijo sin dudarlo. Con la esperanza de que, llegado el caso, sea nuestro particular John Connor frente a Skynet. La referencia es irónica, pero encierra algo serio: confiamos en que la próxima generación será más capaz, más prudente o más brillante que nosotros.
La cuestión de fondo no es únicamente qué puede hacer la inteligencia artificial, ni cuán potente llegará a ser. Es qué arquitectura institucional, económica y ética somos capaces de construir a su alrededor.
Y esa responsabilidad, por sofisticada que sea la tecnología, sigue siendo profundamente humana.
