La foto fija. Por qué seguimos equivocándonos sobre el futuro tecnológico
I. 1992. Un ladrillo en la mano.
Imagina que estás en 1992 y alguien te pone en la mano un Motorola DynaTAC. Pesa casi un kilo. La batería aguanta treinta minutos de conversación, en el mejor de los casos. Cuesta el equivalente a varios miles de euros actuales. La cobertura es irregular, las llamadas se cortan, y la red apenas existe fuera de las grandes ciudades.
Un observador razonable, bien informado, con criterio de negocio, mira ese dispositivo y concluye: esto no tiene ningún futuro. Demasiado caro, demasiado pesado, demasiado limitado. La telefonía fija funciona. ¿Para qué sacrificar calidad y gastar una fortuna en un teléfono que no funciona bien?
Su análisis era correcto para lo que tenía en la mano. El problema es que no estaba evaluando ese teléfono. Estaba, sin saberlo, evaluando una tecnología en el primer tramo de su curva de desarrollo. Y para eso, los criterios que aplicó eran los equivocados.
Treinta y cinco años después, el mismo error se repite con la computación cuántica, con los robots humanoides, con la fusión nuclear, con los vehículos autónomos y muchas otras tecnologías de frontera. Algunos analistas, directivos y profesionales del sector las miran y concluyen: es humo, no funcionan, le falta 20 años.
Este ensayo trata de explicar por qué se equivocan. No por falta de información, sino por exceso de un tipo concreto de información aplicada con el modelo mental equivocado.
II. El error no es de datos. Es de modelo.
El primer instinto cuando alguien falla al evaluar tecnología emergente es pensar que le falta información técnica. Que si supiera más sobre física cuántica o sobre ingeniería robótica, llegaría a conclusiones distintas. Esa explicación es cómoda pero incorrecta.
El problema no es qué saben. Es cómo procesan lo que saben.
Existen al menos tres sesgos cognitivos que actúan de forma sistemática cuando evaluamos tecnología emergente, y los tres convergen en el mismo error: aplicar criterios de tecnología madura a tecnología que todavía está aprendiendo a existir.
El presentismo es el más elemental. Consiste en juzgar el valor futuro de algo por su rendimiento presente. Cuando alguien dice que los robots humanoides «nunca funcionarán» está tomando el estado actual, prototipos caros, torpes, con autonomía limitada, como evidencia definitiva sobre su trayectoria. Es el equivalente a evaluar la aviación comercial viendo despegar el Flyer de los hermanos Wright en 1903. El aparato existe. Vuela. Pero nadie en su sano juicio cruzaría el Atlántico en él. Eso no dice nada sobre lo que la aviación llegará a ser.
La linealidad es el segundo sesgo, y quizás el más dañino en el contexto actual. Los seres humanos tendemos a proyectar el futuro de forma aritmética: si algo mejora un poco este año, mejorará otro poco el siguiente. Pero el desarrollo tecnológico, especialmente en fases de maduración acelerada, no es aritmético. Es exponencial. El chip que duplica su capacidad de cómputo cada dieciocho meses no mejora linealmente; se transforma cualitativamente. Una tecnología que parece estancada durante años puede dar un salto que la hace irreconocible en un período muy breve. Nuestra comprensión del progreso no está diseñada para asimilar curvas exponenciales.
La familiaridad como proxy de viabilidad es el tercero. Tendemos a considerar fiables las tecnologías que conocemos y dudosas las que nos resultan ajenas. La telefonía fija «funcionaba» en 1992 no solo en sentido técnico, sino en sentido cognitivo: era familiar, predecible, integrada en la vida cotidiana. El móvil era extraño, incómodo, caro. Esa extrañeza se confundía inconscientemente con fragilidad tecnológica. Hoy ocurre lo mismo con tecnologías que nos resultan difíciles de visualizar en uso cotidiano: la computación cuántica, la edición genética, los sistemas de IA general.
Ninguno de estos sesgos es signo de ignorancia. Son patrones cognitivos profundamente arraigados que funcionan bien en entornos estables y fallan sistemáticamente en entornos de cambio acelerado. El problema es que vivimos en un entorno de cambio acelerado.
III. La tormenta de ruido: medios, redes y el ciclo de la decepción
Hasta aquí, el error es individual. Pero existe un entorno que lo amplifica, lo alimenta y, en muchos casos, lo produce directamente.
Hace treinta o cuarenta años, las tecnologías se desarrollaban en un silencio relativo. No existían internet, las redes sociales ni la mensajería instantánea. Los laboratorios trabajaban durante años sin que sus avances tuvieran repercusión pública significativa. Cuando una tecnología llegaba al gran público, lo hacía con cierto nivel de madurez: había pasado por ciclos de refinamiento, corrección de errores y validación industrial que eran invisibles para el ciudadano común.
Ese silencio no era información suprimida. Era simplemente la velocidad natural de propagación de la época.
Hoy ese filtro ha desaparecido. Cualquier experimento de laboratorio, cualquier prototipo funcional, cualquier resultado preliminar de una investigación puede llegar a ocho mil millones de personas en cuestión de minutos. La amplificación es total e instantánea. Y eso tiene una consecuencia que se suele ignorar: el público conoce las tecnologías en su momento más frágil, más incompleto, más susceptible de fallar.
El resultado es predecible. Se anuncia una tecnología como revolucionaria cuando todavía es experimental. El experimento falla, o simplemente avanza más despacio de lo prometido. Los mismos medios que la elevaron la entierran. El público, que ha visto el ciclo repetirse, desarrolla una fatiga escéptica que no distingue entre el fracaso real y el simple retraso en la curva de maduración. «Nos dijeron que los coches autónomos llegarían en 2020», se dice. «Nos dijeron que la fusión nuclear estaba a diez años.» Y ese escepticismo, razonable en su origen, se convierte en un modelo mental que descarta por defecto cualquier tecnología que no haya demostrado ya su valor en el mercado masivo.
El mecanismo es perverso: la democratización de la información sobre ciencia y tecnología ha producido, paradójicamente, una peor comprensión del proceso real de desarrollo tecnológico.
IV. El marketing como arquitecto de la percepción
Pero hay un actor adicional que merece atención separada: las propias empresas tecnológicas.
El desarrollo tecnológico nunca ha sido una actividad puramente científica. Siempre ha necesitado capital, y el capital exige narrativas. Lo que ha cambiado en las últimas décadas es la intensidad de esa presión narrativa y la velocidad a la que se traslada al discurso público.
Las empresas tecnológicas operan en entornos de competencia extrema, con costes de investigación enormes y ciclos de desarrollo largos. Necesitan capital para sobrevivir. Y para conseguir capital, de inversores, de fondos, de socios estratégicos, necesitan comunicar no el estado actual de su tecnología, sino su potencial. La distinción entre ambas cosas se difumina con asombrosa facilidad cuando hay dinero en juego.
El resultado es que prototipos se presentan como productos terminados, experimentos se anuncian como revoluciones inminentes, y pilotos controlados se describen como soluciones escalables. No siempre por deshonestidad deliberada, aunque a veces lo es, sino porque la lógica del capital riesgo y la lógica de la comunicación honesta apuntan en direcciones opuestas.
Hay además un fenómeno estructural que agrava esto: el progresivo control del departamento de marketing sobre el de comunicación en las grandes empresas tecnológicas. La comunicación corporativa, en su función tradicional, tenía una cierta vocación de exactitud: describir lo que la empresa hacía, cómo lo hacía y en qué estado se encontraba. Era una función de gestión de la reputación a largo plazo. El marketing, por definición, responde a objetivos comerciales de corto plazo: generar demanda, atraer inversión, posicionar ante la competencia.
Cuando el marketing coloniza la comunicación, los mensajes públicos sobre el estado de una tecnología dejan de responder a criterios de exactitud y pasan a responder a criterios de impacto. Los periodistas y analistas reciben narrativas optimizadas. Los informes de producto están redactados por equipos cuyo objetivo es convencer, no informar. Y el ecosistema mediático, que necesita titulares con tracción, amplifica sin demasiado filtro crítico lo que las empresas emiten.
El consumidor, el profesional, el directivo, aprenden a desconfiar. Pero aprenden a desconfiar del mensaje, no a leer correctamente la tecnología que hay detrás. Y eso le lleva exactamente al mismo error que describíamos antes: confundir expectativas infladas con la inviabilidad, y el retraso con el fracaso.
V. Cómo funciona realmente el ciclo
Para entender el desarrollo tecnológico sin caer en ninguno de estos errores, ni en el optimismo acrítico ni en el escepticismo prematuro, conviene tener un modelo de referencia.
El más conocido es el Hype Cycle de Gartner, que describe cómo una tecnología emergente sigue un patrón bastante predecible: un pico de expectativas infladas tras su aparición pública, seguido de una caída hacia el «valle de la desilusión» cuando la realidad no cumple lo prometido, y una recuperación gradual hacia la «meseta de la productividad» a medida que la tecnología madura y encuentra aplicaciones reales.
El modelo tiene sus limitaciones, no todas las tecnologías siguen exactamente esta curva, y el tiempo que pasa en cada fase varía enormemente, pero su utilidad analítica es real: da un nombre y una estructura a algo que de otro modo se experimenta como una sucesión caótica de euforias y decepciones.
Pero hay algo que el Hype Cycle no captura bien, y que es quizás lo más importante para entender la tecnología contemporánea: los saltos cualitativos no ocurren por el progreso de una sola tecnología, sino por la convergencia de varias que maduran en paralelo.
El teléfono móvil no fue solo miniaturización. Fue miniaturización más mejora de baterías más pantallas táctiles más redes de datos más sistemas operativos móviles más economía de aplicaciones. Ninguno de esos elementos, por separado, habría producido el smartphone. Fue su convergencia en un punto temporal lo que transformó el objeto.
Lo mismo ocurre con la IA generativa actual: no es solo un algoritmo más potente. Es la confluencia de arquitecturas transformer, capacidad de cómputo en GPU, volúmenes masivos de datos de entrenamiento e infraestructura de nube distribuida. Quitar cualquiera de esos elementos y la tecnología no existiría tal como la conocemos.
Esta naturaleza convergente del salto tecnológico tiene una implicación directa para quien quiere evaluar tecnologías emergentes: la pregunta no es «¿funciona esto ya?» sino «¿cuántas de las tecnologías complementarias necesarias están también madurando, y a qué velocidad?»
VI. Por qué ahora es diferente: la aceleración no es retórica
La última pieza del argumento es la que más resistencia genera, porque suena a lo que siempre dicen quienes venden algo: que esta vez es diferente, que vivimos un momento sin precedentes, que la velocidad del cambio es mayor que nunca.
La diferencia es que, en este caso, hay mecanismos concretos que lo explican.
El primero es que la IA está comprimiendo los ciclos de investigación y desarrollo. Lo que antes requería años de trabajo experimental puede ahora simularse, modelarse y optimizarse en fracciones de ese tiempo. Esto no se aplica a todas las áreas tecnológicas por igual, pero en aquellas donde sí opera, diseño de materiales, descubrimiento de fármacos, ingeniería de software, optimización de procesos industriales, los resultados son ya observables. La velocidad a la que una tecnología «decepcionante» puede convertirse en disruptiva se ha reducido de forma significativa.
El segundo mecanismo es que el software puede actualizar el hardware instalado. Un coche fabricado hace tres años puede tener hoy capacidades que no tenía cuando salió de fábrica, si recibe las actualizaciones adecuadas. Eso significa que el rendimiento de una tecnología ya desplegada no es estático: puede mejorar sin que el usuario cambie nada. Este fenómeno rompe la lógica tradicional de la adopción tecnológica, que requería sustitución física del equipamiento.
El tercero es el más estructural: los costes de experimentación se han desplomado. Crear una empresa tecnológica, probar un producto en mercado, iterar sobre un prototipo de software o incluso diseñar un componente físico con herramientas digitales cuesta una fracción de lo que costaba hace veinte años. Eso significa que el número de experimentos en curso en cualquier momento dado es órdenes de magnitud mayor que antes. Y más experimentos, a menor coste, producen más descubrimientos por unidad de tiempo.
La combinación de estos tres factores no garantiza que todas las tecnologías emergentes de hoy vayan a tener éxito. Muchas no lo tendrán. Pero sí garantiza que la distancia temporal entre «esto no funciona» y «esto lo ha cambiado todo» es ahora más corta que en cualquier período anterior de la historia tecnológica.
El Motorola DynaTAC tardó casi dos décadas en transformarse en el iPhone. Es legítimo preguntarse si los robots humanoides de hoy necesitarán las mismas dos décadas. La respuesta honesta es que probablemente no. Y esa aceleración es, en sí misma, la razón principal por la que el modelo mental con el que evaluamos la tecnología emergente necesita una actualización urgente.
VII. Volver al ladrillo.
Regresemos a 1992. A la mano que sostiene el DynaTAC.
El observador razonable que concluía que la telefonía móvil no tenía futuro masivo no fallaba por falta de criterio. Fallaba porque aplicaba criterios correctos al objeto equivocado. Evaluaba el teléfono que veía, no la tecnología que ese teléfono representaba. No podía ver la batería de litio que todavía no existía, ni la pantalla táctil que aún no se había inventado, ni la red de datos que tardaría diez años en desplegarse. Solo veía el ladrillo.
El error no era de observación. Era de escala temporal y de comprensión del proceso.
Ese mismo error, con las mismas causas y el mismo mecanismo cognitivo, se repite hoy cada vez que alguien descarta una tecnología emergente porque su versión actual es imperfecta. La computación cuántica no está lista para uso comercial general. Los robots humanoides son todavía lentos, caros y frágiles. La fusión nuclear lleva décadas prometiendo más de lo que entrega. Todo eso es cierto y, al mismo tiempo, irrelevante como argumento en contra de su viabilidad futura.
Lo relevante es otra pregunta: ¿Cuáles son los vectores de mejora identificados? ¿Cuántas tecnologías complementarias están madurando en paralelo? ¿A qué velocidad se están comprimiendo los ciclos de desarrollo? ¿Qué mecanismo concreto impediría que esta tecnología alcanzara su potencial teórico?
Esas son las preguntas que distinguen el análisis del prejuicio. Y en una época en que la distancia entre el prototipo y la disrupción se mide ya en años y no en décadas, la diferencia entre hacer esas preguntas y no hacerlas tiene consecuencias económicas y estratégicas muy concretas.
La foto fija siempre ha sido una trampa. Hoy, más que nunca, es un lujo que no nos podemos permitir.
