Eric Schmidt: en cinco años la IA se autoprogramará, ¿estamos preparados para la inteligencia alienígena?
Durante la 8.ª edición del Future Investment Initiative , celebrada el 29 de octubre de 2024 en Riyadh, Eric Schmidt, cofundador de Schmidt Futures y ex-CEO y presidente de Google, participó en la mesa redonda First Board of Changemakers: Geoeconomics, moderada por David M. Rubenstein.
La intervención de Schmidt se centró en los avances de la inteligencia artificial (IA) y en cómo estas tecnologías están impactando la sociedad, la economía y la seguridad global. En particular, destacó un punto esencial en torno a la capacidad de los sistemas de IA para autoprogramarse y mejorar su propio código, anticipando una transformación sin precedentes en el ámbito de la tecnología.
Inteligencia artificial: su avance y potencial impacto en la humanidad
Schmidt comenzó su intervención abordando el origen y la evolución de la inteligencia artificial. Recordó que el término inteligencia artificial se acuñó en los años 50, pero que los avances reales en IA se han producido en la última década, gracias a las mejoras en capacidad computacional y el desarrollo de algoritmos más sofisticados.
Explicó que estos avances permiten a los sistemas procesar grandes volúmenes de datos, lo que ha llevado a la creación de tecnologías que tienen el potencial de transformar profundamente la sociedad.
Automatización y redefinición de la inteligencia artificial
Uno de los puntos clave de la intervención de Schmidt fue su predicción sobre la capacidad de los sistemas de IA para autoprogramarse en un plazo de cinco años. Esta afirmación se enmarca en un contexto en el que la IA ha evolucionado desde la automatización de tareas simples a la capacidad de tomar decisiones complejas, optimizar procesos y, según Schmidt, escribir y mejorar su propio código. Esta habilidad de autoprogramación tiene el potencial de revolucionar la tecnología de IA, ya que reduciría la necesidad de intervención humana en el desarrollo de software.
Schmidt señaló que, con el tiempo, los sistemas de IA podrían alcanzar un nivel de autonomía y capacidad de mejora continua que los posicionaría como una inteligencia alienígena para los estándares actuales de la humanidad. Esto significa que, al perfeccionar su propio código, los sistemas de IA podrían desarrollar soluciones y algoritmos que sobrepasen las habilidades de los programadores humanos, optimizando de manera acelerada sus funciones sin depender de la programación externa.
Implicaciones éticas y sociales
En su exposición, Schmidt también abordó las implicaciones éticas y sociales de estos avances. Afirmó que la humanidad no está completamente preparada para los cambios que esta inteligencia alienígena puede traer, ya que plantea desafíos significativos en términos de control, seguridad y moralidad. Explicó que la autoprogramación de los sistemas de IA podría dificultar la tarea de supervisar y entender las decisiones que estas tecnologías toman, lo que podría llevar a un escenario de riesgo si no se gestionan adecuadamente.
Schmidt sugirió que este nivel de autonomía en los sistemas de IA demandará nuevos enfoques en regulación y gobernanza, y destacó la importancia de la colaboración entre los sectores público y privado para establecer un marco que asegure que el desarrollo de la IA se mantenga alineado con los intereses y valores de la sociedad.
IA y el cambio en la naturaleza de la guerra
Además de la autoprogramación, Schmidt subrayó cómo la IA está transformando otros sectores, como el de la defensa. Explicó que la guerra moderna ya no se define solo por enfrentamientos físicos, sino que la IA ha introducido una dimensión tecnológica en la que los drones y otros sistemas automatizados pueden jugar un rol central.
Mencionó el caso de Ucrania como ejemplo de un conflicto en el que los drones están redefiniendo la manera de combatir, ya que permiten un nivel de control remoto que evita el riesgo directo para los combatientes.
En este contexto, Schmidt hizo hincapié en el dilema ético de las armas autónomas, indicando que el desarrollo de sistemas de IA capaces de tomar decisiones de manera independiente plantea nuevos retos en términos de responsabilidad y disuasión.
Con la llegada de la IA a los conflictos bélicos, la capacidad de autoprogramación y mejora continua de estos sistemas podría llevar a una nueva generación de tecnologías militares, con consecuencias potencialmente impredecibles para la estabilidad global.