Yuval Noah Harari, historiador y tecnólogo sobre la IA: "Uno de los grandes peligros es que nuestras creaciones se vuelvan en nuestra contra"
El autor advierte que la inteligencia artificial podría escaparse de nuestro control y transformarse en una fuerza autónoma capaz de crear instrumentos financieros, armas e incluso nuevas religiones
El historiador y filósofo Yuval Noah Harari ha formulado una nueva reflexión sobre el desarrollo de la inteligencia artificial, situando en el centro del debate el riesgo existencial de que la tecnología creada por el ser humano se convierta en una amenaza para su propio creador. Durante su participación en un documental de la televisión sueca SVT en 2024, el pensador expuso su preocupación sobre la capacidad de la humanidad para mantener el control sobre sus propios inventos, en un contexto de evolución tecnológica acelerada y cuyas consecuencias a largo plazo resultan imprevisibles.
Al ser interrogado sobre su visión del futuro de la humanidad, Harari comenzó reconociendo la inherente dificultad de cualquier pronóstico. "Es una gran pregunta. No lo sabemos. Nadie tiene idea de cómo será el mundo dentro de 50 años o incluso 20 años", afirmó el autor. Sin embargo, matizó esta incertidumbre con un elemento crucial de agencia humana: el porvenir no está escrito de forma inexorable, sino que "depende de nuestras decisiones".
"Uno de los mayores peligros es que nuestras propias creaciones se nos escapen de las manos y nos esclavicen o aniquilen"
Esta advertencia va más allá de los problemas inmediatos, como el sesgo algorítmico o la desinformación, apuntando directamente a un riesgo existencial donde la inteligencia artificial, concebida como una herramienta para amplificar las capacidades humanas, podría transformarse en su antagonista. El historiador plantea así la posibilidad de que la humanidad repita el mito de Frankenstein, pero a una escala global y con consecuencias potencialmente irreversibles.
La naturaleza cambiante de la IA: de herramienta a agente autónomo
El núcleo de la advertencia de Harari reside en una reinterpretación fundamental de lo que es la inteligencia artificial. Según su análisis, el término "artificial" se está volviendo obsoleto y engañoso. "La gente piensa en ella como un acrónimo de inteligencia artificial, pero con cada año que pasa, la IA se está volviendo menos y menos artificial", explicó. El pensador aclaró que "por 'artificial' nos referimos a algo que diseñamos y controlamos", un estatus que la IA avanzada está abandonando progresivamente. Aunque los ingenieros escriben el código inicial, la tecnología ha cruzado un umbral crítico: "Es la primera tecnología en la historia que puede crear nuevas ideas por sí misma".
Esta capacidad de generación autónoma de ideas conduce a Harari a una conclusión trascendental: la IA "no es realmente una herramienta. Es más bien un agente". Esta distinción es crucial, pues un agente tiene una voluntad y una capacidad de acción que una herramienta carece. El historiador invita a la audiencia a visualizar las implicaciones de este cambio en un futuro no muy lejano
"Imagínense la situación dentro de un par de años cuando el mundo o la sociedad esté poblada por millones, quizás miles de millones, de estas nuevas inteligencias alienígenas"
La creación de realidades inéditas: de las finanzas a las religiones
La reflexión final de Yuval Noah Harari, amplificada en sus redes sociales con la pregunta "¿Qué pasa cuando nuestras propias creaciones se salen de nuestro control?", resuena como un llamado a la prudencia y a la acción. Su análisis no apela al pánico, sino a la conciencia de que la humanidad se encuentra en un punto de inflexión histórico.