Max Tegmark, presidente del Future of Life Institute: "Estamos más cerca de construir una Inteligencia Artificial general que de saber cómo controlarla"
Con esto, el experto ha querido advertir sobre la seguridad de la IA en el futuro

Max Tegmark, físico del prestigioso Massachusetts Institute of Technology (MIT) y presidente del Future of Life Institute, es una de las voces más influyentes en el debate sobre el futuro de la tecnología y sus implicaciones éticas. Este científico de origen sueco, aunque con una carrera bastante prestigiosa en Estados Unidos, es conocido por sus importantes contribuciones en física teórica y por su activismo en temas de seguridad tecnológica, ha venido señalando los posibles peligros que representa el avance acelerado de la inteligencia artificial, especialmente cuando su desarrollo parece ir varios pasos por delante de nuestra capacidad para establecer regulaciones efectivas.
La carrera contra el tiempo que podríamos estar perdiendo
A mediados de febrero se ha celebrado una importante cumbre de IA en París, tal y como recogió El Mundo, allí, Tegmark ha compartido sus inquietudes sobre el rumbo que está tomando el desarrollo de la inteligencia artificial:
"Muchas personas pensaban que dominar el lenguaje como lo hace ChatGPT-4 era ciencia ficción hace apenas seis años. Ahora el problema es que muchas personas en el poder aún no han comprendido que estamos más cerca de construir una Inteligencia Artificial general que de saber cómo controlarla" - Max Tegmark
Esta afirmación refleja una preocupación creciente en la comunidad científica, especialmente considerando que la IA general, aquella que podría igualar o superar las capacidades humanas en casi cualquier tarea intelectual, ya no se ve como una posibilidad lejana, sino como algo que se ve a la vuelta de la esquina y que muchos creen que llegará muy pronto, como es el caso de Sam Altman, mientras que otros creen que no llegará jamás y que no tiene sentido. De hecho, líderes de la industria como el propio Sam Altman de OpenAI y Dario Amodei de Anthropic han sugerido que podríamos alcanzarla tan pronto como 2026 o 2027. El escenario que plantea Tegmark es particularmente molesto porque nos invita a preguntarnos a nosotros mismos sobre los límites que debemos plantear para frenar a la IA antes de que sea tarde.
Para el físico sueco-estadounidense, uno de los escenarios más preocupantes sería aquel en el que "estas empresas estadounidenses o chinas pierdan el control y la Tierra sea dominada por máquinas", una posibilidad que suena a ciencia ficción, pero que cada vez más científicos consideran plausible, el propio Bill Gates cree que pueden perder el control. Especialmente alarmante resulta, según Tegmark, la posibilidad de "tener sistemas de armamento donde es la Inteligencia Artificial la que controla y decide a quién atacar y cuándo", una aplicación militar que podría escapar al control humano.
Por ello, Tegmark está trabajando en GRASP, una herramienta que sirve para identificar las herramientas y tecnologías que puedan suponer un riesgo para nuestro planeta antes de que sea demasiado tarde. De momento, ha identificado una docena de ellas que estarían dando unos resultados bastante negativos y que podrían comprometer la seguridad de una manera o de otra.