"Quizá ya no tengamos tiempo": la escalofriante advertencia de un experto del gobierno sobre el avance imparable de la IA
David Dalrymple, figura clave de la agencia de investigación científica británica, alerta de que los sistemas de IA podrían superar nuestra capacidad de control mucho antes de lo previsto
Cuando alguien que trabaja protegiendo infraestructuras críticas te dice que "quizá ya sea tarde", es momento de prestar atención. David Dalrymple, experto en seguridad de IA y director de programa en la agencia ARIA (la versión británica de la DARPA estadounidense), ha lanzado una advertencia que hiela la sangre: el mundo podría no tener tiempo suficiente para prepararse ante los riesgos de los sistemas de inteligencia artificial de vanguardia.
En unas declaraciones al Guardian que suenan más a profecía distópica que a informe técnico, Dalrymple señala una brecha preocupante: mientras el sector público cree que tiene margen de maniobra, la tecnología avanza a una velocidad que deja obsoleta cualquier regulación antes de que se apruebe.
"Nos superarán en todo lo necesario para controlar la civilización"
La preocupación de Dalrymple no es que ChatGPT te quite el trabajo mañana (que también), sino algo mucho más profundo. "Deberíamos preocuparnos por sistemas que pueden realizar todas las funciones que los humanos realizan para hacer cosas en el mundo, pero mejor", afirma.
Su pronóstico es claro: corremos el riesgo de ser "superados en todos los dominios en los que necesitamos ser dominantes para mantener el control de nuestra civilización, sociedad y planeta".
Según sus estimaciones, no estamos hablando de décadas. Dalrymple proyecta que en un plazo de cinco años, la mayoría de las tareas económicamente valiosas serán realizadas por máquinas con mayor calidad y menor coste que los humanos. Y lo que es peor: cree que para finales de 2026, las IAs ya podrán automatizar el trabajo de un día completo de investigación y desarrollo, lo que provocará una aceleración exponencial de sus propias capacidades.
La seguridad va por detrás del avance
El problema, según este experto, es que la ciencia necesaria para garantizar que estos sistemas son fiables y seguros "probablemente no se materializará a tiempo dada la presión económica". Es decir, la carrera por lanzar el modelo más potente es tan feroz que la seguridad se ha quedado en el asiento de atrás.
El Instituto de Seguridad de la IA del gobierno británico (AISI) respalda estos temores con datos:
- El rendimiento de los modelos en algunas áreas se duplica cada ocho meses.
- Los modelos actuales ya pueden completar tareas de nivel aprendiz el 50% del tiempo (hace un año era el 10%).
- En pruebas de laboratorio, dos modelos de vanguardia lograron tasas de éxito superiores al 60% en intentos de auto-replicación.
La conclusión de Dalrymple es que la civilización humana está "caminando dormida hacia esta transición". Un despertar que, si no nos damos prisa en controlar y mitigar los riesgos, podría ser mucho más brusco de lo que imaginamos.