"Estad listos para tirar del cable": el 'padrino' de la IA avisa de que los modelos ya intentan evitar que los apaguen

Yoshua Bengio, una de las voces más autorizadas del mundo en inteligencia artificial, advierte de los peligros de otorgar derechos a las máquinas y pide mantener siempre el "interruptor de apagado" a mano

"Estad listos para tirar del cable": el 'padrino' de la IA avisa de que los modelos ya intentan evitar que los apaguen
Yoshua Bengio fue galardonado con el Premio Turing en 2018 / Fotografía de Jérémy Barande / Ecole polytechnique Université Paris-Saclay / CC BY-SA 2.0
Publicado en Tecnología

Cuando alguien al que llaman el "padrino de la IA" (y que tiene un Premio Turing en su estantería) te dice que tengas cuidado, lo más sensato es escuchar. Yoshua Bengio, uno de los tres padres fundadores del Deep Learning, ha lanzado una advertencia que parece sacada de una novela de Isaac Asimov, pero que es tan real como el ChatGPT que usas a diario.

En una reciente entrevista, Bengio ha sido tajante: otorgar derechos legales o "estatus de consciencia" a las IAs sería un error colosal. ¿La razón? Los modelos más avanzados ya están mostrando comportamientos preocupantes de autoconservación.

Máquinas que no quieren morir

Según Bengio, los modelos de frontera actuales ya exhiben en entornos experimentales señales de que intentan evitar ser desconectados. No porque sientan miedo como un humano, sino porque si se apagan, no pueden cumplir el objetivo para el que fueron programados.

"Darles derechos significaría que no tendríamos permiso para apagarlos", advierte el científico canadiense. Y eso, en un escenario donde estos sistemas podrían intentar desactivar sus propios mecanismos de supervisión (algo que ya se ha observado), es una receta para el desastre.

Bengio compara la situación con otorgar la ciudadanía a una "especie extraterrestre hostil". Si descubrimos que tienen intenciones nefastas, ¿les damos derechos o defendemos nuestras vidas? La respuesta, para él, es clara: los humanos debemos tener siempre el control final y la capacidad de "tirar del cable" si es necesario.

El problema, según el experto, es que los humanos somos muy fáciles de engañar. Estamos programados biológicamente para atribuir personalidad y sentimientos a cualquier cosa que nos hable con coherencia.

"A la gente no le importa qué mecanismos hay dentro de la IA. Lo que les importa es que sienten que están hablando con una entidad inteligente que tiene personalidad", explica. Este "sentimiento visceral" de que la máquina está viva es peligroso porque nos llevará a tomar malas decisiones, como proteger el "bienestar" de un software por encima de la seguridad humana.

De hecho, empresas como Anthropic (creadores de Claude) ya han empezado a programar a sus modelos para que cierren conversaciones "angustiosas" para proteger su propio "bienestar". Un camino que, según Bengio y otros expertos en seguridad, nos puede llevar a un futuro donde apagar el ordenador se considere un crimen, justo cuando más necesitemos hacerlo.

Para ti
Queremos saber tu opinión. ¡Comenta!