William Saunders, ex empleado de OpenAI: "En los 3 próximos años puede haber un Titanic con la IA. Nos manipulará y no lo notaremos"

Como sucedió en su día con el trasatlántico, Saunders considera que hay un exceso de confianza en la IA y muy poca preparación ante posibles catástrofes

William Saunders, ex empleado de OpenAI: "En los 3 próximos años puede haber un Titanic con la IA. Nos manipulará y no lo notaremos"
William Saunders, un ex trabajador de la compañía estadounidense OpenAI, creadores de ChatGPT
Publicado en Tecnología

William Saunders, quien trabajó durante varios años en el equipo de superalineación de OpenAI, ha expresado su preocupación sobre el desarrollo de la inteligencia artificial y su potencial impacto en la sociedad. En una entrevista, el ex empleado de la compañía comparó el enfoque de la empresa donde trabajaba con la construcción del Titanic, pronosticando que en los próximos años podríamos enfrentarnos a consecuencias catastróficas si no se mejoran los controles de seguridad.

Saunders estuvo tres años en el equipo de superalineación de OpenAI, el cual se encarga de garantizar que los sistemas de inteligencia artificial avanzados actúen conforme a los intereses humanos. Sin embargo, en febrero de 2024, hace justo un año, presentó su renuncia al considerar que la empresa estadounidense gestionaba de forma totalmente irresponsable los riesgos asociados a la IA.

En cuanto a su analogía con el Titanic, se basa en dos aspectos clave. Para empezar, el exceso de confianza en las medidas de seguridad actuales, similares a los compartimentos estancos del trasatlántico más famoso de todos los tiempos, que se consideraban infalibles. Y, por otro lado, la falta de preparación para escenarios catastróficos, como la posibilidad de que sistemas de inteligencia artificial desarrollen capacidades ocultas o se automejoren sin supervisión.

Como puedes ver en esta publicación compartida por @chatgptricks, una cuenta de Instagram dedicada por completo a dar noticias de inteligencia artificial, y más específicamente del chatbot ChatGPT, aquí están las declaraciones completas de Saunders:

Ver esta publicación en Instagram

Una publicación compartida de Artificial Intelligence (AI) • ChatGPT (@chatgptricks)

William Saunders alerta que la inteligencia artificial podría influir en decisiones humanas críticas como elecciones y mercados financieros, evidentemente sin que detectemos su intervención. Esto coincide con estudios recientes que demuestran cómo modelos de lenguaje como GPT-4, lanzado hace ya dos años, son capaces de engañar a humanos en juegos estratégicos.

Además, critica que OpenAI prioriza lanzamientos comerciales sobre investigación de seguridad, equiparando su modelo de negocio al de una empresa tradicional en lugar de una organización pionera como la que es. Finalmente, aprovecha el momento para hacer referencia a casos como el despido de Leopold Aschenbrenner, otro investigador que alertó sobre fallos de seguridad.

La situación adquiere mayor urgencia ante el anuncio de Meta de desarrollar IA "más inteligente que humanos pero obediente", y las advertencias de expertos como Yann LeCun, un informático especializado en los campos del aprendizaje automático, sobre la aceleración tecnológica. Sin embargo, Saunders insiste en que el verdadero peligro no es la rebelión de las máquinas, sino nuestra incapacidad para prever cómo estos sistemas podrían manipular entornos sociales y económicos.

Para ti
Queremos saber tu opinión. ¡Comenta!