OpenAI admite que sus nuevos modelos tienen un riesgo "alto" de crear ciberataques autónomos

La compañía liderada por Sam Altman ha emitido un preocupante comunicado relacionado con sus nuevos modelos de lenguaje

OpenAI admite que sus nuevos modelos tienen un riesgo "alto" de crear ciberataques autónomos
El logo de OpenAI, empresa creadora de ChatGPT
Publicado en Tecnología

Estamos acostumbrados a que las empresas de tecnología nos vendan sus avances con promesas de utopía y progreso. Pero cuando la compañía que lidera la revolución de la inteligencia artificial, OpenAI, levanta la mano y dice: "Cuidado, lo que estamos creando es peligroso", más nos vale prestar atención. En un movimiento de transparencia inusual (y quizás preventivo), los creadores de ChatGPT han admitido que sus próximos modelos de IA no solo serán más inteligentes, sino que tendrán la capacidad potencial de convertirse en hackers autónomos de primer nivel.

La noticia saltó ayer mismo. En una publicación en su blog corporativo, OpenAI advirtió que sus futuros modelos de inteligencia artificial podrían representar un riesgo "alto" en materia de ciberseguridad. Y no estamos hablando de riesgos teóricos a décadas vista. Hablamos de capacidades que avanzan a una velocidad vertiginosa.

Los ciberdelincuentes del futuro podrían ser agentes de IA autónomos

Según la compañía, estos nuevos modelos podrían llegar a desarrollar por sí mismos "exploits remotos de día cero" (zero-day exploits) contra sistemas bien defendidos. Para quien no esté familiarizado con el término, un exploit de día cero es una vulnerabilidad desconocida por el fabricante y para la que no existe parche. Que una IA pueda encontrar y explotar estos fallos de forma autónoma cambia las reglas del juego por completo.

Pero la cosa no acaba ahí. OpenAI también señala que sus modelos podrían asistir en "operaciones complejas de intrusión empresarial o industrial" destinadas a causar efectos en el mundo real. Imaginad una IA capaz de navegar por la red de una central eléctrica o de una multinacional, esquivando defensas y ejecutando ataques coordinados.

Ante este escenario de pesadilla, la respuesta de OpenAI es: "estamos en ello". La compañía, respaldada por Microsoft, asegura que está invirtiendo en fortalecer sus modelos para tareas de ciberseguridad defensiva. La idea es usar el fuego para combatir el fuego: crear herramientas que permitan a los defensores auditar código y parchear vulnerabilidades más rápido de lo que las IAs ofensivas (o los humanos que las usen) puedan explotarlas.

Para contrarrestar los riesgos, OpenAI afirma que confía en una mezcla de controles de acceso, endurecimiento de la infraestructura y monitorización constante (sistemas que no hubieran venido del todo mal a aquella empresa que dejó expuestos los datos de miles de usuarios de ChatGPT). Además, planean lanzar un programa para ofrecer acceso escalonado a capacidades avanzadas a usuarios y clientes cualificados que trabajen en ciberdefensa.

Como parte de su estrategia, OpenAI también ha anunciado la creación de un grupo asesor llamado Frontier Risk Council (Consejo de Riesgos Fronterizos). Este grupo reunirá a expertos en ciberdefensa y profesionales de la seguridad para colaborar estrechamente con los equipos de la compañía. Inicialmente se centrarán en la ciberseguridad, pero la idea es expandirse a otros dominios en el futuro.

Es un paso necesario, sin duda. Pero no deja de ser inquietante que estemos creando herramientas tan potentes que sus propios creadores tengan que montar consejos de emergencia para intentar contenerlas. La carrera de la IA ha entrado en una fase donde el riesgo ya no es solo perder el trabajo, sino perder el control de nuestra infraestructura digital.

Para ti
Queremos saber tu opinión. ¡Comenta!