Alexander Embiricos, directivo de OpenAI, no se corta al hablar de la parálisis de la IA: "No avanzamos porque la gente escribe muy despacio"
Un alto ejecutivo de la compañía creadora de ChatGPT señala que la velocidad de escritura humana es un "factor limitante subestimado" para lograr la Inteligencia Artificial General, el santo grial de la industria
La industria de la IA lleva prácticamente desde su nacimiento invirtiendo miles de millones de euros en chips, centros de datos y demás infraestructuras, todo con el objetivo de crear una Inteligencia Artificial General (AGI), es decir, un sistema que iguale o supere la capacidad cognitiva humana, de todos modos, pese a este esfuerzo, los titanes de la industria se encuentran a años luz de capturar esta quimera.
Ahora, Alexander Embiricos, máximo responsable del desarrollo de productos de Codex en OpenAI, culpa de esta falta de progreso a los consumidores, a tí y a mí, porque, según dijo él mismo en una entrevista concedida a Lenny´s Podcast, escribimos demasiado lento. Embiricos afirma que el "factor limitante actual subestimado" para alcanzar la AGI es precisamente "la velocidad de escritura humana", denuncia que la existencia de un futuro donde agentes de IA autónomos ejecuten tareas complejas por sí mismos choca, por ahora, con la necesidad de que un humano formule instrucciones (prompts) y valide los resultados, un proceso que, según él, depende de nuestra limitada capacidad para escribir y revisar información.
La paradoja de la productividad
"Puedes tener un agente que supervise todo el trabajo que estás haciendo, pero si no tienes un agente IA que también valide ese trabajo, sigues teniendo un cuello de botella", explica Embiricos, dibujando una paradoja basada en que, incluso si la IA puede generar código, textos o análisis a gran velocidad, un humano debe revisar, corregir y guiar su "output".
El directivo argumenta que la tecnología debe evolucionar para liberar a las personas de esta carga: "Si podemos reconstruir los sistemas para que el agente sea útil por defecto, empezaremos a desbloquear un crecimiento exponencial", comentó también que el objetivo final de la industria serían el desarrollo de sistemas capaces de entender intenciones de alto nivel, descomponer tareas, ejecutarlas y validarlas por su cuenta, añadiendo que, para ello, es necesario minimizar la intervención manual lenta.
Embiricos no se limitó a diagnosticar el problema, también esboza una hoja de ruta sobre cómo se materializaría el avance hacia esta AGI, asegurando que el progreso hacia la misma no será un evento singular, en su lugar, piensa que se dará una progresión gradual de adopción y mejora.
En primer lugar, anticipa que "a partir del año que viene, veremos cómo los primeros en adoptar esta tecnología comienzan a disparar su productividad", estos "usuarios pioneros", concentrados en sectores como la programación o el análisis de datos, integrarían agentes de IA más autónomos en su flujo de trabajo, obteniendo ventajas cuantificables, posteriormente, advierte de que "a lo largo de los años siguientes, veremos cómo compañías cada vez más grandes disparan esa productividad", a medida que las herramientas y usuarios maduran y escalan.
Para Embiricos, la AGI llegará en el punto de inflexión entre estas dos fases: "Ese aumento repentino volverá a los laboratorios de IA y ahí es cuando básicamente estaremos en la inteligencia artificial general", en otras palabras, opina que, cuando la retroalimentación de los sistemas desplegados a gran escala alimente una mejora acelerada y autosostenida de los propios modelos de IA, se cerrará el círculo hacia esta "autonomía general".
La AGI es un tema muy complicado, no terminamos de entender que significa ni para qué serviría, realmente nadie lo sabe, siempre he pensado que es un poco extraño que gigantes como OpenAI o Nvidia persigan esta meta sin comprenderla del todo, creo que la tesis de Alexander tiene algo de sentido, aunque no me termina de convencer, al final consiste en hacer que dos modelos de lenguaje sin consciencia ni capacidad de raciocinio se regulen mutuamente, cuando la AGI se basa en sobrepasar los procesos cognitivos humanos, algo imposible de alcanzar siguiendo está lógica, o no, quizás sea posible alcanzarla (o acercarnos mucho) a través de esta vía, pero pienso que sería mucho más productivo redefinir que buscamos con todo este invento de la IA.