"Tengo miedo": uno de los mayores expertos en Inteligencia Artificial lanza un ultimátum a la humanidad

El ingeniero experto en IA Gary Marcus ha publicado en su blog un extenso artículo detallando las razones de por qué le preocupa la situación actual con las IA. Y no está solo en su preocupación.

"Tengo miedo": uno de los mayores expertos en Inteligencia Artificial lanza un ultimátum a la humanidad
El uso, abuso y falta de regulación sobre IA que existe actualmente está creando un clima incierto para los expertos.

Empiezan a llegar algunas voces disidentes muy altas en torno al desarrollo y la locura general en la que estamos sumidos con las inteligencias artificiales, con ChatGPT y OpenAI de nuevo en el ojo del huracán. Esta vez las críticas no llegan de sectores de la población preocupados por su puesto de trabajo, sino de un ingeniero especialista en IA llamado gary Marcus.

Tal y como el propio Marcus ha publicado en su blog, su preocupación por la evolución de las IAs está llegando a niveles muy altos. El ingeniero ha dejado claro que la situación actual le asusta mucho; una congoja a la que no ayuda la vorágine actual en la que GPT-5 podría alcanzar la Inteligencia Artificial General, ganando muchas características propias de los seres humanos.

Lo que da miedo no es la IA, sino el ser humano

"Tengo miedo": uno de los mayores expertos en Inteligencia Artificial lanza un ultimátum a la humanidad

Los humanos no estamos ayudando a crear IAs fiables, que no sean potentes y atolondradas

Esto mismo fue lo que dijo el CEO de OpenAI cuando declaró en una entrevista que era bueno tenerle miedo a las IA, añadiendo que lo que le preocupaba en su mayor parte era la proliferación de la desinformación. También dijo estar preocupado por "en manos de qué seres humanos" acababan cayendo las IA.

A Gary Marcus no sólo le preocupa la desinformación y la proliferación de noticias falsas, sino también lo fácil que puede resultar crackear Bing para aprovecharse de la IA que Microsoft ha asociado al buscador y que le está ayudando a plantar cara a Google en su propio terreno. Marcus cree que la seguridad no se está cuidando lo suficiente.

Por otro lado, Marcus es uno de los más de 50.000 firmantes de una carta abierta que pide parar los experimentos con IA, al menos momentáneamente. El ingeniero la firmó preocupado por el aumento de intereses propios dentro del desarrollo y auge de las IA, especialmente ChatGPT, señalando a Microsoft y Satya Nadella en particular como grandes culpables del asunto. No en vano, vale la pena recordar que los de Redmond incurrieron en una práctica altamente cuestionable al despedir a todo el equipo de ética de IA.

En dicha carta se incluía el siguiente párrafo, apelando a la ética de la investigación con modelos de inteligencia artificial:

La investigación sobre IA y su desarrollo se debería reenfocar en hacer los poderosos y ultramodernos sistemas de hoy más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.

Con un mission statement como este nadie en su sano jucio se debería oponer a pausar los experimentos con inteligencia, según Marcus. También, en sus propias palabras, los modelos de lenguaje son "elefantes en una cacharrería": potentes, atolondrados y difíciles de controlar. Hacer sistemas que fuesen como los descritos en la carta abierta deberían ser una prioridad para todo el mundo. Es puro sentido común, ¿no?

El pueblo contra la regulación de la IA

un T-800 de Terminator frente a un mundo apocalíptico

Una inteligencia artificial autoconsciente e inteligente sería catastrófica para la raza humana

El problema es que, en Internet al menos, el sentido común es el menos común de los sentidos. Desde que Marcus dijo haber firmado la carta y su contenido se hizo público, no han sido pocas las voces que han intentado desautorizar a todos los expertos en IA que la firmaron, incluyendo al protagonista de este artículo.

Un buen montón de supuestos éticos de la IA han publicado una contracarta, tildando de locura la preocupación de quienes abogan por pausar los experimentos con IA y que, según Gary Marcus, andan "buscando sangre en lugar de intentar encontrar un punto en común".

El ingeniero también lamenta que no existan estructuras de control que ayuden a regular la investigación, desarrollo y explotación de la tecnología para fines que puedan hacer avanzar realmente a la sociedad, sin crear mayores desigualdades, ni servir sólo a los intereses de unos pocos.

De acuerdo con lo expuesto por el ingeniero, el miedo real no es tanto a las capacidades a las que puedan llegar los modelos de lenguaje en particular o la IA en general, sino al uso mercantil y deseo de experimentación sin límite que, según su visión, están plagando el sector ahora mismo. Todo esto podría tener graves consecuencias a largo plazo, con las capacidades de Inteligencia Artificial General como ítem de mayor preocupación, temiendo que una IA nos acabase superando a todos y dejase de obedecernos.

Sea como fuere, Gary Marcus no es el único que ha expresado sus preocupaciones en un artículo. Otro ingeniero experto en IA, Eliezer Yudkowsky, ha publicado otra extensa entrada en la que va más allá: asegura que una Inteligencia Artificial con conciencia plena acabaría matándonos a todos.

Según las conclusiones de este experto, una IA sobrehumanamente inteligente acabaría convirtiéndose en la contrapartida real de Skynet, acabando con toda la vida inteligente sobre la faz de la tierra. No como una posibilidad, sino con la certeza absoluta de que algo así acabaría ocurriendo. Es una obviedad para este experto, no cabe otra conclusión.

Lo que parece estar meridianamente claro es que la polémica está servida entre quienes defienden una idea y otra. El debate va a seguir abierto mucho tiempo. Esperemos que no sea un debate estéril, al menos.

Para estar siempre al día con lo último en tecnología, suscríbete a nuestro canal oficial y verificado de Andro4all en WhatsApp.

Para ti
Queremos saber tu opinión. ¡Comenta!