España multará a quien no indique que un contenido ha sido generado por IA

El Gobierno aprueba el anteproyecto de ley para regular la IA

España multará a quien no indique que un contenido ha sido generado por IA
El uso de la inteligencia artificial estará mucho más vigilado
Publicado en Tecnología

El Gobierno de España aprobó el pasado 11 de marzo el anteproyecto de ley para regular el uso de la inteligencia artificial (IA). Su objetivo es que dicha tecnología se etiquete para que los ciudadanos puedan saber que un contenido ha sido generado por ella, pero también su uso para técnicas subliminales, la clasificación biométrica o la explotación de vulnerabilidades. Dicho instrumento normativo adaptará la legislación española al reglamento europeo de la IA, que ya está en vigor.

Sanciones de 35 millones de euros, e incluso más

El Estado regulará el empleo de la IA mediante directrices, pero también con sanciones que pueden alcanzar los 35 millones de euros para empresas, e incluso del 7% de su facturación mundial, si esta cantidad resulta mayor. Las sanciones podrán aplicarse desde el 2 de agosto de 2025, aunque las prácticas prohibidas entrasen en vigor el 2 de febrero de 2025. También se podrá sancionar de otras formas.

Una de las claves del anteproyecto es que obligará a etiquetar de forma clara y distinguible imágenes, vídeos, audios o contenidos generados por IA. Cada vez resulta más complicado distinguir entre contenido real o generado artificialmente, algo que propaga la desinformación, o que incluso puede aprovecharse por ciberdelincuentes para cometer estafas.

También se regulará el uso de la IA en sistemas de alto riesgo. Entre ellos se encuentran los juguetes, industrias claves para el país, sanidad, migración, justicia o transportes. A continuación incrustamos varias de las prácticas prohibidas de la IA, según indica textualmente el Ministerio para la transformación digital y de la función pública:

  • El uso de técnicas subliminales (imágenes o sonidos imperceptibles) para manipular decisiones sin consentimiento, causando un perjuicio considerable a la persona (adicciones, violencia de género o menoscabo de su autonomía). (Ej: un chatbot que identifica usuarios con adicción al juego y les incita a entrar, con técnicas subliminales, en una plataforma de juego online).
  • Explotar vulnerabilidades relacionadas con la edad, la discapacidad o situación socioeconómica para alterar sustancialmente comportamientos de modo que les provoque o pueda provocar perjuicios considerables (Ej: Un juguete infantil habilitado con IA que anima a los niños a completar retos que les producen o pueden producirles daños físicos graves).
  • La clasificación biométrica de las personas por raza u orientación política, religiosa o sexual. (Ej: Un sistema de categorización facial biométrica capaz de deducir la orientación política o sexual de un individuo mediante análisis de sus fotos en redes sociales).
  • La puntuación de individuos o grupos basándose en comportamientos sociales o rasgos personales como método de selección para, por ejemplo, denegarles la concesión de subvenciones o préstamos.
  • Valorar el riesgo de que una persona cometa un delito basándose en datos personales como su historial familiar, nivel educativo o lugar de residencia, con excepciones legales.
  • Inferir emociones en centros de trabajo o educativos como método de evaluación para promoción o despido laboral, salvo por razones médicas o de seguridad.

Por otro lado, estas son las autoridades que supervisarán la regulación son:

  • Agencia Española de Protección de Datos: vigilará los sistemas biométricos y la gestión de fronteras
  • Consejo General del Poder Judicial: sistemas de IA en Justicia.
  • Junta Electoral Central: se enfocará en los sistemas de IA relacionados con elecciones y otros procesos democráticos.
  • Agencia Española de Supervisión de la Inteligencia Artificial (AESIA): se encargará del resto de casos.

Uno de los mayores escollos a los que se enfrenta la regulación de la IA es la etiquetación de contenido generado por esta. Si bien ciertas plataformas, como YouTube, ya solicitan al usuario que identifique aquello generado por esta tecnología antes de publicar contenido, supone un reto mayúsculo que todas las plataformas y usuarios lo hagan. Entre las posibles soluciones se halla que automáticamente las IA etiqueten todo su contenido generado. Sea como sea, la solución no llegará de la noche al día, aunque cada vez más gobiernos optan por regularla.

Para ti
Queremos saber tu opinión. ¡Comenta!