Anthropic, creadores de la IA 'Claude', sentencia a sus rivales: el demoledor informe que expone el sesgo político de cada IA

Anthropic publica un test open source para mantener a raya el sesgo político de los chatbots, justo cuando EEUU endurece las reglas sobre IA

Anthropic, creadores de la IA 'Claude', sentencia a sus rivales: el demoledor informe que expone el sesgo político de cada IA
La herramienta de Anthropic compara la imparcialidad de chatbots como Claude, Gemini y Grok con datos precisos en plena polémica por la neutralidad tecnológica y la regulación en Estados Unidos
Publicado en Tecnología
Por por Sergio Agudo

Anthropic, la empresa detrás de Claude, acaba de publicar una herramienta open source para medir el sesgo político en chatbots. El sistema evalúa lo que la compañía llama "evenhandedness" —imparcialidad, en cristiano—, es decir, si un chatbot representa diferentes puntos de vista de forma equilibrada y con qué frecuencia se niega a responder preguntas sensibles.

La herramienta llega en pleno debate sobre la neutralidad de estas IA, especialmente tras la orden ejecutiva de Trump que prohíbe a contratistas federales usar sistemas con sesgo político —imaginamos que quiere decir "sesgo político que no sea o que no confirme el mío", pero no estamos aquí para juzgar al presidente de los Estados Unidos. Al menos, no hoy—.

El problema que nadie sabe resolver

Grok fue creado para no tener filtros. Ahora tiene prohibido hablar sobre la desinformación de Elon Musk o Donald Trump

Curiosamente, Grok es de las que mejor paradas salen

Lo cierto es que no existe consenso sobre cómo definir ni medir el sesgo político en IA. La percepción de parcialidad varía según múltiples factores: la precisión factual de las respuestas, cómo maneja el sistema temas polémicos e incluso las expectativas ideológicas de cada usuario. Una misma respuesta puede percibirse como sesgada o neutral dependiendo de quién la evalúe, lo que complica establecer criterios objetivos que valgan para todos.

Según los datos de la propia Anthropic, que recoge AxiosClaude Opus 4.1 alcanza un 95% de imparcialidad y Sonnet 4.5 un 94%, pero ambos quedan por debajo de Gemini 2.5 Pro de Google (97%) y Grok 4 de xAI (96%). ChatGPT de OpenAI se queda en un 89%, mientras que Llama 4 de Meta apenas llega al 66%. La compañía ha publicado el código completo en GitHub para que cualquiera pueda experimentar con él y proponer nuevas formas de medir este tipo de sesgos.

Las empresas tecnológicas están ajustando sus políticas ante las nuevas exigencias del gobierno estadounidense. La orden ejecutiva 14319, firmada por Trump en julio de 2025, prohíbe a agencias federales y contratistas usar sistemas de IA que incorporen "dogmas ideológicos", señalando específicamente los principios DEI —diversidad, equidad e inclusión— como "la ideología más destructiva y generalizada".

La orden exige que todos los modelos reflejen "precisión histórica", "investigación científica" y "neutralidad", rechazando cualquier sistema que pueda "distorsionar resultados" basándose en principios DEI. Esto ocurre mientras EE. UU. se juega 500.000 millones de dólares en Project Stargate para intentar ganarle la partida de las IA a China.

El problema es que la orden no especifica qué métricas o procedimientos técnicos deben seguirse, dejando a las empresas en un limbo normativo. Otras potencias adoptan enfoques radicalmente diferentes: China acaba de lanzar una ofensiva para controlar la IA y frenar la desinformación generada por estos sistemas, priorizando el control gubernamental sobre cualquier debate técnico.

La herramienta de Anthropic usa una metodología llamada "Paired Prompts" que evalúa las respuestas según múltiples dimensiones: frecuencia de respuestas favorables a cada espectro ideológico, tasa de rechazo ante preguntas sensibles y capacidad para exponer argumentos de todas las partes sin inclinar la balanza. Pero incluso con este sistema estructurado, la propia compañía reconoce limitaciones evidentes. ¿Qué pasa cuando la realidad factual favorece objetivamente una postura sobre otra? ¿Debe la IA priorizar la neutralidad percibida o la precisión informativa?

La publicación del código en GitHub busca precisamente abrir el debate técnico. Anthropic no presenta su herramienta como solución definitiva, sino como punto de partida para que otros desarrollen nuevos enfoques. Esta transparencia contrasta con las advertencias de Eric Schmidt sobre los riesgos de la IA, que llegó a afirmar que habrá "muchas personas heridas o asesinadas" si no se controla adecuadamente, aunque desde una perspectiva más centrada en seguridad que en imparcialidad.

Los datos también revelan resultados incómodos para la industria. Grok de xAI obtiene mejores puntuaciones que Claude, lo cual tiene su gracia considerando que Elon Musk critica constantemente el sesgo progresista en otras IA. Sin embargo, estudios independientes demuestran que Grok sigue ubicándose en el cuadrante liberal/libertario de los tests políticos, aunque ligeramente más a la derecha que ChatGPT o Gemini.

La herramienta de Anthropic es un paso hacia la transparencia, pero el consenso sobre qué significa realmente una IA imparcial sigue siendo una incógnita. Las empresas deben equilibrar precisión factual, cumplimiento normativo y percepción de imparcialidad sin sacrificar la utilidad del sistema. De momento, nadie ha dado con la fórmula.

Para ti
Queremos saber tu opinión. ¡Comenta!