Anthropic rompe el silencio y aclara su postura sobre la regulación de la IA en EE. UU.
El CEO de Anthropic niega estar usando el miedo a la IA para influir en la regulación estadounidense.

Dario Amodei, CEO de Anthropic, ha publicado este martes un extenso comunicado para “aclarar los malentendidos” sobre la relación de la compañía con la administración Trump y su política de inteligencia artificial. El líder de la empresa detrás del modelo Claude asegura que se han difundido “afirmaciones inexactas” sobre la postura de Anthropic en materia de regulación y seguridad de la IA.
“Anthropic se fundó sobre un principio sencillo: la IA debe ser una fuerza para el progreso humano, no para el peligro”, escribió Amodei. “Eso implica crear productos realmente útiles, hablar con honestidad sobre los riesgos y beneficios, y colaborar con cualquiera que se tome en serio hacer las cosas bien.”
El comunicado llega tras una semana de intensos ataques desde figuras influyentes del sector tecnológico a activistas y miembros del gobierno de Trump, entre ellos el nuevo “zar de la IA” David Sacks y el asesor de políticas tecnológicas de la Casa Blanca, Sriram Krishnan. Ambos acusaron a Anthropic de alimentar el miedo en torno a la IA con fines políticos y de intentar controlar la regulación a través del miedo.
Una guerra política en torno a la regulación de la IA
El desencadenante fue un comentario de Jack Clark, cofundador de Anthropic, quien compartió públicamente sus “esperanzas y temores apropiados” respecto a la IA, describiéndola como una tecnología “poderosa, misteriosa y algo impredecible”. Sacks respondió acusando a la empresa de llevar a cabo “una estrategia sofisticada de captura regulatoria basada en el alarmismo”, culpándola de fomentar un clima legislativo que (según él) “daña al ecosistema de startups”.
El senador demócrata Scott Wiener, autor del proyecto de ley californiano SB 53, que busca reforzar la seguridad en los modelos avanzados de IA, defendió a Anthropic, denunciando los esfuerzos del presidente Trump por impedir la acción regulatoria de los estados sin ofrecer alternativas federales. En respuesta, Sacks insistió en que Anthropic “colabora con Wiener para imponer la visión progresista de la regulación de la IA”.
Otros críticos del sector, como Sunny Madra, director de operaciones de Groq y defensor de la desregulación total, acusaron a Anthropic de “causar caos en toda la industria” por promover medidas mínimas de seguridad en lugar de priorizar la innovación sin límites.
En su carta, Amodei defendió que la gestión de los riesgos de la IA debe abordarse con una lógica de “política sobre política partidista”, y afirmó compartir con el gobierno de Trump un objetivo común: asegurar el liderazgo estadounidense en IA sin comprometer los valores sociales ni la seguridad pública.
Como ejemplo de cooperación, mencionó el acuerdo de 200 millones de dólares entre Anthropic y el Departamento de Defensa, al que (siguiendo la terminología favorita de Trump) se refirió como “el Departamento de Guerra”. También recordó que Anthropic ha elogiado públicamente el Plan de Acción para la IA del presidente y apoya sus iniciativas para ampliar la capacidad energética del país con el fin de “ganar la carrera de la IA”.
Aun así, la empresa ha sido criticada en Silicon Valley por su negativa a alinearse con ciertos dogmas del sector. En particular, se opuso a la prohibición de diez años sobre la regulación estatal de la IA, una medida impulsada por varios líderes tecnológicos que temen que la fragmentación regulatoria frene la innovación. Amodei respondió que el verdadero riesgo no está en la regulación local, sino en permitir que China continúe llenando sus centros de datos con chips avanzados de Nvidia fabricados en EE. UU., algo que Anthropic evita, incluso si supone perder ingresos.
“Hay productos que no construiremos y riesgos que no asumiremos, aunque nos generen beneficios”, subrayó.
El CEO también defendió la decisión de apoyar la ley SB 53 de California, que obliga solo a las empresas más grandes a publicar sus protocolos de seguridad en modelos avanzados. Amodei explicó que la norma incluye una exención para compañías con ingresos anuales inferiores a 500 millones de dólares, “lo que protege a la mayoría de las startups”.
“Algunos han sugerido que buscamos dañar el ecosistema emprendedor”, escribió, en referencia a las acusaciones de Sacks. “Eso no tiene sentido. Las startups son algunos de nuestros clientes más importantes. Trabajamos con decenas de miles de ellas y colaboramos con cientos de aceleradoras y fondos de capital riesgo. Claude impulsa una nueva generación de compañías nativas de IA.”
Según Amodei, Anthropic ha pasado de una facturación anual de mil millones a siete mil millones de dólares en apenas nueve meses, mientras sigue desplegando IA “de manera reflexiva y responsable”.
En su cierre, el CEO reafirmó su compromiso con una postura abierta pero firme: “Cuando coincidimos con las políticas públicas, lo decimos; cuando no, ofrecemos alternativas. Seguiremos siendo honestos y directos, defendiendo lo que creemos correcto. Los riesgos y las oportunidades de esta tecnología son demasiado grandes como para actuar de otra manera.”