Cuanto más trabajan los científicos con la IA, menos confían en ella

Un estudio de Wiley revela que la desconfianza en la IA ha crecido entre científicos en 2025, justo cuando su uso se ha disparado. Las alucinaciones preocupan cada vez a más investigadores

Cuanto más trabajan los científicos con la IA, menos confían en ella
Los investigadores que trabajan a diario con modelos de IA han pasado de creer en sus capacidades a cuestionar su fiabilidad. La preocupación por seguridad y privacidad también ha aumentado
Publicado en Tecnología
Por por Sergio Agudo

Los científicos son escépticos por naturaleza, viene en el manual. Pero cuando se trata de inteligencia artificial, los investigadores están desarrollando una creciente desconfianza hacia las capacidades reales de esta tecnología. Un informe preliminar de la editorial académica Wiley revela algo llamativo: la confianza de los científicos en la IA ha caído respecto a 2024, justo cuando la tecnología es técnicamente más avanzada y su uso entre investigadores no para de crecer en los laboratorios.

Según podemos leer en Futurism, en 2024 el 51% de los científicos encuestados estaban preocupados por las alucinaciones de la IA. Ese porcentaje ha subido hasta un notable 64% en 2025, mientras el uso de IA entre investigadores pasaba del 45% al 62%. Las alucinaciones son ese problema tan conocido donde los modelos de lenguaje te sueltan información completamente inventada como si fuera la verdad absoluta.

Cada vez menos fe en las promesas

La preocupación por temas de seguridad y privacidad subió un 11% respecto al año anterior. Lo mismo pasó con las dudas sobre ética y transparencia en el uso de inteligencia artificial. Todo esto choca bastante con el optimismo que dominaba hace apenas doce meses, cuando las empresas emergentes de IA acaparaban titulares a diario con promesas que ahora suenan menos realistas.

Pero la caída más espectacular está en las expectativas sobre lo que puede hacer la IA. En 2024, los científicos encuestados creían que la inteligencia artificial ya superaba las habilidades humanas en más de la mitad de casos de uso. En 2025, esa creencia se desplomó hasta menos de un tercio. No es poco: refleja que los profesionales que trabajan día a día con estos sistemas están siendo mucho más realistas.

Los datos coinciden con investigaciones previas: cuanto más aprendes sobre cómo funciona la IA, menos confías en ella. Y al revés también es cierto: los mayores entusiastas suelen ser quienes menos saben de cómo funcionan estos sistemas. Tiene sentido que los profesionales empiecen a dudar después de trabajar durante meses con las limitaciones reales de la tecnología.

Las alucinaciones son un problema serio que ya ha causado líos importantes en tribunales, consultas médicas e incluso agencias de viajes. Y no es algo fácil de arreglar: pruebas de mayo mostraron que los modelos alucinaban más incluso cuando técnicamente eran más potentes. Vamos, que mejorar la tecnología no soluciona el problema por sí solo.

Hay además un tema comercial nada menor. Los expertos señalan que los usuarios prefieren modelos de lenguaje que suenen seguros, aunque estén inventándose las respuestas, frente a otros que admiten cuando no saben algo. Si empresas como OpenAI eliminaran las alucinaciones de golpe, perderían usuarios a mansalva. Esta contradicción entre dar respuestas fiables y mantener a los usuarios contentos complica bastante las cosas.

Todo esto contrasta con las declaraciones de algunos creadores de IA sobre el potencial transformador de la tecnología. Mientras algunos líderes tecnológicos prometen revoluciones, los investigadores que trabajan con estos sistemas mantienen los pies bastante más cerca del suelo. Su escepticismo no viene del miedo al cambio, sino de trabajar cada día con lo que la IA puede y no puede hacer realmente.

Si tienes dudas sobre todo el ruido que hay alrededor de la inteligencia artificial, pregunta a un investigador. Seguramente te dará una visión bastante menos optimista de lo que esperabas.

Para ti
Queremos saber tu opinión. ¡Comenta!