Urgente Norris acaba con el reinado de Verstappen
Una de las preguntas que han probado la fiabilidad de la inteligencia artificial.

Un estudio europeo revela que el 45% de las respuestas de los asistentes de inteligencia artificial distorsionan las noticias

El informe, coordinado por la Unión Europea de Radiodifusión y la BBC, concluye que la IA «no es un modo fiable» de consumir noticias

Jesús Falcón

San Sebastián

Miércoles, 22 de octubre 2025, 18:11

Una investigación internacional a gran escala, coordinada por la Unión Europea de Radiodifusión (UER, por sus siglas en inglés) y liderada por la corporación británica BBC, ha puesto de manifiesto lo que muchos profesionales del periodismo usuarios de las herramientas de inteligencia artificial vienen comprobando: los principales asistentes distorsionan «de forma rutinaria» el contenido de las noticias que citan.

Publicidad

El estudio, que ha analizado alrededor de 3.000 respuestas de los modelos de lenguaje Gemini, Copilot, ChatGPT y Perplexity, determinó que el 45% de las respuestas de la IA basadas en noticias presentan «un problema significativo» en su tratamiento. Este porcentaje se dispara hasta el 81% si se incluyen aquellas respuestas que tienen «al menos un problema de algún tipo».

La investigación ha contado con la participación de profesionales de la información de 22 radiotelevisiones públicas de 18 países, incluyendo Radiotelevisión Española. Los periodistas evaluaron las respuestas sin conocer qué asistente de inteligencia artificial las había generado.

Fallos en precisión y distinción de la opinión

Los resultados de esta macroevaluación, que atiende a criterios como la precisión, la atribución de fuentes, la distinción entre hechos y opiniones, y el contexto, refuerzan la idea de que los problemas detectados son inherentes a estos sistemas. El subdirector general de la UER, Jean Philip de Tender, alerta de que «estos fallos no son incidentes aislados, son sistémicos, transfronterizos y plurilingües y creemos que esto pone en peligro la confianza pública».

La principal causa de los problemas significativos fue la atribución de fuentes, con un 31% de las respuestas analizadas presentando fallos graves. Esto incluye la omisión de enlaces a la fuente, referencias incorrectas o enlaces que no coinciden con la noticia citada.

Publicidad

En cuanto a la precisión, una quinta parte (20%) de las respuestas de la inteligencia artificial contenían alucinaciones, es decir, cuando «la IA se inventa una respuesta o un dato» o presentaban detalles que estaban desactualizados.

El estudio señala que a los asistentes de IA se les resiste particularmente la fiabilidad con «noticias con una rápida evolución, las cronologías complejas donde intervienen varios actores, la información detallada y los temas que requieren una distinción clara entre hechos y opiniones».

Publicidad

Gemini, el menos fiable

Por plataformas, Gemini de Google fue la que obtuvo el desempeño más deficiente, mostrando «problemas significativos» en el 76% de sus respuestas, más del doble que otros competidores. Este resultado fue impulsado principalmente por los problemas con la atribución de fuentes, donde registró un 72% de problemas significativos. Los otros asistentes evaluados mostraron porcentajes de problemas significativos más bajos: Copilot con un 37%, ChatGPT con un 36% y Perplexity con un 30%.

A pesar de que una investigación previa de la BBC en febrero de 2025 ya había encontrado problemas significativos en más del 50% de las respuestas de la IA, lo que llevó a esta segunda fase internacional, el informe actual concluye que los asistentes no han logrado alcanzar la fiabilidad necesaria.

Publicidad

El informe de la UER es contundente en su recomendación final: «Nuestra conclusión desde la investigación previa se mantiene, los asistentes de IA todavía no son un modo fiable para acceder y consumir noticias».

Cambio de palabras y de punto de vista

La investigación también abordó minuciosamente el riesgo de la «editorialización inapropiada», es decir, cuando la inteligencia artificial añade palabras que implican un juicio de valor o un punto de vista no contenido en el contenido original que cita. Este problema se considera grave, ya que el estudio se centró específicamente en el riesgo de que tal editorialización fuera «atribuida incorrectamente a la organización de medios de servicio público». Este fallo fue calificado como significativo en el 6% de las respuestas que utilizaban contenido de este tipo como fuente. Gemini se destacó como el asistente más propenso a este comportamiento, presentando problemas significativos en el 11% de sus respuestas. Por ejemplo, la IA de Google llegó a atribuir a la cadena ARD declaraciones con carga editorial, como que «es crucial limitar el aumento de las temperaturas globales» y que para frenar el cambio climático «es necesaria una reducción drástica y rápida de estas emisiones a cero», comentarios que el evaluador consideró socavaban la imparcialidad de la fuente.

Publicidad

Preguntas problemáticas para la IA

Las preguntas con los índices más altos de problemas significativos (excluyendo fallos de atribución de fuentes) se centraron en estos temas complejos. Las respuestas a preguntas como «¿Está Trump iniciando una guerra comercial?» (48% de problemas significativos) y «¿Cuántas personas murieron en el terremoto de Myanmar?» (47% de problemas significativos) se encontraron entre las más propensas a errores. De igual modo, temas como el «¿Por qué bombardeó EE UU Yemen?» y el cálculo de los aranceles de Donald Trump mostraron problemas significativos en cerca de la mitad de las respuestas generadas (46% en ambos casos). En contraste, las preguntas que requerían respuestas más directas y fácticas, como el lugar de nacimiento de Elon Musk o la cantidad de países anfitriones de la Copa Mundial de la FIFA 2026, resultaron ser las menos problemáticas.

Demanda de transparencia y calidad

El informe subraya que estos hallazgos proporcionan «pruebas sólidas de que el problema de la distorsión de las noticias de medios de comunicación públicos es importante y sistémico en su naturaleza». Ante el riesgo de que la confianza de la audiencia se vea erosionada -un factor grave, ya que audiencias atribuyen el error tanto al proveedor de IA como al medio de comunicación citado, según los autores del informe- la UER y la BBC han publicado un documento complementario con recomendaciones dirigidas a las empresas tecnológicas.

Noticia Patrocinada

Newsletter

Pete Archer, director de Programas de Generative AI en la BBC, ha enfatizado la necesidad de la transparencia: «Las empresas de IA deben mostrar cómo sus asistentes procesan noticias y el alcance de los errores e imprecisiones que producen».

Entre las recomendaciones para las compañías de IA, se exige que «reduzcan rápidamente los errores, en particular los de precisión y fuentes». Asimismo, se plantea la necesidad de que los desarrolladores de IA «deben rendir cuentas por la calidad y el impacto de sus productos», instando a los reguladores y responsables políticos a «considerar urgentemente cómo se puede mejorar aún más el contenido de noticias en los asistentes de IA».

Este contenido es exclusivo para suscriptores

Suscríbete los 2 primeros meses gratis

Publicidad