Lily Ray y Britney Muller, expertas en inteligencia artificial.

Expertas en inteligencia artificial alertan de su riesgo original: «No se ha corregido, hace falta educación y regulación»

Lily Ray y Britney Muller recuerdan que los LLM no son bases de datos de conocimiento y que «rara vez confiesan que no saben algo», prediciendo palabras en lugar de entender hechos

Jesús Falcón

San Sebastián

Martes, 21 de octubre 2025, 18:47

En noviembre de 2022 nació ChatGPT y en estos tres años su influencia no ha dejado de crecer. La herramienta creada por Open AI con la promesa de popularizar la inteligencia artificial a todos los ámbitos fue seguida por otras grandes compañías tecnológicas que cada día nos dan nuevas ideas para usarla en nuestro día a día. Sin embargo los expertos alertan que quizá este gigante tiene pies de barro y que ya ha corrido demasiado. Su gran pega, observada desde sus inicios, es obviada por sus defensores pero sigue estando ahí y no termina por desaparecer: sus alucinaciones. Una forma de denominar a sus respuestas falsas, equivocaciones e incoherencias que impiden que sus respuestas sean infalibles.

Publicidad

Este hándicap de la fiabilidad y otros puntos son los que señalan en las últimas horas dos grandes expertas en el tema, estudiosas de los avances de la IA en estos frenéticos meses en los que parece que estas tecnologías nos lo harán todo por nosotros. O no. Para empezar, crece la distinción entre Inteligencia Artificial, a lo que aspiramos aún, y los Grandes Modelos de Lenguaje (LLM), que es lo que en realidad nos presenta ChatGPT (de Open AI), Gemini (de Google), Claude (de Anthropic), Perplexity, DeepSeek y demás compañías.

Dos destacadas expertas en tecnología y marketing digital han lanzado una severa advertencia sobre los riesgos inherentes a estas herramientas, señalando directamente a estas empresas por priorizar el crecimiento sobre la seguridad del usuario. Así, Lily Ray, especialista en SEO y marketing digital, critica la percepción generalizada de las capacidades de la IA, a menudo alimentada por el frenesí mediático. Ray explica que «aunque sigo viendo publicaciones por todos lados donde la gente comparte cómo usan IA para hacer esto o aquello cuando en realidad los LLM no pueden hacer lo que sugieren». Es decir, no hacen lo que nos venden.

IA sin transparencia

El problema fundamental de estos modelos, según Ray, es su falta de transparencia sobre sus limitaciones. «Rara vez son sinceros cuando no saben algo o no pueden hacer algo, pero de todos modos suelen ofrecerte una respuesta con rotundidad». Esta confianza superficial puede ser especialmente peligrosa para los usuarios novatos, quienes pueden obtener una respuesta «segura y convincente» al pedirle a ChatGPT que «actúe como un cirujano cardíaco» o le hable «como un experto en impuestos».

Ray enfatiza la gravedad de esta desinformación: «la realidad es que las respuestas que dan pueden haber sido completamente alucinadas y estar llenas de información inexacta o incluso peligrosa». Esto lleva a la preocupación de saber «cuánta información incorrecta circula por Internet y en la sociedad, y cuántas personas cometen errores, desde tomar una decisión equivocada e inofensiva hasta comprar el medicamento equivocado para sus necesidades».

Publicidad

La especialista en motores de búsqueda e inteligencia artificial destaca que la culpa no recae en el público, ya que «estas tecnologías no requieren de un examen o instrucciones para ser usadas». Para Ray «la verdadera culpa la tienen las empresas de IA por no enseñar a los usuarios lo que estas herramientas pueden y no pueden hacer».

La IA ofrece patrones, no conocimiento

Britney Muller, consultora digital y también experta en IA, ha reforzado a través de un debate desarrollado en la red social X estas críticas de Ray, argumentando que las empresas han fallado completamente en educar a los usuarios sobre cómo funcionan estas herramientas. Muller proporciona para ejemplarizar su postura una aclaración técnica esencial: «Los LLM son motores de finalización de patrones, no bases de datos de conocimiento».

Publicidad

Newsletter

Esta profesora estadounidense explica que los modelos generan respuestas basándose en patrones estadísticos y precisamente esta limitación técnica es la razón por la que «alucinan con tanta confianza». Muller aclara que el modelo genera respuestas de la misma manera, ya sea que la información sea precisa o fabricada, sentenciando que simplemente estas inteligencias artificiales «no pueden notar la diferencia».

Esta limitación fundamental hace que la IA sea peligrosa para cualquier situación de alto riesgo, como el asesoramiento médico, legal o financiero. Muller critica también que las empresas prioricen la presión competitiva sobre la seguridad del usuario.

Publicidad

Necesidad de regulación y de educación

Ambas expertas por lo tanto coinciden en que se necesitan medidas regulatorias y educativas urgentes. Lily Ray sugiere varias acciones que las empresas deberían tomar, aunque reconoció que «nunca lo harán»: «capacitar a los usuarios sobre la mejor manera de utilizar estas herramientas (o no), marcar cuando ciertos temas sean peligrosos y mejorar la capacidad de las herramientas para decir cuando no están seguros de su respuesta», además plantea la posibilidad de crear «algún tipo de medidor de confianza». Ray también plantea la necesidad de «tener leyes que regulen estas cosas».

Britney Muller es aún más directa en sus exigencias a las empresas de IA y a los responsables políticos, demandando «educación obligatoria del usuario sobre lo que los LLM pueden y no pueden hacer» y «etiquetas de advertencia claras sobre temas de alto riesgo (asesoramiento médico, legal, financiero)».

Publicidad

Mientras la regulación llega, Muller aconsejó a los usuarios que tomen medidas de seguridad inmediatas, como «verificar siempre las respuestas de la IA, especialmente para consultas médicas, legales o financieras». La experta concluye enfatiza apelando a la humanidad más allá de las máquinas, pues «la pericia real importa; el juicio humano importa», en relación a la necesidad de verificar lo que nos ofrecen estos robots.

Este contenido es exclusivo para suscriptores

Suscríbete los 2 primeros meses gratis

Publicidad