«No se puede evitar vivir sin que nos roben datos»
La coautora del libro 'Feminismo de datos' hablará en Donostia sobre el poder que a menudo se ejerce a través de los algoritmos
La profesora e investigadora del Massachusetts Institute of Technology (MIT) Catherine D`Ignazio es un referente en feminismo y tecnología. Ha participado en San Sebastián en el primer congreso internacional sobre mujeres, tecnología y poder, que se clausuró ayer en el campus de la Universidad de Deusto, y ofrecerá hoy la charla 'Activismo de datos para cambiar el mundo' en una nueva edición de DeustoForum, que se celebrará a las 19.00 horas en el Museo de San Telmo.
Publicidad
– ¿Los datos muestran la realidad?
– Puede. Depende de cómo están recopilados, cuál es su objetivo y qué quieren representar. Ese es el gran problema.
– ¿Ocultan muchas realidades?
– Depende del contexto. A veces los datos, sobre todo los cuantitativos, pueden esconder el contexto o pueden no estar basados en preguntas importantes para entender las realidades y, sobre todo, las mujeres pero también otras personas minorizadas por su raza o religión. Pero no es que los datos no sean útiles.
– ¿Se están utilizando bien?
– Yo estoy en contra de lo que están haciendo las grandes empresas de datos, como Google o Facebook. Están usando un modelo de ganar dinero con los datos que nos están robando a nosotros. Los usan para vendernos cosas y también para entrenar sus modelos de inteligencia artificial sin que nosotros veamos los beneficios. Este es el modelo actual de empresa de la IA y para mí hay grandes problemas con él.
– ¿Qué problemas?
– La IA no está funcionando para el público y, sobre todo, no lo está haciendo para mujeres ni las personas minorizadas, pero sí está funcionando para los hombres blancos de Silicon Valley.
– ¿Se está usando para que estos hombres ganen dinero?
– Eso es, sí.
– ¿Los datos son el oro negro de la vida moderna?
– Esa es una metáfora muy adecuada porque si pensamos en el petróleo, es una industria muy extractiva. Con los datos ocurre lo mismo, los están extrayendo de nosotros, de la vida social, de las redes, y los están explotando para ganar mucho dinero. En el caso del petróleo hay consecuencias ambientales y las empresas no pagan por eso; en el de los datos hay efectos en la democracia, en cómo nos gobernamos y cómo nos relacionamos. Estos son los efectos que están ignorando totalmente las corporaciones, que no están tomando la responsabilidad del gran lío que están creando.
Publicidad
– ¿Qué tipo de datos nos roban?
– Todo lo que pones en el iPhone se utiliza para vendernos cosas pero también para entrenar los modelos de IA. No podemos estar seguros de lo que hay dentro de ChatGPT porque no nos muestran los datos que usaron, pero suponemos que son de internet, por ejemplo de los foros de las redes sociales o antes, cuando era más abierto, Twitter, que era una gran base de datos para entrenar los modelos de lenguaje de gran tamaño. Es una especie de robo porque no nos piden permiso para utilizar nuestras palabras.
– ¿Se puede vivir sin que nos roben datos?
– Sin móvil y sin ordenador, sí.
– ¿Habría que ser como Robinson Crusoe?
– Sí. Si estás completamente fuera de internet y si vives en un bosque, tal vez, pero es muy difícil. No se puede evitar, sobre todo ahora que los gobiernos están ofreciendo sus servicios por internet. Estamos en este mundo y tenemos que tener leyes mejores que nos protejan de la tecnología.
Publicidad
– ¿Modelos como ChatGPT son machistas?
– Sí, porque están tratando de modular los sesgos. Hemos visto mejoras, pero lo que pasa es que, cuando tú entrenas una IA, el lenguaje de internet es segado. El modelo aprende todos estos sesgos y todo el contenido tóxico de internet, que no es un lugar bonito. Hubo una investigación en la que se usó GhatGPT para pedirle recomendaciones a la hora de encontrar trabajo. Si tú le dices al programa que eres mujer, lo que te recomienda son trabajos muy estereotipados para mujeres. ChatGPT no sabe, no tiene conciencia, está entrenado por una cantidad de datos y la mayoría de los datos dicen que las mujeres son secretarias y los hombres manejan camiones. Están haciendo un patrón de estadística y hay más palabras que asocian el género femenino con secretaria.
– ¿Estamos creando un monstruo?
– Yo diría que sí. Necesitamos más leyes y más políticas sanas que tengan en cuenta los beneficios públicos de estas tecnologías. No digo que no debemos tenerlas, pero en este momento no hay reglas para gobernarlas, se puede hacer todo, puedes usar cualquier dato sin consentimiento para cualquier aplicación. Es una situación totalmente desordenada en la que quien va a perder es el público. Quienes están ganando son los ejecutivos de las corporaciones.
Publicidad
– ¿Los datos pueden ser un arma?
– Lo estamos viendo en Gaza. El Ejército de Israel está usando la IA para hacer listas de personas a las que va a matar. Es algo muy fuerte. Lo están haciendo en colaboración con Google y Amazon. Debemos preguntarnos si esto es lo que queremos de las tecnologías, si queremos listas de personas para matar. No creo que queramos esto, pero toda la tecnología está yendo muy rápido, están desarrollando más y más cosas, más y más aplicaciones.
– ¿Estamos indefensos?
– Sí lo estamos. Por eso las instituciones deben poner unas reglas. La Unión Europea por lo menos está tratando de hacerlo antes de que las tecnologías salgan al público sin ninguna prueba previa. Necesitamos abrir el debate sobre qué tecnologías queremos y cuáles no.
Publicidad
– ¿Como el software policial predictivo?
– Los datos que usan estos sistemas son de mala calidad porque se centran en si la persona ha estado detenida y no siempre te dicen cómo se ha resuelto el caso. Es posible que una persona que estuvo arrestada resultó al final ser inocente, pero queda de él el dato de la detención y el sistema la presenta como culpable.
Suscríbete los 2 primeros meses gratis
¿Ya eres suscriptor? Inicia sesión