Image description: Green screen with white lines. Image credits: Markus Spiske via Pexels. Licensed under Creative Commons.

Catherine D’Ignazio es una académica, artista, diseñadora y mamá hacker que centra su práctica en la tecnología feminista, la alfabetización de datos y el compromiso cívico. Ha dirigido hackatonas enfocadas en la justicia reproductiva; ha diseñado sistemas de recomendación de artículos periodísticos globales; ha creado esculturas que hablan y tuitean sobre la calidad del agua; y ha encabezado visualizaciones de datos en forma de caminatas para evidenciar el aumento del nivel del mar. Con Rahul Bhargava creó la plataforma Databasic.io: un primer acercamiento a la ciencia de datos mediante un conjunto de herramientas y actividades.

En 2020, en coautoría con Lauren Klein, publicó el libro Data Feminism, en el que traza una ruta hacia una ciencia de datos más ética con un enfoque que intenta empoderar a las comunidades. Su investigación se ubica en la intersección de la tecnología, el diseño y la justicia social y fue publicada en diversos medios como el Journal of Peer Production y el Journal of Community Informatics. También es directora del Data + Feminism Lab, que utiliza datos y métodos computacionales para trabajar hacia la equidad racial y de género, particularmente en relación con el espacio y el lugar.

En su paso por Latinoamérica, particularmente por el sur del continente, compartió con Florencia Goldsman para GenderIT.org algunos avances de la investigación que lleva adelante para su siguiente libro “Contando feminicidios: Datos feministas en acción (Counting Feminicide: Data feminism in action)”El título del libro en español es traducción de la autora de la entrevista, todavía no ha sido lanzado ni cuenta con su versión en español. en el que estudia las maneras en que las colectivas feministas generan, compilan, estudian y accionan los datos para dar cuenta de la violencia feminicida en la región.

Florencia Goldsman: En el marco de una investigación enfocada en datos sobre feminicidios, estás trabajando también el concepto del “trabajo de cuidados”. ¿Podrías darnos algunos ejemplos para entender cómo identificas este componente?

Catherine D’Ignazio: El libro nuevo se enfoca en cómo los grupos y las activistas usan los datos de feminicidio. En este marco, un tema súper fuerte es la labor emocional que lleva este trabajo de documentar casos de feminicidio. Es un rasgo muy marcado porque la mayoría de los grupos recopilan los datos a través de los medios de comunicación y a veces también por fuentes oficiales, otras veces lo hacen por medio de redes sociales digitales y toda esta información tiene que ver con violencia. Así que las activistas están leyendo historias de violencia que son muy impactantes, en especial porque la violencia tiene el componente de ensañamiento. Por eso en este libro vamos a hablar de labor emocional y de la carga de salud mental que conlleva este trabajo, pero también de qué es lo que hacen estos grupos con estos datos. Muchas activistas hacen mapas o hacen conmemoraciones, intervenciones en la calle para celebrar las vidas que la sociedad ha perdido, así que también consideramos esto como una forma de cuidar y, a la vez, una forma de justicia para la memoria.

En el caso de México existe un proyecto que se llama Bordamos Feminicidios y que también se esfuerza por recordar a las mujeres asesinadas en pañuelos que se bordan a la luz del día, en el espacio público. ¿Qué otros proyectos les llamaron la atención?

No conozco el caso que me nombras pero me encanta saber que existe. Hay otros proyectos muy lindos como “No estamos todas”, que es un colectivo de Instagram que hace retratos de las víctimas. Para este libro no nos enfocamos tanto en estos trabajos creativos, pero creo que es muy importante pensar cómo circulan los datos también en formas súper creativas, no solo se trata de circular los números. De hecho hablaba con las responsables del proyecto “Cuantas más” sobre el “sensacionalismo del número”, porque también los números pueden ser sensacionalistas. Hay que revisar cómo contamos toda la violencia pero también nuestros procesos de enumerar la violencia que pueden tener un efecto de borrar la vida de la víctima.

Estuvimos viendo cada vez más artículos saliendo en las noticias diciendo: “¡Qué sorpresa, los algoritmos están sesgados!” o “¡Sorpresa, ésta tecnología no reconoce a las mujeres negras!” Siempre diciendo pero ¿cómo puede ser esto? Desde la perspectiva feminista siempre vamos a identificar este sesgo, que va a existir, porque si tomas en cuenta las cuestiones de poder, identificas quién está inventando estas tecnologías, quién hizo los métodos de recopilado de datos, siempre van a aparecer estos patrones.

¿Por qué debería importarnos una perspectiva feminista de los datos?

Porque ahora estamos en una época en que los datos están producidos, circulados, recolectados en todos lados. Están en lugares muy corporativos como Google pero también en las municipalidades, así como en las escuelas y también en tu browser (navegador). Así que los datos están por todos lados, pero la manera en que trabajamos con datos viene de la informática y normalmente pensamos que es la informática (computer science, en inglés), así como la estadística, la que tiene todo el conocimiento para trabajar con datos. Pero lo que pasa es que los datos están tocando cada lugar de la vida, están siendo usados en cada lugar de la vida. Están implicando cuestiones que no tocaban antes como, por ejemplo, la toma de decisión de cómo repartir recursos sociales o, por otro lado, cómo se va a decidir una sentencia judicial. Es una cuestión de poder. 

Al punto de las dinámicas e intersecciones de las relaciones de poder lo tocaron en el libro Feminist Data en profundidad. ¿Podrías contarnos un poco más?

Si miramos este tema desde la perspectiva del poder, en la informática o la estadística no existen conceptos que permitan pensar cómo se puede hacer una base de datos que problematice las propias relaciones de poder. Ellos (los hombres que históricamente trabajan en el área de informática) no han conceptualizado esto. Lo estamos viendo con todas estas conversaciones de algoritmos sesgados, bases de datos sesgados, representación dentro de las bases de datos. Las personas que toman decisiones en este sector no están preparadas para estas conversaciones. Desde la perspectiva feminista, Lauren (Klein) y yo - que escribimos este libro - estuvimos viendo cada vez más artículos saliendo en las noticias diciendo: “¡Qué sorpresa, los algoritmos están sesgados!” o “¡Sorpresa, ésta tecnología no reconoce a las mujeres negras!” Siempre diciendo pero ¿cómo puede ser esto? Desde la perspectiva feminista siempre vamos a identificar este sesgo, que va a existir, porque si tomas en cuenta las cuestiones de poder, identificas quién está inventando estas tecnologías, quién hizo los métodos de recopilado de datos, siempre van a aparecer estos patrones. Así que decidimos escribir el libro Data Feminism para exponer que no solo se trata de que los algoritmos sean sesgados, sino que todo esto es un proceso creado por nosotros como parte de una sociedad. Así que los sesgos vienen de una sociedad sexista, misógina, racista. Tenemos que tomarlo en cuenta para poder combatir estos sesgos dentro de la informática, porque como cualquier otro producto cultural, la informática va a tener sus sesgos y sus fuerzas de poder estructurales. Decimos que el feminismo es una línea de pensamiento que tiene muchos conceptos con los que podemos explicar todo esto que está pasando ahora con los sesgos de la informática.

¿Se puede des-colonizar el manejo de los datos?

Es un desafío grandísimo porque la fuerza de las tecnologías radica en su poder de centralizar y escalar la abstracción. De ahí es de donde viene su poder, desde una sala de servidores que puede dar servicio a millones de usuarios. Lo que pasa es que los grupos que están distribuyendo la tecnología así, son del capitalismo más alto. Esto no equivale a decir que nunca vamos a poder descolonizar estos modelos cuya razón de ser es la de colonizar, extraer el valor económico de los datos. Tengo muy poca esperanza respecto de estas plataformas monopólicas. Lo que sí me da esperanza son los experimentos como los proyectos de periodismo de datos, como también los proyectos de las redes de personas y colectivas. Si hablamos de infraestructura autónoma, creo que cosas así nunca van a llegar a ser tan grandes y globales, pero tampoco pienso que debamos ir hacia proyectos globales todo el tiempo. Creo que se hará de una manera experimental, comunitaria, popular, que vamos a realizar cuando resolvamos otro desafío como es el de la alfabetización tecnológica. Porque la verdad es que no todo el mundo tiene acceso, no todo el mundo entiende lo que está pasando con sus datos. Aún así creo que partiendo de experimentos comunitarios sí hay posibilidad de descolonizar los datos.

¿Cuál es la propuesta central del libro que están escribiendo? ¿Qué se destaca del uso de bases de datos de las feministas?

Para este nuevo libro argumentaremos que en los proyectos de feminicidios de activistas o de activismo de datos de feminicidios lo que se está recopilando son contra-datos. Así que después queremos desarrollar una guía de cómo hacer un proyecto de contra-datos, con unas preguntas súper sencillas y un poco más prácticas para abordar diferentes casos, para ir pensando - si es algo que quieres hacer - y cuáles son los las cosas en las que debes pensar.

En un panorama en el que cada día es más claro que pocas empresas manipulan datos íntimos de manera masiva ¿Cómo se puede seguir trabajando en la sensibilidad de las personas para que entiendan la importancia del cuidado de sus datos?

Tengo un trabajo con mi colega Rahul Bhargava y disponibilizamos la herramienta de Data.Basic, con la que hemos hecho muchos talleres. Trabajamos con gente que considera, en principio, que no tiene nada que ver con datos: personas de ONGs, periodistas, bibliotecaries. Lo que hacemos nosotres es tratar de validar. Porque lo que pasa es que mucha gente viene con miedo de los números, miedo de la informática, miedo de la tecnología. Por ejemplo, en las prácticas del periodismo de recolectar y verificar información ¡los datos son súper importantes! Lo mismo sucede con les bibliotecaries y las ONGs que conocen súper bien su tema o su misión. Ahí pueden decidir cómo clasificar y recopilar datos. Eso un poco de lo que hacemos y lo que pensamos, es como abrir la puerta para decir que todes tienen un lugar en esta conversación y de hecho necesitamos más gente porque ahora todo está dirigido por hombres (de Silicon Valley) ¿no? Y son ellos quiénes están haciendo las herramientas, que están dirigiendo sus business models de cómo extraer el valor financiero de los datos. Están creando los algoritmos para problemas sociales de los que no saben nada. Así que necesitamos que todo el mundo se aproxime y esté presente para las conversaciones más políticas. Tenemos que ampliar la conversación con más gente. A mí me encanta el slogan de Algorithmic Justice League, porque ellas están hablando de tecnologías de reconocimiento facial y dicen “Si tu tienes una cara, tienes un lugar en la conversación”. Es que todes debemos estar aquí, necesitamos tu experiencia y también de tu política.

¿Qué otras formas de usar los datos podemos crear, que sean comunitarias y democráticas?

De eso hablamos en el libro Data Feminist, cuestionamos quién puede o quién debe manejar datos, para qué sirven los datos. Porque ahora están sirviendo para el capitalismo, están sirviendo para explotar a la gente, para venderle cosas y también para la vigilancia. Están siendo usados con objetivos muy estrechos. Crear otros objetivos es pensar en metas que no tienen valor económico. Creo que el problema de los usos sociales (data for good) no se va a poder potenciar hasta que no cambiemos el modelo económico de los datos. Hasta que ese modelo no cambie, vamos a seguir viendo las propuestas maquilladas que Google presenta para la prensa.

Recopilar datos es invertir recursos en lo que consideramos importante saber.

¿Crees que los Estados tienen que tener mayor intervención?

Creo que el Estado debería intervenir pero creo mucho en los movimientos de base para las cosas más experimentales, para inventar, para ser creativas en maneras de usar la tecnología de los datos en función de objetivos más emancipatorios. Para cambiar las prácticas actuales, las empresas que tienen el actual modelo de negocios de datos necesitarían estar más reguladas. No deberían poder extraer tanto valor de la gente sin dar nada. Estamos ante una concentración de dinero y poder que nunca hemos visto. 

¿Podrías compartir algunos ejemplos de buenas prácticas sobre uso de datos? 

Uno de los proyectos favoritos y del que hablamos en el libro anterior es un proyecto este se llama “La biblioteca de base de datos faltantes” (The Library of Missing Datasets). Es un proyecto de la artista Mimi Onuhoa y constituye una lista de todos los datos que nos faltan, sobre todo datos sobre mujeres, personas trans, cuerpos racializados, pero que no conocemos realmente porque no queremos saber, porque no queremos invertir el dinero para saber sobre sus vidas. Por ejemplo, la salud de las mujeres. Me gusta mucho porque apunta a la idea de que recopilar datos es invertir recursos en lo que consideramos importante saber. Hay un proyecto en Estados Unidos - que señalamos en el libro - que se llama El proyecto de mapeo anti-desalojos (The Anti-Eviction Mapping Project), que hace un mapeo de los desalojos urbanos. Empezaron en San Francisco y ahora tienen grupos en otras ciudades que también recopilan datos sobre el desalojo de personas, no solo para mapear sino también para hacer cuentos y entrevistas con las personas. Están muy organizados con la comunidad. Son proyectos de análisis, de recopilación, de storytelling muy interesantes porque hacen un poco de contra-datos. Estos proyectos, así como los grupos que trabajan feminicidios, cuentan con datos de desalojo desde una definición más amplia de aquella que tienen las instituciones formales. Capturan el fenómeno de una manera más compleja y están contando más de lo que cuenta el Estado.

 

Add new comment

Plain text

  • Lines and paragraphs break automatically.
  • Allowed HTML tags: <br><p>