Skip to main content
SearchLoginLogin or Signup

1 : : El Capítulo del Poder

DataGénero (Coordinación: Mailén García. Traductoras: Ivana Feldfeber,Sofía García, Gina Ballaben, Giselle Arena y Mariángela Petrizzo. Revisión: Helena Suárez Val.Con la ayuda de Diana Duarte Salinas, Ana Amelia Letelier, y Patricia Maria Garcia Iruegas)

Published onApr 23, 2023
1 : : El Capítulo del Poder
·
El principio #1 del Feminismo de Datos es examinar el poder. El feminismo de datos comienza por analizar cómo funciona el poder en el mundo.

Principio: examinar al poder

Feminismo de Datos comienza analizando cómo el poder opera en el mundo.

Cuando la estrella de tenis Serena Williams desapareció de Instagram a principios de septiembre de 2017, sus seis millones de seguidores asumieron que sabían lo que había sucedido. Varios meses antes, en marzo de ese año, Williams había anunciado accidentalmente al mundo su embarazo a través de una selfie en traje de baño y una leyenda difícil de malinterpretar: "20 semanas". Ahora, pensaron, su bebé finalmente había llegado.

Pero luego esperaron, y esperaron un poco más. Dos semanas después, Williams finalmente reapareció anunciando el nacimiento de su hija e invitando a sus seguidores a ver un video que le dio la bienvenida al mundo a Alexis Olympia Ohanian Jr1. El video era un montaje de fotos de su panza de embarazo intercaladas con clips de una Williams embarazada jugando al tenis y teniendo lindas conversaciones con su esposo, el cofundador de Reddit Alexis Ohanian, y luego, finalmente, la toma que sus fans estaban esperando: el primer clip de bebe Olympia. Williams narraba: “Así que nos vamos del hospital”, explica. "Ha sido un largo tiempo. Tuvimos muchas complicaciones. ¡Pero mira a quién tenemos!” La escena se vuelve blanca y el video termina con una serie de estadísticas: la fecha de nacimiento de Olympia, el peso al nacer y la cantidad de títulos de Grand Slam: 1. (Resultó que Williams ya tenía ocho semanas de embarazo cuando ganó el Abierto de Australia a principios de ese año).

Las personas que siguen a Serena estaban, en su mayor parte, encantadas. Pero pronto, las entusiastas felicitaciones fueron reemplazadas por una conversación muy diferente. Un amplio número de sus fans, muchas de ellas mujeres Negras como la propia Williams, se fijaron en el comentario que había hecho cuando se dirigía a casa desde el hospital con su bebé. Esas “complicaciones” que experimentó Williams -otras mujeres también las habían tenido. En el caso de Williams, las complicaciones habían puesto en peligro su vida y la forma en la que se defendió en el hospital jugó un papel importante en su supervivencia.

En el inicio (feed) de Instagram de Williams, decenas de mujeres comenzaron a publicar sus propias experiencias de partos en las que contaban cómo sufrieron serias complicaciones. Unos meses después, Williams volvió a las redes sociales -Facebook, esta vez- para continuar la conversación (figura 1.1). Citando una declaración de 2017 de los Centros para el Control y la Prevención de Enfermedades (CDC) de Estados Unidos (US Centers for Disease Control and Prevention), Williams escribió que "las mujeres Negras tienen 3 veces más probabilidad que las mujeres blancas de morir por causas relacionadas con el embarazo o el parto"2.

Estas disparidades ya eran bien conocidas por los grupos de justicia reproductiva liderados por mujeres Negras como SisterSong, Black Mamas Matter Alliance y Raising Our Sisters Everywhere (ROSE), algunos de los cuales habían estado trabajando en la crisis de salud materna durante décadas. Williams ayudó a darlas a conocer a nivel nacional. Los principales medios de comunicación también habían comenzado recientemente a prestar más atención a esta crisis. Unos meses antes, Nina Martin del equipo de periodismo de investigación ProPublica, en colaboración con Renee Montagne de NPR, había informado sobre el mismo fenómeno3. “Nada protege a las mujeres Negras de morir durante el embarazo y el parto”, decía el titular. Además del estudio mencionado por Williams, Martin & Montagne citaron un segundo estudio del 2016 que mostraba que ni la educación ni el nivel de ingresos -factores usualmente invocados cuando se intenta dar cuenta de los resultados de atención de la salud que difieren entre distintas líneas raciales- tenían impacto en los destinos de las mujeres Negras que dan a luz4.

Una captura de pantalla de una publicación en Facebook de Serena Williams del 15 de enero de 2018 con el siguiente pie de foto:
“No esperaba que compartir la historia de nuestra familia sobre el nacimiento de Olympia y todas las complicaciones posteriores al parto iniciara una avalancha de discusiones por parte de mujeres — especialmente negras — que se han enfrentado a complicaciones similares y de mujeres cuyos problemas no se hablan.
No son sólo anécdotas: según el CDC (Centro de Control de Enfermedades) las mujeres negras tienen 3 veces más de probabilidades que las blancas de morir por causas relacionadas con el embarazo o el parto. Tenemos mucho trabajo que hacer como nación y espero que mi historia pueda inspirar una conversación que nos lleve a cerrar esta brecha.
Que quede claro: TODAS las madres, independientemente de su raza o procedencia, merecen tener un embarazo y un parto saludables. Personalmente, quiero que todas las mujeres de todos los colores tengan la mejor experiencia posible. Mi experiencia personal no fue muy buena, pero fue MI experiencia y me alegro de que me haya ocurrido. Me hizo más fuerte y me hizo apreciar aún más a las mujeres, tanto a las que tienen hijos como a las que no. ¡¡¡Somos poderosas!!! 
Quiero agradecer a todos los que han compartido sus experiencias e historia a través de los comentarios en línea y otras plataformas. Las animo a que sigan contando esas historias. Esto ayuda. Podemos ayudar a otros. Nuestras voces son nuestro poder".

Figura 1.1: Una publicación de Facebook de Serena Williams en respuesta a sus seguidores de Instagram que habían compartido en sus historias de complicaciones relacionadas con el embarazo y el parto. Imagen de Serena Williams, 15 de enero de 2018.

Texto de la publicación: “No esperaba que compartir la historia de nuestra familia sobre el nacimiento de Olympia y todas las complicaciones después del parto, iniciaría una discusión tan grande entre las mujeres, especialmente las mujeres Negras, que han enfrentado complicaciones similares cuyos problemas no se abordan.
Estas no son solo historias: según el CDC (Centro de Control de Enfermedades), las mujeres racializadas tienen 3 veces más probabilidades que las mujeres blancas de morir por causas relacionadas con el embarazo o el parto. Tenemos mucho trabajo por hacer como nación y espero que mi historia pueda inspirar a una conversación que nos lleve a cerrar esta brecha.
Permítanme ser clara: CADA madre, independientemente de su raza o antecedentes, merece tener un embarazo y un parto saludables. Personalmente, quiero que todas las mujeres de todos los colores tengan la mejor experiencia que puedan tener. Mi experiencia personal no fue excelente, pero fue MI experiencia y estoy feliz de que me haya sucedido. Me hizo más fuerte y me hizo apreciar aún más a las mujeres, con y sin hijos ¡Somos poderosas!
Quiero agradecer a todas aquellas personas que se han abierto a través de comentarios en línea y otras plataformas para contar su historia. Puedo alentarte a que sigas contando esas historias. Esto ayuda. Podemos ayudar a las demás. Nuestras voces son nuestro poder.”

Por el contrario, los datos mostraban que las mujeres Negras con títulos universitarios sufrían complicaciones asociadas con el embarazo y el parto más severas que las mujeres blancas sin diplomas universitarios.

Pero, ¿cuáles son estas complicaciones exactamente? ¿Y cuántas mujeres ya habían muerto como consecuencia de esto? Nadie estaba llevando la cuenta. Un estudio de Naciones Unidas del año 2014, realizado en coautoría con SisterSong, describió el estado de la recolección de datos de mortalidad materna en Estados Unidos como “particularmente escaso”5. La situación no había mejorado para 2017, cuando ProPublica comenzó su monitoreo. En 2018, USA Today investigó estas disparidades raciales y descubrió lo que era un problema aún más fundamental: no había un sistema a nivel nacional para el seguimiento de complicaciones sufridas en el embarazo y el parto, a pesar de que sistemas similares estaban en marcha hacía tiempo para realizar el seguimiento de otros temas de salud, como embarazo adolescente, reemplazos de cadera o ataques al corazón6. También descubrieron que aún no había mecanismos para reportar que los hospitales siguieran estándares de seguridad nacional, como sí es requerido para cirugías de cadera y cuidado cardíaco. “Nuestros datos sobre maternidad son vergonzosos” planteó Stacie Geller, una profesora de obstetricia y ginecología de la Universidad de Illinois cuando le preguntaron sobre el tema. El jefe de Salud Maternal e Infantil del CDC, William Callaghan, aclara qué significa estos datos “vergonzosos” y explica: “Lo que elegimos medir es una declaración de lo que valoramos en salud7. Podríamos sumar a su declaración que esto también es una medida de a quién valoramos en salud8.

¿Por qué tuvo que correr peligro la vida de una superestrella del deporte para que los medios comenzaran a prestar atención a una cuestión que mujeres Negras menos famosas ya habían experimentado, y sobre lo que se habían estado organizado durante décadas? ¿Por qué hizo falta el seguimiento de los medios hegemónicos predominantemente blancos para que los estados y ciudades estadounidenses empezaran a recolectar datos sobre el tema? ¿Por qué esos datos aún no son vistos como suficientemente importantes, suficientemente estadísticamente significativos, o de suficiente calidad como para que esos mismos estados y ciudades, y demás instituciones públicas, impulsen acciones para revertir la situación?9 ¿Y por qué esas instituciones no tuvieron en cuenta el hashtag #believeBlackwomen (#creeenlasmujeresNegras) en primer lugar?10

Las respuestas a estas preguntas están directamente relacionadas con cuestiones de poder y privilegio más grandes. Williams reconoció esto cuando de la revista Glamour le preguntaron sobre el hecho de haber tenido que exigir que su equipo médico realizara pruebas adicionales para diagnosticarle las complicaciones postnatales -y lo hicieron porque se trataba de Serena Williams, veintitrés veces campeona de grand slam11. “Si yo no fuera quien soy, podría haber sido yo”, le dijo a Glamour refiriéndose al hecho de que el privilegio que experimentó como estrella del tenis intersectó con la opresión que experimentó como mujer Negra, permitiéndole evitar convertirse en una estadística ella misma. Como Williams dijo: “eso no es justo”12.

No es necesario decirlo, Williams tiene razón. Esto no es justo en lo absoluto. Entonces, ¿cómo mitigamos esta injusticia? Empecemos por examinar los sistemas de poder y cómo éstos se intersectan -como cuando las influencias del racismo, el sexismo y el hecho de ser una celebridad se unieron, primero para enviar a Williams a una crisis médica y luego, afortunadamente, para mantenerla con vida. La complejidad de estas intersecciones es la razón por la que examinar al poder es el primer principio del feminismo de datos, y el foco de este capítulo. Examinar al poder significa darle un nombre y explicar las fuerzas opresivas que están tan inmersas en nuestra vida cotidiana -y en nuestros conjuntos de datos, bases de datos y algoritmos- que con frecuencia ni las vemos. Reconocer la opresión es especialmente difícil para las personas que ocupamos posiciones de privilegio. Pero una vez que identificamos estas fuerzas y comenzamos a entender cómo ejercen poder, muchos de estos principios adicionales del feminismo de datos -como el desafiar al poder (capítulo 2), abrazar las emociones (capítulo 3), y visibilizar el trabajo (capítulo 7)- se vuelven más fáciles de abordar.

El Poder y la Matriz de Dominación

Primero, ¿qué entendemos por poder? Usamos el término poder para describir la configuración actual de la estructura de privilegios y opresión en la que algunos grupos gozan de privilegios que no han alcanzado por sí mismos -sino gracias a que los sistemas sociales han sido diseñados por personas como ellas y les son funcionales- mientras que otros grupos experimentan desventajas en forma sistemática -porque fueron excluidos del diseño de esos mismos sistemas-. Estos mecanismos son complicados y hay “pocas personas víctimas y personas opresoras en estado puro”, nota la influyente psicóloga Patricia Hill Collins. En su texto fundacional Black Feminist Thought [NdT: Pensamiento Feminista Negro -libro no traducido al castellano-], publicado por primera vez en 1990, Collins propone el concepto de matriz de dominación para explicar cómo los sistemas de poder son configurados y experimentados13. Esta matriz está conformada por cuatro dominios: el estructural, el disciplinario, el hegemónico y el interpersonal. Si bien el énfasis está puesto sobre la intersección entre raza y género, deja en claro que otras dimensiones de la identidad (como la sexualidad, el origen, la discapacidad, etc.) también pueden resultar en una injusta opresión o privilegios no ganados que se visibilizan a lo largo de estos dominios.

El dominio estructural es la arena de las leyes y políticas, junto con las escuelas e instituciones que las implementan. Este dominio organiza y regula la opresión. Tomemos como ejemplo la historia del derecho al voto en los Estados Unidos. En sus orígenes, la Constitución de Estados Unidos no especificó quién estaba autorizado para votar, por lo que los estados establecieron diferentes normativas que reflejaban la política local. La mayoría de las reglamentaciones giraban en torno a la posesión de títulos de propiedad que, convenientemente, solo los varones podían disponer. Pero, a partir del pasaje de la Enmienda Catorce de 1868 que le otorgó la ciudadanía a las personas que habían sido esclavizadas, la naturaleza de esos derechos, incluido el derecho al voto, por primera vez debía ser regulada a nivel nacional. Y el voto fue definido como un derecho reservado a “ciudadanos varones”. Esta es una clara instancia de reglamentación de la opresión en el dominio estructural.

Tabla 1.1: Los cuatro dominios de la matriz de dominación

Dominio estructural

Organiza la opresión: leyes y políticas.

Dominio disciplinario

Administra y gestiona la opresión. Implementa y refuerza leyes y políticas.

Dominio hegemónico

Donde circulan ideas opresivas: la cultura y los medios.

Dominio interpersonal

Experiencias individuales de opresión.

Diagrama basado en conceptos introducidos por Patricia Hill Collins en “Black Feminist Thought: Knowledge, Consciousness and the Politics of Empowerment” [“Pensamiento Feminista Negro: Conocimiento, Consciencia y Política del Empoderamiento”].


Tomaría hasta el pasaje de Enmienda Diecinueve de 1920 para que a la mayoría de las mujeres (pero no a todas) se les otorgara el derecho a votar14. Aun así, muchas leyes electorales a nivel estatal continuaron incluyendo pruebas de alfabetización, requisitos de residencia y otras formas de excluir indirectamente a quienes no eran varones blancos propietarios de tierra. Estas restricciones persisten actualmente en forma de prácticas como la exclusión de personas de las listas de votantes, requerir una identificación personal con foto, y restricciones al voto joven –lo que recae desproporcionadamente en personas de bajos ingresos, identidades racializadas y aquellas que no tienen ni el tiempo ni los recursos para sortear esas barreras burocráticas adicionales15. Este es el dominio disciplinario que nombra Collins: la esfera que administra y gestiona la opresión a través de la burocracia y las jerarquías, en lugar de hacerlo mediante leyes que reglamenten explícitamente la desigualdad en función de la identidad individual16.

Ninguno de estos dominios sería posible sin el dominio hegemónico, que se ocupa del ámbito de la cultura, los medios y las ideas. Las políticas y prácticas discriminatorias en el voto solo pueden tener lugar en un mundo en el que ya circulan ideas opresivas sobre, por ejemplo, quién es considerado ciudadano en primer lugar. Recordemos un panfleto antisufragista de la década de 1910 que proclamaba: "Usted no necesita una boleta electoral para limpiar el caño de su fregadero"17. Panfletos como éste, diseñados para ser literalmente pasados de mano en mano, reforzaban visiones preexistentes de la sociedad sobre el lugar de las mujeres en ésta. Hoy tenemos GIFs animados en lugar de panfletos de papel, pero la función hegemónica es la misma: consolidar ideas sobre quién tiene derecho a ejercer el poder y quién no.

La parte final de la matriz de dominación es el dominio interpersonal, que ejerce influencia sobre la experiencia cotidiana de las personas en el mundo. ¿Cómo te sentirías si fueras una mujer que lee ese folleto, por ejemplo? ¿Tendría más o menos impacto si un miembro masculino de tu familia te lo diera? O, para mencionar un ejemplo más reciente, ¿cómo te sentirías si te tomaras un tiempo libre de tu trabajo en el que te pagan un salario por hora para ir a emitir tu voto, y al llegar descubrieras que tu nombre había sido eliminado de la lista oficial de votantes o que había una fila tan larga que te implicaría perder la mitad del pago de un día de trabajo, o pasarías horas en el frío, o…? la lista podría continuar. Estos son ejemplos de cómo se siente saber que los sistemas de poder no están de tu lado y, a veces, buscan activamente quitarte la pequeña cantidad de poder que tienes18.

La matriz de dominación trabaja para mantener el privilegio indebido de grupos dominantes mientras oprime injustamente a grupos minorizados. ¿Qué significa esto? Al comienzo de este capítulo y a lo largo del libro, usamos el término minoritized (minorizados) para describir grupos de personas que se posicionan en oposición a un grupo social más poderoso. Mientras que el término minoría describe un grupo social compuesto por menos personas, minorizado indica que un grupo social está activamente devaluado y oprimido por un grupo dominante, que tiene más poder económico, social y político. Por ejemplo, respecto al género, los varones constituyen el grupo dominante, mientras que los demás géneros constituyen grupos minorizados. Esto sigue siendo cierto aún cuando las mujeres constituyen la mayoría de la población mundial de hecho. Sexismo es el término que nombra esta forma de opresión. En relación a la raza, las personas blancas constituyen el grupo dominante (racismo); en relación a la clase, las personas ricas y educadas constituyen el grupo dominante (clasismo); y así sucesivamente19.

Usando el concepto de matriz de dominación y la distinción entre grupos dominantes y minorizados, podemos comenzar a examinar cómo se despliega el poder en y alrededor de los datos. Esto significa a menudo hacer preguntas incómodas: ¿quién está haciendo el trabajo de la ciencia de datos (y quién no)? ¿De quién son los objetivos que se priorizan en la ciencia de datos (y de quién no)? ¿Y quién se beneficia de la ciencia de datos (y qué personas son pasadas por alto o perjudicadas)?20 Estas preguntas son incómodas porque desenmascaran la incómoda verdad de que hay grupos de personas que se están beneficiando desproporcionadamente de la ciencia de datos, y hay grupos de personas que están siendo desproporcionadamente perjudicadas. Hacer estas preguntas sobre quién nos permite, como científicas/os/es de datos, comenzar a ver cómo el privilegio se integra en nuestras prácticas de datos y nuestros productos de datos21.

¿Ciencia de datos por Quién?

Es importante reconocer al elefante en la sala de servidores: las personas consideradas por la ciencia de datos (y las ocupaciones relacionadas, como la ingeniería de software y la investigación de inteligencia artificial) no representan a la población en su totalidad. Según los datos más recientes de la Oficina de Estadísticas Laborales de los Estados Unidos, publicados en 2018, solo el 26 % de las personas en “ocupaciones informáticas y matemáticas” son mujeres22. Y de todas esas mujeres, solo el 12 % son mujeres Negras o latinxs (Latinx en el original), a pesar de que éstas representan el 22,5% de la población de los Estados Unidos23. Un informe del grupo de investigación AI Now sobre la crisis de diversidad en el campo de la inteligencia artificial señala que las mujeres representan solo el 15% del personal de investigación de IA en Facebook y el 10% en Google24. Estos números probablemente no sean una sorpresa. Lo más sorprendente es que esos números están empeorando, y no mejorando. Según un informe de investigación publicado por la Asociación Estadounidense de Mujeres Universitarias en 2015, las mujeres graduadas en ciencias de la computación en Estados Unidos alcanzaron su punto máximo a mediados de la década de 1980 con un 37%, y hemos visto una disminución constante en los años transcurridos desde entonces hasta llegar al 26% actual, (figura 1.2)25. Como las “personas analistas de datos” (calculadoras humanas de bajo nivel) han sido renombrados como “científicos y científicas de datos” (investigadores e investigadoras de alto nivel), las mujeres están siendo expulsadas para darle lugar a varones más valorados y mejor compensados26.

Representación gráfica de la proporción de hombres y mujeres que obtuvieron títulos de ciencias de la computación (CS) en los Estados Unidos desde 1970 hasta 2010. El eje horizontal enumera todos los años desde 1970 hasta 2010, aumentando cada 5 años. El eje vertical muestra el porcentaje, el título del gráfico es "Informática, la fábrica de hombres".
En el gráfico hay una línea que muestra el porcentaje de hombres que obtuvieron títulos de CS. Por debajo de esta línea, el gráfico está sombreado en gris, lo que representa la proporción de hombres y, por encima de la línea, el gráfico está sombreado en morado claro, lo que representa la proporción de mujeres. La proporción comienza en torno al 85% de hombres / 15% de mujeres en 1970, luego la proporción de mujeres aumenta hasta quedar en 63% de hombres / 37% de mujeres en 1984 (en este punto, hay un pie de foto que dice "Las mujeres recibieron el 37% de los títulos de CS en 1984, lo más cerca que hemos estado de la paridad de género"), y luego esa proporción nuevamente disminuye quedando alrededor del 80% de hombres / 20% de mujeres en el 2010. A lo largo de toda la línea de tiempo, la cantidad de hombres a los que se les conceden títulos de CS es desproporcionadamente mayor a la cantidad de mujeres.

Figura 1.2: Las ciencias de la computación siempre han estado dominadas por varones y la situación está empeorando (incluso aunque muchos otros campos científicos y técnicos han logrado avances significativos hacia la paridad de género). Las mujeres que obtuvieron títulos universitarios en ciencias de la computación en Estados Unidos alcanzaron su punto máximo a mediados de la década de 1980 con un 37%, y hemos visto un aumento constante en la proporción de varones y mujeres en los años transcurridos desde entonces. Este informe en particular trató el género como binario, por lo que no hubo datos sobre personas no binarias. Gráfico de Catherine D'Ignazio. Datos del Centro Nacional de Estadísticas Educativas.


No hay disparidades solo en términos de género en la línea de educación superior. El mismo informe señaló una subrepresentación específica de mujeres de pueblos originarios, mujeres multirraciales, mujeres blancas y personas Negras y latinas. Entonces, ¿es realmente una sorpresa que cada día traiga un nuevo ejemplo de la ciencia de datos siendo usado para desempoderar y oprimir a los grupos minorizados? En 2018, fue revelado que Amazon había estado desarrollando un algoritmo para evaluar a sus solicitantes de empleo de primera ronda. Pero debido a que el modelo había sido entrenado con los currículums de las personas solicitantes anteriores, que eran predominantemente varones, desarrolló una preferencia aún más fuerte por aquellos solicitantes masculinos. El algoritmo degradó los currículums con la palabra mujeres y las personas graduadas de universidades para mujeres. En última instancia, Amazon tuvo que cancelar el proyecto27. Este ejemplo refuerza el trabajo de Safiya Noble, cuyo libro, “Algorithms of Oppression” [NdT: “Algoritmos de la Opresión” -libro no traducido al castellano-], ha mostrado cómo los sesgos raciales y de género están codificados en algunos de los sistemas basados ​​en datos más generalizados –incluyendo la búsqueda de Google, que cuenta con más de cinco mil millones de búsquedas web únicas por día. Noble describe cómo, tan recientemente como 2016, las búsquedas comparables de "tres adolescentes Negras" y "tres adolescentes blancas" arrojaron representaciones muy diferentes. El primero devolvió fotografías policiales, mientras que el segundo devolvió fotografías de archivo agradables28.

Los problemas de sesgos raciales y de género en nuestros sistemas de información son complejos, pero algunas de sus principales causas son evidentes: los datos que les dan forma y los modelos diseñados para utilizar esos datos son creados por pequeños grupos de personas y luego escalan a personas usuarias alrededor del mundo. Pero esos pequeños grupos no son representativos en absoluto de la humanidad en su conjunto, ni siquiera de una sola ciudad de Estados Unidos. Cuando los equipos de datos están compuestos principalmente por personas (varones) de grupos dominantes, esas perspectivas llegan a ejercer una influencia desproporcionada en las decisiones que se toman -excluyendo otras identidades y perspectivas-. Esto no suele ser intencional, sino que proviene de la ignorancia de estar en la cima. Describimos esta deficiencia como un riesgo del privilegio.

¿Cómo sucede esto? Tomémonos un minuto para imaginar cómo es la vida de alguien que personifica el grupo dominante en la ciencia de datos: un varón heterosexual, blanco, cisgénero con credenciales técnicas formales y que vive en Estados Unidos. Cuando busca una casa o solicita una tarjeta de crédito, las personas están ansiosas por su negocio. La gente le sonríe cuando toma la mano de su novia en público. Su cuerpo no cambia debido al parto o la lactancia, por lo que no necesita pensar en adaptaciones de su lugar de trabajo. Presenta su número de seguro social en trabajos como una formalidad, pero esto nunca impide que se procese su solicitud ni atrae una atención no deseada. La facilidad con la que atraviesa el mundo es invisible para él porque ha sido diseñado para personas exactamente como él. No piensa en cómo la vida podría ser diferente para alguien más. De hecho, es difícil para él, imaginar esto en lo absoluto.

Este es el riesgo del privilegio: el fenómeno que hace que aquellas personas que ocupan las posiciones más privilegiadas entre nosotros y nosotras -aquellas personas con buena educación, credenciales respetadas y elogios profesionales- están muy mal adaptadas para reconocer las instancias de opresión en el mundo29. Estas personas carecen de lo que Anita Gurumurthy, directora ejecutiva de IT for Change, ha llamado “el empirismo de la experiencia vivida”30. Y esta falta de experiencia vivida -esta evidencia de cómo son realmente las cosas- limita profundamente su capacidad para predecir y prevenir daños, para identificar problemas existentes en el mundo e imaginar posibles soluciones.

El riesgo del privilegio se da a nivel del individuo -en el dominio interpersonal de la matriz de dominación- pero es mucho más dañino en conjunto, porque alcanza también los dominios hegemónico, disciplinario y estructural. Por lo tanto, es una gran preocupación que la ciencia de datos y la inteligencia artificial estén dominadas por varones blancos de élite, ya que esto significa que existe un riesgo de privilegio colectivo tan grande que sería una gran sorpresa si realmente pudieran identificar casos de sesgo antes de desatarlos en el mundo. La científica social Kate Crawford ha adelantado la idea de que la mayor amenaza de los sistemas de inteligencia artificial no es que se vuelvan más inteligentes que los seres humanos, sino que codificarán el sexismo, el racismo y otras formas de discriminación en la infraestructura digital de nuestras sociedades31.

Es más, los mismos varones blancos cis heterosexuales responsables de diseñar esos sistemas carecen de la habilidad de detectar daños y sesgos en sus sistemas una vez que han sido lanzados al mundo32. En el caso de las búsquedas de Google de “tres adolescentes”, por ejemplo, fue una adolescente Negra quien señaló el problema y una académica Negra quien escribió sobre el problema. La carga recae consistentemente sobre aquellas personas que están más íntimamente familiarizadas con el riesgo del privilegio -tanto en la ciencia de datos como en la vida- para denunciar a las personas creadoras de esos sistemas por las limitaciones de los mismos.

Por ejemplo, Joy Buolamwini, una estudiante de grado ghanesa-estadounidense del MIT, estaba trabajando en un proyecto de clase usando un software de análisis facial33. Pero había un problema -el software no podía “ver” el rostro de piel oscura de Buolamwini (donde “viendo” significa poder detectar una cara en la imagen, como cuando la cámara de un teléfono dibuja un cuadrado alrededor de la cara de una persona en el cuadro). El software no tenía problemas en ver rostros de personas de piel más clara. Cuando ella intentó dibujar una cara en su mano y ponerla frente a la cámara, lo detectó. Finalmente, Buolamwini se puso una máscara blanca, básicamente usando una “cara blanca” (figura 1.3)34. El sistema detectó perfectamente los rasgos faciales de la máscara.

Profundizando en el código y comparando los datos detrás de esos sistemas, Buolamwini descubrió que el conjunto de datos en el que se prueban muchos de los algoritmos de reconocimiento facial contiene un 78 % de rostros masculinos y un 84% de rostros blancos. Cuando ella realizó un desglose interseccional de otro conjunto de datos de prueba -analizando el género y el color de piel juntos, solo el 4% de las caras en ese conjunto de datos eran mujeres y de piel oscura. En su evaluación de tres sistemas comerciales, Buolamwini y la científica informática Timnit Gebru demostraron que las mujeres de piel más oscura tenían hasta cuarenta y cuatro veces más probabilidades de ser clasificadas erróneamente que los varones de piel más clara35. No es de extrañar que el software no detectara el rostro de Buolamwini: tanto los datos de entrenamiento como los datos de evaluación comparada relegan a las mujeres racializadas a una pequeña fracción del conjunto de datos general36.

Fotografía de Joy Buolamwini, una mujer negra, delante de un ordenador portátil usando una máscara de teatro blanca.

Figura 1.3: Joy Buolamwini descubrió que tenía que usar una máscara blanca para que el programa de detección facial pudiera “ver” su rostro. Buolamwini es ahora fundadora de la Algorithmic Justice League (Liga de Justicia Algorítmica). Cortesía de Joy Buolamwini.


Este es el riesgo del privilegio en acción: que ninguna persona que escribe código, que testea o que usa el software, haya identificado previamente tal problema o siquiera haya pensado en buscarlo. El trabajo de Buolamwini ha sido ampliamente tratado por los medios de comunicación nacionales (por el New York Times, CNN, The Economist, Bloomberg BusinessWeek y otros) en artículos que normalmente contienen un toque de conmoción37. Éste es un testimonio de la importancia social, política y técnica del trabajo, además de cómo aquellas personas en posiciones de poder, no solo en el campo de la ciencia de datos, sino en los medios de comunicación hegemónicos, en los cargos electivos y al frente de corporaciones, a menudo se sorprenden al aprender que sus "tecnologías inteligentes" no son tan inteligentes después de todo. (Estas personas necesitan leer el libro de la periodista de datos Meredith Broussard, Artificial Unintelligence [Desinteligencia Artificial])38. Para otro ejemplo, pensemos de vuelta en la introducción de este libro, donde citamos a Shetterly informando que el gerente blanco de Christine Darden estaba "sorprendido por la disparidad" entre las tasas de promoción de varones y mujeres. Podemos especular que la propia Darden no estaba sorprendida, al igual que Buolamwini y Gebru probablemente tampoco se sorprendieron del todo por el resultado de sus estudios. Cuando el sexismo, el racismo y otras formas de opresión se desenmascaran públicamente, esto casi nunca sorprende a quienes las experimentan.

Para las personas en posiciones de poder y privilegio, las cuestiones de raza, género, clase y de discapacidad, por nombrar solo algunas, son POP: Problemas de Otras Personas. La autora y educadora antirracista Robyn DiAngelo describe instancias como la “conmoción” del jefe de Darden o la sorpresa en la cobertura mediática de los diversos proyectos de Buolamwini como un síntoma de la “inocencia racial” de las personas blancas39. En otras palabras, quienes ocupan puestos de privilegio en la sociedad pueden permanecer inocentes de ese privilegio.

La raza se convierte en algo que solo tienen las identidades racializadas. El género se convierte en algo que solo tienen las mujeres y las personas no binarias. La orientación sexual se convierte en algo que tienen todas las personas excepto las heterosexuales. Y así sucesivamente. Una anécdota personal podría ayudar a ilustrar este punto. Cuando publicamos el primer borrador de este libro en línea, Catherine se lo contó a un colega. Su respuesta sinceramente entusiasta fue: “¡Oh, genial! ¡Se lo mostraré a mis alumnas (en femenino) de grado!” A lo que Catherine respondió: "Es posible que también desee mostrárselo a sus otros estudiantes también".

Si las cosas fueran diferentes -si el 79% de los ingenieros de Google que son varones estuvieran específicamente capacitados en opresión estructural antes de construir sus sistemas de datos (como lo están las personas que realizan trabajo social antes de emprender sus tareas)-, entonces su sobrerrepresentación podría ser un problema ligeramente menor40. Pero mientras tanto, la carga recae sobre las personas que ya sienten los efectos adversos de estos sistemas de poder para probar, una y otra vez, que el racismo y el sexismo existen: en conjuntos de datos, en sistemas de datos y en la ciencia de datos, como en todas partes.

Buolamwini y Gebru identificaron cómo los rostros blancos y masculinos estaban sobrerrepresentados en los datos de entrenamiento de detección facial. ¿Podríamos solucionar este problema diversificando el conjunto de datos? Una solución sencilla al problema parecería ser: crear un conjunto más representativo de datos de entrenamiento y de evaluación comparada para los modelos de detección facial. De hecho, las empresas tecnológicas están empezando a hacer exactamente esto. En enero de 2019, IBM lanzó una base de datos de un millón de rostros llamada Diversity in Faces (DiF), (Diversidad en Rostros)41. En otro ejemplo, la periodista Amy Hawkins detalla cómo CloudWalk, una startup en China que necesitaba más imágenes de rostros de personas afrodescendientes, firmó un acuerdo con el gobierno de Zimbabue para que proporcione las imágenes que le faltaban a la empresa42. A cambio de compartir sus datos, Zimbabue recibirá una base de datos de rostros nacional y una infraestructura de vigilancia “inteligente” que podrá instalar en aeropuertos, ferrocarriles y estaciones de autobuses.

Esto puede sonar como un intercambio parejo, pero Zimbabue tiene un triste historial en materia de derechos humanos. Para empeorar las cosas, CloudWalk provee tecnologías de reconocimiento facial a la policía china, resultando en un conflicto de intereses tan grande que la organización mundial sin fines de lucro Human Rights Watch expresó su preocupación por el acuerdo43. La recolección de rostros también está ocurriendo en Estados Unidos. Les investigadores Os Keyes, Nikki Stevens y la investigadora Jacqueline Wernimont han demostrado cómo las personas inmigrantes, infancias en situación de abuso, ​​y personas fallecidas son algunos de los grupos cuyos rostros se han utilizado para entrenar softwares, sin su consentimiento44. Entonces, ¿es realmente una buena idea una base de datos de rostros que sea diversa? Expresando sus preocupaciones en respuesta al anuncio del estudio de 2018 de Buolamwini y Gebru en Twitter, una persona veterana de la Marina perteneciente a un pueblo originario respondió: “Espero que el software de reconocimiento facial también tenga problemas para identificar mi rostro. Eso sería útil cuando la policía merodea con su camión de reconocimiento facial en demostraciones pacíficas de disidencia, clasificando a todos los disidentes por "seguridad y protección"45.

Una mejor detección de rostros de personas no-blancas no puede caracterizarse como un bien no calificado. La mayoría de las veces, se alista al servicio de una mayor opresión, una mayor vigilancia y una violencia dirigida. Buolamwini comprende estos daños potenciales y ha desarrollado un enfoque que funciona en los cuatro dominios de la matriz de dominación para abordar los problemas subyacentes de poder que se desarrollan en la tecnología de análisis facial. Buolamwini y Gebru primero cuantificaron las disparidades en el conjunto de datos: una auditoría técnica, que recae en el dominio disciplinario de la matriz de dominación. Luego, Buolamwini lanzó Algorithmic Justice League (Liga de Justicia Algorítmica), una organización que trabaja para resaltar e intervenir en casos de sesgo algorítmico. En nombre de la AJL, Buolamwini ha producido proyectos de poesía viral y dado charlas TED, actuando en el dominio hegemónico, el ámbito de la cultura y las ideas. Ha asesorado sobre legislación y estándares profesionales para el campo de la visión por computadora y ha pedido suspender el análisis facial en la actuación policial en los medios nacionales y en el Congreso46. Éstas son acciones que operan en el dominio estructural de la matriz de dominación: el ámbito de la ley y la política. A través de estos esfuerzos, la AJL trabaja con estudiantes e investigadores para ayudar a guiar y dar forma a su propio trabajo: el dominio interpersonal. Tomado en su conjunto, las diversas iniciativas de Buolamwini demuestran cómo cualquier "solución" al sesgo en los algoritmos y conjuntos de datos debe abordar más que las limitaciones técnicas. Además, estos proyectos presentan un modelo con buenos argumentos para quienes hacen ciencia de datos como público intelectual, que, sí, trabaja en auditorías y correcciones técnicas, pero también trabaja en esfuerzos culturales, legales y políticos.

Si bien la representación equitativa -en los conjuntos de datos y en la fuerza de trabajo en la ciencia de datos- es importante, sigue siendo una pantalla si no transformamos también las instituciones que producen y reproducen esos resultados sesgados en primer lugar. Como afirma la estudiante de doctorado en salud Arrianna Plaponey, citando a Robert M. Young: “Una sociedad racista te dará una ciencia racista”47. No podemos filtrar los efectos secundarios del sexismo y el racismo sin abordar también la raíz de su causa.

¿Ciencia de datos para Quién?

Entre los efectos secundarios del riesgo del privilegio -es decir, los riesgos que corremos cuando gran parte de nuestros productos de datos son creados por personas de los grupos dominantes- se encuentra no solo la posibilidad de que nuestros conjuntos de datos estén sesgados o no sean representativos, sino incluso que los datos nunca sean recolectados. Desde hace tiempo, Mimi Onuoha -artista, diseñadora y educadora- viene planteando como interrogante quién cuestiona a la ciencia de datos. Su proyecto, The Library of Missing Datasets [La Librería de los Conjuntos de Datos Faltantes] (figura 1.4), se trata de un catálogo de conjuntos datos que bien podríamos suponer que ya existen en el mundo, por ser fundamentales para avanzar en la resolución de problemas sociales que urgen ser abordados, pero que, sin embargo, nunca han sido producidos.

Fotografía de las manos de una mujer negra buscando en un archivador blanco de carpetas vacías de la Biblioteca de Datos Perdidos (The Library of Missing Datasets). Cada carpeta está etiquetada con un conjunto de datos de las que no existen datos actualmente.

Figura 1.4: The Library of Missing Datasets [La Librería de los Conjuntos de Datos Faltantes], de Mimi Onuoha (2016) es un catálogo de conjuntos de datos que no son recolectados producto de los sesgos, la falta de voluntad política y social y el desinterés estructural. Cortesía de Mimi Onuoha. Foto de Brandon Schulman.


Este proyecto es un sitio web a la vez que un objeto de arte, un fichero que contiene carpetas etiquetadas con títulos como: “Personas excluidas de viviendas sociales por antecedentes penales”, “Movilidad para personas mayores con discapacidad física o cognitiva” y “Número total de policías locales y nacionales que utilizan rastreadores de teléfonos Stingray (IMSI-catchers) para realizar escuchas telefónicas”. Quienes visitan esta obra de arte pueden ir recorriendo las carpetas, escoger aquella que le resulte de interés y consultarla, simplemente para descubrir que está vacía. Como todas las demás. “Faltan” los conjuntos de datos que deberían contener.

Mapeando los conjuntos de datos que faltan en este mundo "saturado de datos", explica Onuoha, "encontramos indicios culturales y coloquiales de lo que se considera importante" y lo que no. “Los espacios que hemos dejado en blanco revelan las indiferencias y prejuicios sociales encubiertos”, continúa. Y al llamar la atención sobre estos conjuntos de datos como faltantes, exponen también cómo la matriz de dominación tipifica estos "prejuicios e indiferencias" en todos los sectores de la sociedad48. En esta línea, fundaciones como Data2X y libros como Mujeres Invisibles han promovido la idea de que existe una sistemática "brecha de género en los datos" (gender data gap) en tanto que los estudios científicos se basan principalmente en datos extraídos de cuerpos de varones. Los efectos que acarrea esta brecha pueden ser molestos (por ejemplo, celulares que son demasiado grandes para las manos de las mujeres) e, incluso, fatales. Un ejemplo de esto último es el hecho de que, hasta hace poco tiempo, los muñecos utilizados para realizar pruebas de impacto se diseñaran tomando como modelo el tamaño y la forma de cuerpos de varones, lo que llevaba a que las mujeres tuvieran un 47% más de probabilidades de sufrir lesiones en accidentes automovilísticos que los varones49.

La pregunta por quién en este caso es: quién se beneficia de la ciencia de datos y quién es invisibilizada/o. Indagar sobre las brechas de género en los datos, en algunos casos, puede consistir en visibilizar conjuntos de datos faltantes, como lo hace Onuoha; describirlas, como hace Mujeres Invisibles; y promover su erradicación, como lo hace Data2X. Otras veces, puede significar que asumamos la tarea de recolectar los datos faltantes. Tal es el caso de ProPublica que, ante la falta de datos completos sobre mujeres que murieron durante el parto, decidió recurrir a la colaboración abierta para conocer los nombres de las setecientas a novecientas mujeres estadounidenses que fallecieron en el año 201650. Mediante esta estrategia, a partir de 2019, logró identificar a 140 de ellas. Otro ejemplo es el de un grupo de jóvenes de Roxbury -un barrio conocido como “el corazón de la cultura negra” en Boston51- que se enfermaron por la inhalación de aire contaminado y con hartazgo de esta situación, en 1998, encabezaron una marcha exigiendo aire limpio y mejoras en la recopilación de datos. Luego, esta movilización dio lugar a la creación del proyecto de monitoreo comunitario AirBeat52.

Desde la academia se han propuesto varios nombres para las iniciativas de recopilación de datos desde cero, como contradatos o recolección de datos agonísticos, activismo de datos, activismo estadístico y ciencia ciudadana (cuando está al servicio de la justicia ambiental), entre otros53. Más allá del modo en que las denominemos, el caso es que este fenómeno no es nuevo. En 1895, la pionera en periodismo de datos Ida B. Wells y un grupo de activistas por los derechos civiles reunieron un conjunto de estadísticas sobre la epidemia de linchamientos que azotaba a los Estados Unidos54. Wells acompañó estos datos con una exposición detallada de las afirmaciones fraudulentas realizadas por personas blancas -generalmente, que el linchamiento en cuestión había sido una respuesta justificada a una violación, un robo o un asalto de algún tipo (episodios que, en la mayoría de los casos, no habían ocurrido). Actualmente, una organización que lleva el nombre de Wells -la Sociedad Ida B. Wells de Periodismo de Investigación- continúa con su misión capacitando a una nueva generación de periodistas de identidades racializadas para desempeñarse en la recolección y el análisis de datos55.

Hacia la frontera sur de EE.UU., más precisamente en México, una mujer está desarrollando una iniciativa de contradatos que recupera el espíritu de Wells. Se trata de un proyecto de recopilación de conjuntos de datos completos sobre feminicidio: asesinatos de mujeres y niñas por razones de género5657. María Salguero, también conocida como Princesa, ya ha registrado más de cinco mil casos de feminicidio desde 201658. Y es gracias a su trabajo que periodistas, activistas y familiares de víctimas que buscan justicia pueden contar con información más accesible sobre el tema.

La problemática del feminicidio en México adquirió visibilidad a nivel mundial a mediados de la década del 2000, a raíz de la amplia cobertura mediática que se le dio a la muerte de trabajadoras de bajos recursos en Ciudad Juárez. Esta ciudad fronteriza aloja a más de trescientas maquiladoras: fábricas en las que mujeres son contratadas para ensamblar productos electrónicos y otros artículos, generalmente a cambio de bajos salarios y en condiciones laborales insalubres. Entre 1993 y 2005, casi 400 de trabajadadoras de maquiladoras fueron asesinadas, y alrededor de un tercio de los casos mostraron signos de una terrible agresividad o violencia sexual. En respuesta a la injusticia que significaba que solamente se hayan dictado condenas por tres de los asesinatos, se formaron varios grupos activistas, como Ni Una Más y Nuestras Hijas de Regreso a Casa, en su mayoría encabezados por madres que exigían justicia para sus hijas, exponiéndose ellas mismas a una situación de alto riesgo con este reclamo59.

Estos grupos lograron llamar la atención del gobierno mexicano, que decidió crear una Comisión Especial sobre Feminicidio. Pero a pesar de la comisión y los catorce volúmenes de información sobre femicidios que produjo, a pesar del fallo de la Corte Interamericana de Derechos Humanos contra el Estado mexicano en 2009, del Simposio de Naciones Unidas sobre Femicidio en 2012, de que dieciséis países latinoamericanos ya han sancionado leyes contra el femicidio, a pesar de todo esto, los femicidios en Juárez siguen en aumento60. En 2009, un informe señaló que uno de los motivos por los cuales el problema aún no había sido abordado adecuadamente era la falta de datos61. Y no es necesario aclarar que este problema todavía persiste.

¿Cómo podríamos explicar la falta de datos sobre femicidios a partir de las cuatro esferas del poder que conforman la matriz de dominación de Collin? Al igual que en muchos otros casos de datos que son producidos (o no) acerca de las mujeres y otros grupos minorizados, el contexto de recolección depende de las relaciones de poder.

La manifestación más grave y acuciante de la matriz de dominación se halla en el dominio interpersonal, en el que las mujeres cis y trans devienen víctimas de la violencia y los asesinatos perpetrados por los varones. Pues aunque la ley y la política (dominio estructural) hayan reconocido al femicidio como delito penal, no se han implementado políticas especialmente dirigidas a garantizar un adecuado proceso de recolección de la información, ya sea por parte de las agencias federales o de las autoridades locales. Por lo tanto, el dominio disciplinario, en el que la ley y la política se ponen en acto, se caracteriza por la falta de responsabilidad, el fracaso de las investigaciones y la revictimización. A su vez, esta situación perdura ante la ausencia de consecuencias impuestas dentro de la esfera estructural. En este sentido, la definición de feminicidio como “crimen de Estado”, adoptada por la Comisión Especial, pone de manifiesto cómo el gobierno de México es profundamente cómplice de estos delitos a través de la negligencia y la indiferencia62.

Por supuesto, esta inacción no sería tolerada sin el apoyo del dominio hegemónico -el ámbito de los medios y la cultura-, que muestra a los varones como fuertes y a las mujeres como serviles, que identifica a los varones con el espacio público y las mujeres con el ámbito privado, que presenta a las personas trans como desviadas de las normas “naturales”, y niega rotundamente la existencia de las personas no binarias. De hecho, agencias gubernamentales han utilizado las plataformas públicas para culpabilizar a las víctimas de la violencia machista. Tal es así que luego del feminicidio de la estudiante mexicana de veintidós años Lesvy Osorio, en 2017, la investigadora María Rodríguez-Domínguez documentó cómo el Ministerio Público de la Ciudad de México compartió en sus redes sociales que la víctima era una alcohólica y drogadicta que convivía con su novio sin haber contraído matrimonio63. Ante esta incriminación, tuvo lugar una legítima reacción pública y se ideó el hashtag #SiMeMatan, que fue seguido por tuits sarcásticos como “#SiMeMatan es porque me gustaba salir de noche y tomar mucha cerveza”64.

Es en este contexto de recolección de datos caracterizado por relaciones de poder extremadamente asimétricas que María Salguero introdujo su mapa de femicidios. Salguero registra manualmente en el mapa cada uno de los feminicidios que logra identificar a partir de los reportes de los medios de comunicación y la información recolectada mediante colaboraciones de las personas (en inglés crowdsourcing) (figura 1.5a).

Uno de sus objetivos es “mostrar que cada víctima tenía un nombre y una vida”. Para lograrlo, Salguero registra la mayor cantidad de detalles posible sobre cada muerte, como ser el nombre, la edad, la relación con el asesino, el modo y el lugar en el que fue asesinada, si la víctima era transgénero, así como también el contenido completo del reporte que sirvió como fuente de información. La figura 1.5b presenta una vista detallada de un informe sobre un transfemicidio no identificado, que incluye la fecha, la hora, el lugar y el artículo periodístico sobre el asesinato. Salguero destina entre tres y cuatro horas diarias a realizar este trabajo no remunerado, tomándose algunos descansos ocasionales para cuidar su salud mental. Generalmente, tiene una acumulación de casos de femicidio de un mes para agregar al mapa.

Un mapa de México con marcadores de color para representar los lugares donde se han producido feminicidios. El color del marcador corresponde al año en que se produjo el feminicidio: rojo para 2016, morado para 2017 y azul claro para 2018. Hay una inmensa concentración de feminicidios cerca del sur de México y se vuelven menos concentrados al estar más lejos. 

Una versión ampliada del mapa de feminicidios sobre Ciudad Juárez, ciudad mexicana al sur de El Paso. Se selecciona un marcador morado (que representa el feminicidio de una mujer trans de 2017) y un cuadro de descripción a la derecha del mapa contiene información sobre el ataque, incluyendo su fecha y hora, su ubicación y una breve descripción. El cuadro de descripción dice lo siguiente:

Nombre (Incident Title)
#Transfeminicidio Identidad Reservada

Fecha (Date)
15/08/2017

Lugar (Place)
Pedro Meneses Hoyos, Ciudad Juárez, Chihuahua, 32730 México

Hechos (Description)
MARTES 15 DE AGOSTO DE 2017 | POR EDITOR 12

Juárez, Chih.— Un individuo que aparentemente pertenecía a la comunidad LGBT fue localizado sin vida por la noche en un fraccionamiento ubicado al suroriente de la ciudad, reportaron las corporaciones policiacas. 
El cuerpo del hombre vestido de mujer y en avanzado estado de descomposición fue encontrado en el fondo de un pozo de contención de aguas pluviales. 
El occiso tení una bolsa de plástico en la cabeza, aunque personal de la Fiscalía General del estado asegura no le pudieron encontrar huellas externas de violencia. 
Al lugar de los hechos llegaron sus familiares y lo identificaron como Hilario Lopez Ruiz, de quien no se proporcionó más información. 
El cuerpo fue enviado al Servicio Médico Forense donde se le practicará la autopsia de ley y determinar de esa manera las causas reales de su fallecimiento.

Latitud
31.680782

Longitud
-106.414466

Figura 1.5: El mapa de feminicidios en México de María Salguero (2016-presente) se puede encontrar en https://feminicidiosmx.crowdmap.com/. (a) Extensión del mapa que muestra todo el país. (b) Vista detallada de Ciudad Juárez con foco en un único reporte, acerca de un caso de transfemicidio anónimo. Para realizar los puntos del mapa, Salguero se basa en los informes de la prensa y aquellos que recibe por parte de la ciudadanía. Cortesía de María Salguero.

Aunque las noticias difundidas por los medios y la colaboración abierta son formas imperfectas de recolección de datos, este mapa en particular, creado y actualizado por una sola persona, viene a llenar un vacío generado por el gobierno nacional. Incluso, este mapa de femicidios ha sido de gran ayuda para encontrar mujeres desaparecidas, y Salguero misma ha testificado ante el Congreso de México sobre el alcance del problema. Si bien Salguero no integra ningún grupo activista, pone a disposición de éstos los datos que recolecta para ser utilizados en favor de sus luchas. Familiares de víctimas se han comunicado con ella para agradecerle por visibilizar a sus hijas, y Salguero también afirma esa función: “Este mapa busca visibilizar los sitios donde nos están matando, encontrar patrones y robustecer los argumentos sobre el problema para georreferenciar la acción, promover la prevención y tratar de evitar los femicidios”.

Es importante aclarar que el ejemplo de falta de datos sobre femicidios en México no constituye un caso aislado, ni en términos de la temática ni de la ubicación geográfica. El fenómeno de los datos faltantes es un resultado normal y esperado en las sociedades caracterizadas por relaciones de poder desiguales, en las que se impone un orden racial y de género, que es sostenido mediante la indiferencia deliberada, la desidia y la negligencia estructural sobre los datos y las estadísticas sobre los cuerpos minorizados que no detentan el poder. Son ejemplos también las personas y las comunidades que utilizan estrategias como la de Salguero para ocupar los espacios vacíos que dejan los datos faltantes, tanto en Estados Unidos como en el mundo entero65. Si “la cuantificación es representación”, como afirma el periodista de datos Jonathan Stray, entonces esto ofrece una manera de responsabilizar a quienes están en el poder. La recopilación de contradatos demuestra cómo se puede utilizar la ciencia de datos a favor de las personas y las comunidades que necesitan más poder de su parte66.

¿Ciencia de datos con los intereses y objetivos de quién?

Con demasiada frecuencia, el problema no es que falten datos sobre los grupos minorizados, sino todo lo contrario: las bases y los sistemas de datos de poderosas instituciones se construyen sobre los cimientos de una excesiva vigilancia a los grupos minorizados. Como consecuencia de esto, las mujeres, las identidades racializadas y las personas de bajos recursos, entre otras, aparecen sobrerrepresentadas en los datos en los que se basan tales sistemas. En Automating Inequality [Automatización de la Desigualdad], por ejemplo, Virginia Eubanks cuenta la historia de la Oficina de Niños, Jóvenes y Familias del Condado de Allegheny, en el oeste de Pensilvania, que aplica un modelo algorítmico para predecir el riesgo de abuso infantil en cualquier hogar67. De este modo, buscan sacar a las infancias de los hogares potencialmente peligrosos antes de que tenga lugar un episodio de abuso, objetivo que aparenta ser muy noble. Sin embargo, como muestra Eubanks, el modelo implica serias desigualdades. Para las familias más adineradas, que pueden acceder con mayor facilidad a la atención médica y los servicios de salud mental en forma privada, simplemente no se cuenta con demasiados datos para incluir en el modelo. En cambio, cuando se trata de familias pobres, que con mayor frecuencia dependen de los recursos públicos, el sistema recopila registros de los servicios de bienestar infantil, programas de tratamiento por consumo problemático de drogas y alcohol, servicios de salud mental, historias clínicas, entre otros. Así es como, al haber muchos más datos ellas, las familias pobres están sobrerepresentadas en la muestra que toma el modelo y, por lo tanto, sus hijas, hijes e hijos son identificados en riesgo de abuso infantil por el sistema, un riesgo que tiene como consecuencia que sean separados de sus familias y hogares. En este sentido, Eubanks señala que el modelo “confunde la crianza en una situación de pobreza, con una mala crianza”.

Este modelo, como muchos otros, fue diseñado bajo dos suposiciones erróneas: (1) que una mayor cantidad de datos siempre es mejor y (2) que los datos de entrada siempre son neutrales. Sin embargo, en la práctica, la realidad es bastante diferente. Cuanto mayor sea la proporción de familias pobres en la base de datos, y sus perfiles más completos, más probable será que el modelo encuentre fallas en este grupo. Y los datos nunca son neutrales; siempre son un resultado sesgado de condiciones sociales, históricas y económicas desiguales: una vez más, se trata de la matriz de la dominación68. Vemos entonces que los gobiernos pueden usar, y de hecho usan, datos sesgados para manipular el poder de la matriz de dominación de forma tal que potencie su impacto sobre los sectores menos poderosos de la sociedad. El modelo se convierte así en una manera de administrar y gestionar el clasismo en el dominio disciplinario -con la consecuencia de que, cuando los intentos de las familias pobres de acceder a recursos y mejorar sus vidas se traducen bajo la forma de datos recopilados, es esta misma información la que decide que las infancias sean alejadas de su cuidado.

Entonces, esto nos conduce a nuestra siguiente pregunta sobre quién: ¿Los objetivos de quiénes son priorizados en la ciencia de datos (y los de quiénes no)? El Estado de Pennsylvania, por ejemplo, le otorgó prioridad a su propósito burocrático de eficiencia, frecuentemente invocado para hallar una solución técnica a dilemas sociales y políticos. Pues, desde la perspectiva del Estado, como carecía de suficientes trabajadores para atender todos los posibles casos de abuso infantil, era necesario contar con una herramienta que permitiera asignar de manera eficiente al personal disponible, o al menos eso indica el razonamiento. Esto es lo que Eubanks describió como sesgo de escasez: la idea de que, al no haber recursos suficientes para todas las personas, debemos pensar en pequeño y permitir que la tecnología llene los espacios vacíos. Este pensamiento, y las “soluciones” tecnológicas que implica, suelen dar resultado para alcanzar los objetivos de sus creadores -en este caso, la Oficina de Niños, Jóvenes y Familias del Condado de Allegheny; pero no los objetivos de las infancias y las familias a los que pretenden servir.

Respaldadas por su enorme riqueza y el poder que ésta conlleva, las corporaciones también anteponen sus propios objetivos por sobre los de las personas a las que sus productos pretenden servir. Sobre esto habla Charles Duhigg en su explosivo artículo “How Companies Learn Your Secrets” [“Cómo las empresas descubren tus secretos”]69, publicado por el New York Times en 2012 y que pronto se convirtió en leyenda dentro de los círculos de datos y protección de datos personales. En esta nota, Duhigg describe cómo Andrew Pole, un científico de datos de la empresa Target, fue abordado por varones del departamento de marketing que le plantearon: "Si quisiéramos saber si una cliente está embarazada, incluso si ella no quisiera que lo supiéramos, ¿podrías hacer que lo lográramos?"70 Persiguiendo este objetivo, comenzó a analizar los historiales de compra y la cronología de las mismas y, en función de este estudio, creó un modelo que le asigna a cada persona una puntuación de predicción de embarazo (figura 1.6)71. Lo que subyace a esta intención es que, seguido de la universidad, el embarazo es el segundo evento más importante en la vida de las personas que determina si alguien que compra en forma casual se convertirá en cliente de por vida.

Y es por esa razón que Target utilizó el modelo de detección de embarazo desarrollado por Pole en un sistema automatizado de envío de cupones de descuento a clientes probablemente embarazadas. “Negocio redondo”, o eso creyó la compañía hasta que el padre de una adolescente de Minneapolis vio los cupones para ropa de bebé que estaba recibiendo por correo electrónico y se dirigió al local de Target para exigir explicaciones a los gritos. ¡¿Por qué su hija estaba recibiendo cupones para mujeres embarazadas siendo tan solo una adolescente?!

Resultó ser que la joven efectivamente estaba embarazada y que el modelo de Pole permitió que Target se enterara antes de que la adolescente se lo contara a su familia. Mediante el análisis de las fechas de compra de aproximadamente veinticinco productos básicos, como loción sin perfume y paquetes grandes de algodón, el modelo encontró un conjunto de patrones de compra que estaban altamente correlacionados con estado de embarazo y fecha esperada de parto. Fue así que el “negocio redondo” rápidamente se convirtió en “rotundo fracaso”, ya que Target terminó perdiendo la confianza de sus clientes en medio de un escándalo público. Pero el principal perdedor no fue Target, sino la adolescente de Minneapolis que perdió algo mucho más importante: el control de la información sobre su propio cuerpo y su salud.

Una captura de pantalla de la presentación del estadístico Andrew Pole en Predictive Analytics World sobre el modelo de detección de embarazos en octubre de 2010.

La diapositiva de PowerPoint dice lo siguiente:
Conseguir y transformar a las madres prenatales antes de que tengan a su bebé.

Analíticas
Desarrollar un modelo para predecir si una mujer tiene probabilidades de estar embarazada.

Datos para el análisis
Fecha de compra y venta de artículos clave para el bebé en tienda física o en línea, registro del bebé, búsqueda de productos para el bebé en línea, edad del invitado y número de niños.

Resultados
Identificamos un 30% más de clientes que se pueden contactar mediante publicidad de adquisición rentable.

Figura 1.6: Captura de pantalla del video titulado “How Target Gets the Most out of Its Guest Data to Improve Marketing ROI” [“Cómo Target saca provecho de los datos de sus clientes para maximizar el retorno de la inversión en marketing”], de octubre de 2010. En esta presentación de Andrew Pole en Predictive Analytics World [El Mundo de los Análisis Predictivos], el estadístico se refiere al modelo de detección de embarazos de Target. Pole habla sobre el modelo en el minuto 47:50. Imagen de Predictive Analytics World [El Mundo de los Análisis Predictivos] de Andrew Pole.


Esta historia ha sido contada muchas veces: primero por Pole, el estadístico; después por Duhigg, el periodista del New York Times; luego por muchos otros especialistas en protección de datos personales y abusos corporativos. Pero esta historia no se trata solamente sobre la privacidad: también es una historia sobre la injusticia de género, sobre cómo las corporaciones se valen de los datos relacionados con el cuerpo y la vida de las mujeres y sacan provecho de los datos vinculados con las poblaciones minorizadas en general. ¿Los objetivos de quiénes son priorizados en este caso? Los de corporación, por supuesto. Para Target, la principal motivación era maximizar la ganancia, y los balances financieros trimestrales son la medida del éxito. Ahora bien, ¿los intereses de quiénes no son priorizados? Los de la adolescente y los de todas las demás embarazadas.

¿Cómo llegamos a este punto en el que la ciencia de datos es puesta casi exclusivamente al servicio de las ganancias (para unos pocos), la vigilancia (de las minorías) y la eficiencia (en medio de la escasez)? Vale la pena dar un paso hacia atrás para observar la organización de la economía de datos: los datos son muy costosos y requieren de importantes recursos, por lo que únicamente las instituciones -corporaciones, gobiernos y universidades investigadoras de élite- que ya detentan el poder cuentan con los medios necesarios para poder trabajar con datos a gran escala. Esta gran demanda de recursos da lugar a una ciencia de datos que sirve a los intereses y objetivos propios de las instituciones. Podemos pensar en estos objetivos como las tres Ss: ciencia (universidades), vigilancia (gobiernos) y venta (corporaciones) (Del inglés "science (universities), surveillance (governments), and selling (corporations)"). No se trata de un juicio normativo (del estilo de “toda ciencia es mala”), sino de una caracterización de la organización de los recursos. Si la ciencia, la vigilancia y la venta son los fines principales a los que sirven los datos, por ser los propios de quienes concentran el dinero, entonces, ¿cuáles son los otros objetivos y propósitos a los que no están contribuyendo?

Tomemos "la nube" como ejemplo. A medida que las granjas de servidores fueron reemplazando a los documentos en papel, el almacenamiento de datos fue exigiendo espacios físicos cada vez más grandes. Un proyecto del Centro de Interpretación del Uso del Suelo (Center for Land Use Interpretation) (CLUI) aclara este punto (figura 1.7). En 2014, CLUI se dispuso a mapear y fotografiar centros de datos en los Estados Unidos, ubicados por lo general en esas áreas intermedias aparentemente vacías que ahora llamamos exurbs (un poco más lejos que los conocidos suburbios). A raíz de este estudio, llamó la atención sobre “un nuevo tipo de arquitectura de la información física” que se expande por los Estados Unidos: “cajas sin ventanas, que a menudo tienen un diseño distintivo, como una aplicación de gráficos de superficie o un brutalismo funcional, rodeadas por sistemas de refrigeración”. Los impactos ambientales de la nube -bajo la forma de electricidad y aire acondicionado- son enormes. Un informe de Greenpeace del año 2017 estimó que el sector global de tecnologías de la información, concentrado principalmente en los Estados Unidos, representó alrededor del 7% del uso de energía a nivel mundial. Esto significa un consumo mayor al de algunos de los países más grandes del mundo, incluidos Rusia, Brasil y Japón72. A menos que esa energía provenga de fuentes renovables (lo que Greenpeace muestra en el informe que no ocurre), la nube posee un impacto acelerado y de gran magnitud en el cambio climático global.

Entonces, la nube no es liviana ni aireada. Y tampoco barata. Se calcula que el costo de construir el nuevo centro de datos de Facebook en Los Lunas, Nuevo México, alcanzará los mil millones de dólares73. Tan solo el gasto en electricidad de ese centro se estima en $31 millones de dólares por año74. Estos números nos conducen nuevamente a la pregunta sobre los recursos financieros: ¿Quién cuenta con el dinero para realizar inversiones de este tipo? Únicamente las corporaciones poderosas como Facebook y Target, junto con los gobiernos ricos y las universidades de élite, tienen los recursos para recopilar, almacenar, mantener, analizar y movilizar una gran cantidad de datos. Ahora bien, ¿quién conduce las instituciones con mayores recursos? De manera desproporcionada: varones, todavía más desproporcionada aún: varones blancos, y aún más que eso, varones blancos ricos. Veamos algunos datos al respecto.

Fotografía de la vista lateral de un centro de datos en North Bergen, NJ, bajo un cielo nublado y frente a una hilera de arbustos. El centro de datos es un edificio blanco de 3 plantas con rayas naranjas y ventanas tintadas de azul.
Fotografía de un centro de datos en North Bergen, NJ.
Fotografía de un centro de datos en Dalles, OR, durante un día luminoso y soleado con algunas pocas nubes. El centro de datos se encuentra en una zona bastante rural, con una obra abandonada a su izquierda, grandes montañas verdes detrás y líneas telefónicas que recorren el lado del edificio.
Fotografía de un centro de datos en Ashburn, VA, durante un día soleado con cielo despejado y frente a un campo de césped. El centro de datos está dividido en varios edificios, todos de color amarillo claro.
Fotografía de un centro de datos en Lockport, Nueva York, en un día luminoso y nublado, frente a una carretera vacía. El centro de datos es un edificio blanco de 4 plantas con ventanas tintadas de color turquesa y tiene una valla que rodea la parte trasera del edificio.

Figura 1.7: Fotografías de Networked Nation: The Landscape of the Internet in America [Nación en Red: El Paisaje de Internet en América], una exposición del Centro de Interpretación del Uso del Suelo (Center for Land Use Interpretation) organizada en 2013. Las fotos muestran cuatro centros de datos ubicados en North Bergen, Nueva Jersey; Dalles, Oregón; Ashburn, Virginia; y Lockport, Nueva York (en sentido antihorario desde arriba a la derecha). Estas imágenes exhiben cómo la “nube” está alojada en lugares remotos y complejos de oficinas a lo largo de todo el país. Imágenes del Centro de Interpretación del Uso del Suelo.

La junta directiva de Google está compuesta en un 82% por varones blancos. El directorio de Facebook está integrado en un 78% por varones y en un 89% por blancos. El Congreso de Estados Unidos del 2018 fue 79% masculino -de hecho, una cifra mejor que la de años anteriores-, y con un patrimonio neto promedio cinco veces mayor que el de un hogar estadounidense promedio75. Estas son las personas más privilegiadas dentro de la matriz de dominación, y también son las que más se benefician del status quo actual76.

En la última década, muchos de estos varones de élite han denominado a los datos como “el nuevo petróleo”77, una metáfora que suena increíblemente bien, incluso mejor de lo que probablemente pretendían. La idea de los datos como una especie de recurso natural sin explotar pone el foco sobre su potencial para hacerse de poder y ganancias mediante su procesamiento y refinación. Pero, a su vez, esta idea resalta la dimensión abusiva que implica extraer datos de su fuente -las personas-, como así también su costo ecológico. Así como los antiguos barones del petróleo pudieron valerse de sus riquezas para ejercer un poder descomunal en el mundo (piensen en John D. Rockefeller, J. Paul Getty o, más recientemente, los hermanos Koch), también los “Targets” del mundo utilizan los beneficios corporativos para potenciar el control sobre sus clientes. Sin embargo, a diferencia del petróleo crudo, que se extrae de la tierra y luego se vende a las personas, los datos se extraen de las personas y se les venden a ellas –bajo la forma de cupones como el que recibió la adolescente de Minneapolis por correo, o mucho peor78.

Este sistema extractivista genera una profunda asimetría entre quiénes recopilan, almacenan y analizan los datos y aquellas personas cuyos datos son recopilados, almacenados y analizado79. Los intereses que impulsan este proceso son los de las corporaciones, los gobiernos y las principales universidades, instituciones dominadas por varones blancos de élite. Y esos objetivos no son neutrales ni democráticos, en el sentido de haber atravesado algún tipo de proceso público participativo. Por el contrario, centrarse en esas tres Ss -ciencia, vigilancia y venta- (science, surveillance, selling) excluyendo otros posibles objetivos, lleva a cometer serios descuidos cuyas consecuencias afectan la vida. En este sentido, el ejemplo de Target puede ser visto como la otra cara de los datos que faltan sobre salud materna. Dicho crudamente, no se obtiene ningún beneficio recopilando datos sobre las mujeres que mueren durante el parto, pero sí se obtiene un significativo beneficio al saber si las mujeres están embarazadas.

¿Cómo podríamos hacer para priorizar objetivos y personas diferentes a éstos en la ciencia de datos? ¿Cómo podrían las personas científicas de datos emprender un análisis feminista del poder que les permita abordar los sesgos en sus fuentes? Kimberly Seals Allers, autora y defensora de la justicia de nacimiento, tiene exactamente esta misión en relación con el cuidado materno e infantil en los Estados Unidos. Seals Allers siguió la historia de Serena Williams con gran interés y vio cómo el Congreso aprobó la Ley de Prevención de Muertes Maternas en 2018. Este proyecto de ley financió la creación de comités de revisión de salud materna en todos los estados y, por primera vez, la recopilación estandarizada y completa de datos a nivel federal. Pero aunque se empezaron a recopilar más datos sobre mortalidad materna, Seals Allers se ha sentido frustrada por la opinión pública: “Las estadísticas que legítimamente están generando conciencia sobre la crisis de mortalidad materna negra están al mismo tiempo contribuyendo a esta narrativa de déficit pesimista y fatal. La población blanca opina, '¿cómo podemos salvar a las mujeres Negras?' No es para eso que necesitamos producir datos”80.

Un diagrama de flujo (como una serie de capturas de pantalla) que muestra el proceso de inscripción y la plataforma de la aplicación para Irth, una aplicación móvil que ayuda a las madres morenas y negras a encontrar revisiones prenatales, de parto, posparto y pediátricas. Las capturas de pantalla del proceso de registro muestran que la aplicación pide a los usuarios que introduzcan datos de identificación importantes como la raza, el origen étnico, la identidad propia, la situación sentimental, entre otros. También hay una página opcional en la que los usuarios pueden incluir información como su religión y nivel educativo. Las capturas de pantalla de la plataforma de la aplicación muestran sus principales características, incluida la visualización de las reseñas de médicos y enfermeras específicas, así como la redacción de reseñas basadas en las experiencias personales del usuario.

Figura 1.8: Irth es una aplicación móvil y una plataforma web enfocada en eliminar el sesgo desde el nacimiento (incluida la atención médica prenatal, en el parto y el posparto). Quienes las utilizan publican reseñas interseccionales de la atención que recibieron por parte de los equipos de profesionales de la salud, así como de las prácticas y los hospitales. De este modo, cuando las familias están buscando a dónde dirigirse y con quién atenderse, pueden consultar a Irth para ver qué tipo de atención recibieron otras personas en manos de cuidadores específicos. Aquí se muestra la estructura del primer prototipo de Irth. Imágenes de Kimberly Seals Allers y del equipo de Irth, 2019.

Seals Allers y su hijo de quince años, Michael, están desarrollando un proyecto de datos para contribuir a la discusión en el campo de la salud materna e infantil: una plataforma web y una aplicación móvil llamada Irth –del inglés birth, que significa nacimiento, pero sin la b de bias, sesgo en español (figura 1.8). La atención sesgada es uno de los principales factores que conducen a las complicaciones en el parto, así como a la mortalidad materna e infantil. Los hospitales, las clínicas y quienes se ocupan de los cuidados ignoran una y otra vez las expresiones de dolor y la necesidad manifestada por las mujeres Negras de un tratamiento que las ayude a calmarlo81. Como vimos, la historia de Serena Williams estuvo a punto de tener ese final, a pesar de ser una estrella del tenis internacional. Para combatir este problema, Irth opera como un Yelp interseccional enfocado en experiencias de atención en salud maternal e infantil, en la que se publican calificaciones y reseñas de los cuidados prenatales, en el parto y el posparto recibidos en hospitales específicos por parte de cierto personal de salud. Las personas incluyen en sus comentarios detalles como su etnia, religión, sexo e identidad de género, como también si sentían que esas identidades eran respetadas en la atención que recibían. La aplicación también cuenta con una clasificación de sesgos que permite indicar, marcando las opciones correspondientes, si experimentaron diferentes tipos de sesgos y de qué manera sucedió. De este modo, Irth les brinda a las familias la posibilidad de buscar una reseña realizada por otra familia similar desde una perspectiva racial, étnica, socioeconómica y/o de género, para conocer su experiencia en determinado hospital un equipo profesional específico.

La visión de Seals Allers es que Irth sea tanto una plataforma de información pública que ayude a las personas a acceder a una atención de calidad, como también una herramienta de rendición de cuentas para que los hospitales y profesionales de la salud asuman su responsabilidad por el sesgo sistémico. En última instancia, quisiera presentarle a las redes de hospitales historias agregadas y análisis de datos recolectados por la plataforma, con el objetivo de impulsar un cambio basado en las experiencias de vida de las familias. “Seguimos contando la historia de la mortalidad materna desde la tumba”, dice. “Tenemos que comenzar a prevenir esas muertes compartiendo las historias de aquellas personas que realmente las vivieron”82.

Irth ilustra el hecho de que "hacer el bien con los datos" requiere estar profundamente sintonizado con las cosas que quedan por fuera del conjunto de datos y, en especial, con la forma en que los conjuntos de datos y la ciencia de datos con demasiada frecuencia reproducen las estructuras de poder vigentes. En un mundo marcado por relaciones de poder desiguales, que dan forma tanto a las normas sociales como a las leyes sobre el uso y la aplicación de la ciencia de datos, sigue siendo imperativo considerar quién hace el "bien" y quién, por el contrario, obtiene para sí el "bien" de otra persona.

Examinar al poder

El feminismo de datos comienza examinando cómo opera el poder en el mundo actual. Esto consiste en hacer who questions (las preguntas sobre quién) en la ciencia de datos: ¿Quién hace el trabajo (y quién es excluido)? ¿Quién se beneficia (y quién es perjudicado u omitido)? ¿Qué prioridades se convierten en productos (y cuáles son ignoradas)? Es importante formular estos interrogantes en términos de personas y organizaciones, y una tarea esencial e ineludible hacerlo a nivel de sociedad. Actualmente, la respuesta a la mayoría de estas preguntas es "personas de grupos dominantes", hecho que ha generado un riesgo del privilegio tan agudo que explica la aparición casi diaria de nuevos productos de datos o algoritmos sexistas o racistas. La matriz de dominación nos ayuda a entender cómo el riesgo del privilegio -resultado de distribuciones desiguales de poder- se expresa en diferentes esferas. En última instancia, el objetivo de analizar el poder no es solo comprenderlo, sino también desafiarlo y transformarlo. En el próximo capítulo, exploramos diversos enfoques para desafiar al poder con la ciencia de datos.

Comments
2
?
Gaby Venegas:

.

?
Gaby Venegas:

.