La agenda feminista ante la cuarta revolución industrial.

Mujeres y algoritmización de la esfera pública

 

The feminist agenda in the face of the fourth industrial revolution.

Women and algorithmization of the public sphere

 

 

 

 

María Ávila Bravo-Villasante

 

maría.avila@urjc.es  

 

Universidad Rey Juan Carlos - España

 

Recibido:   14-03-2023

Aceptado:  15-06-2023

 

 

Resumen

El artículo ofrece una panorámica de los retos que la cuarta revolución industrial plantea para la agenda feminista. La algoritmización de la esfera pública implica la automatización de decisiones que antes eran tomadas por seres humanos. Estas decisiones, no son neutras, incorporan y reproducen sesgos que generan situaciones de desigualdad. La incorporación de las mujeres a los equipos de trabajo en el sector STEM contribuiría a erradicar estos sesgos, si bien, la brecha de género no parece remitir. Para ilustrar la manera en la que los sesgos de género y los modelos androcéntricos pueden arruinar el proceso de toma de decisiones, se proponen dos ejemplos paradigmáticos: el ámbito de la salud y el sistema VioGén.

Palabras clave: algoritmización de la esfera pública, inteligencia artificial, feminismo, sesgos y estereotipos de género, androcentrismo, brechas digitales, violencia de género.

 

Abstract

This article provides an overview of the challenges posed by the fourth industrial revolution to the feminist agenda. The automation of decision-making processes in the public sphere, driven by algorithms, brings forth inherent challenges. These decisions are not impartial; instead, they perpetuate and amplify gender biases, leading to situations of inequality. While the inclusion of women in STEM work teams could help mitigate these biases, the gender gap in these fields persists. To demonstrate the detrimental effects of gender biases and androcentric models on decision-making, two illustrative examples are presented: the healthcare sector and the VioGen system, which addresses gender-based violence.

Keywords: algorithmization of the public sphere, artificial intelligence, feminism, gender bias and stereotypes, androcentrism, digital divides, gender-based violence.

1. Introducción

 

 

El objetivo terminal de este artículo es ofrecer una panorámica de las diferentes transformaciones que se derivan de la creciente algoritmización de la esfera pública y las implicaciones que tiene para las mujeres. Para ello, se ha realizado una revisión bibliográfica de la literatura científica que muestra los sesgos y brechas de género inherentes a estos procesos.

En la primera parte del artículo se realiza una revisión de los conceptos empleados. La omnipresencia en el debate público de los términos utilizados requiere explicitar su significado para evitar el riesgo de vacuidad. Una vez establecido el marco conceptual, se analiza, tangencialmente, el problema de la radicalización y la polarización como coadyuvantes en el auge de narrativas antifeministas y misóginas.

En la segunda parte del artículo se expondrán los sesgos presentes en los modelos de aprendizaje automático. Éstos no sólo replican y amplifican estereotipos racistas, sexistas y colonialistas, sino que vulneran el acceso a servicios y derechos básicos —empleo, recursos financieros, principio de igualdad y no discriminación—. La presencia de estos sesgos está íntimamente relacionada con la falta de diversidad en los equipos de diseño y programación. Por tanto, resulta imprescindible acometer el análisis de las brechas tecnológicas.

Cuando hablamos de brechas tecnológicas hay que apelar a una doble dimensión, la brecha de acceso y la brecha de uso. Los datos de los que disponemos indican que en nuestro país ambas brechas se han erradicado. Sin embargo, se sigue sin encontrar una respuesta clara a la escasa participación de las mujeres y niñas en las STEM. Se abordará, como posible explicación, el modelo multifactorial propuesto por la UNESCO (2019).

Por último, si bien el uso de algoritmos en la toma de decisiones no es inherentemente negativo, es necesario reconocer que los principios éticos que fundamentan nuestras decisiones como seres humanos no se encuentran presentes en las decisiones automatizadas. No es suficiente con crear sistemas técnicamente eficientes, hay que incorporar los principios humanos y valores éticos a las tomas de decisiones. Si no se tienen en cuenta estos elementos, la toma de decisiones puede no ser adecuada. Para ilustrar estos aspectos, se proponen dos ejemplos de ámbitos en los que la algoritmización está muy avanzada: salud y prevención de violencia de género

 

 

2. Despertar al sonambulismo tecnológico

 

 

En 1986 el filósofo de la tecnología Langdon Winner utiliza el término “sonambulismo tecnológico” para referirse a la ausencia de reflexión sobre el uso y la utilización de la tecnología a causa del entusiasmo que nos provocan los nuevos descubrimientos. Este enardecimiento llevaba implícito un determinismo que parecería indicar que el despliegue tecnológico era inevitable. De este modo, los procesos sociales parecerían derivarse del tecnológico obviando que la tecnología es un asunto social. La falta de reflexión en torno a todos estos procesos nos lleva a caminar “sonámbulos de buen grado a través del proceso de reconstrucción de las condiciones de la existencia humana.” (Winner, 1986: 16). Y dado que en esta reconstrucción está en juego las condiciones sociales y personales en las que se desenvuelve nuestra existencia, es importante que la teoría crítica feminista nos acompañe en este despertar del sueño dogmático en el que nos había imbuido la celeridad tecnológica.

En las últimas décadas estamos asistiendo a rápidos y profundos cambios tecnológicos que involucran a nuestra manera de trabajar, de relacionarnos en entornos profesionales, afectivos y familiares, de cuidar nuestra salud, de cubrir nuestras necesidades de protección y nuestra interacción con el entorno. Estos cambios ocultan, legitiman y generan injusticias y desigualdad, que van desde las brechas de acceso y uso de la tecnología a los problemas medioambientales. No podemos obviar por más tiempo que lejos de resolver los problemas medioambientales, los profundos cambios a los que asistimos en el capitalismo digital, su velocidad y aceleracionsimo, implican un alto coste ecológico (Bellver, 2019).

Autores como Brynjolfsson & McAfee (2014) se refieren a esta nueva etapa como la segunda edad de las máquinas. Klaus Schwab (2017) considera que está más que justificado hablar de cuarta revolución industrial. Sara Gallego y Carlos Oliva (2022) denominan a este cambio de “paradigma tecnológico” como industria 4.0.  Independientemente del nombre que demos a esta nueva etapa, lo importante es la manera que tendremos de hacer frente a sus retos. Y el mayor reto, por decirlo con Schwab, es cómo vamos a darle forma. Si la cuarta revolución industrial involucra todos los aspectos con los que hemos iniciado este recorrido, es lícito y necesario construir marcos que nos permitan comprender el sentido que están tomando estos cambios, pues involucran de un modo indiscutible lo que hasta ahora entendemos por “humanidad” (Schwab, 2017: 13) y las relaciones que esta nueva humanidad mantiene con los diversos ecosistemas. 

 

2.1. Inteligencia artificial y algoritmización

 

Todos los intentos que realizamos por definir las inteligencias artificiales se realizan desde una visión sapiens-céntrica, —y dado el androcentrismo imperante, podemos afirmar que se trata de una visión andro-sapiens-céntrica—. Esto supone una negación del resto de inteligencias naturales (Hoffman, 2015). En 2007 Shane Legg y Marcus Hutter llevaron a cabo una investigación que les permitió recopilar un total de setenta definiciones de inteligencia. Estas fueron extraídas de diversos ámbitos: definiciones colectivas (diccionarios, enciclopedias, sitios web), utilizadas en el ámbito de la psicología, o las referenciadas por investigadores del área de la inteligencia artificial. Los autores concluyen que es difícil sostener que haya un sentido objetivo que pueda ser considerado como correcto. No obstante, comparando todas las definiciones, hay una serie de características compartidas. En primer lugar, es una propiedad que tiene un agente individual cuando interactúa con el entorno. En segundo lugar, la inteligencia está relacionada con la capacidad del agente para tener éxito o sacar provecho con respecto a alguna meta u objetivo. En tercer lugar, dependería de la capacidad del agente para adaptarse a diferentes objetivos y entornos. Teniendo en cuenta las características citadas, elaboran su propia definición de inteligencia. Según su propuesta “La inteligencia mide la capacidad de un agente para alcanzar objetivos en una amplia gama de entornos.” (Legg y Hutter, 2007). En la definición proporcionada estaría implícita la capacidad de aprender, comprender y adaptarse, pues eso es lo que les permite ser exitosos en entornos diversos.  Si ceñimos la definición al ámbito de la inteligencia artificial podríamos definirla como la capacidad que tiene un sistema, para alcanzar objetivos en una amplia gama de entornos.

La algoritmización hace referencia al proceso de diseño, desarrollo e implantación de algoritmos que facilitan determinadas tareas mediante el uso de computadoras. El uso de los algoritmos en computadoras permite que realicen cálculos, tomen decisiones y procesen grandes cantidades de información de un modo más rápido que el empleado por humanos. Por su parte, la inteligencia artificial desarrolla tecnologías que permiten a las computadoras simular el comportamiento humano e, incluso, expandirlo. El desarrollo de la inteligencia artificial permite el procesamiento del lenguaje, reconocimiento de patrones, toma de decisiones, aprendizaje automático y solución de problemas.

La inteligencia artificial se encuentra presente en nuestras vidas y en nuestras sociedades de diversas formas. Desde los predictores de texto que completan lo que escribimos cuando hacemos una búsqueda, los chatbots con los que interactuamos a través de páginas webs a los asistentes personales —Cortana, Siri, Alexa, Aura se han convertido en nuestras grandes aliadas—. La algoritmización también ha llegado al cuerpo. Durante las últimas décadas ha sido redefinido como una entidad configurada por información (Van der Ploeg, 2007). Esto permite que los organismos puedan ser percibidos como algoritmos vivos, erosionándose la frontera entre máquinas y animales (Harari, 2022).  Este tipo de planteamientos representan un giro decisivo a nuestra comprensión ontológica del mundo. Y en este giro y en esta nueva comprensión, tenemos que estar las mujeres.

 

2.2. Algocracia y polarización. De programar inteligencias a programar personas

 

Una de las ventajas que presenta la algoritmización de la vida pública es que permite mejorar y optimizar la difusión de la información en línea. El algoritmo está diseñado para identificar qué contenido resulta interesante a las personas usuarias de determinados servicios. Para realizar estos análisis se fija en el tiempo que invertimos en ver las publicaciones, en los anuncios que desechamos y en los que nos detenemos, en nuestros likes en redes sociales, nuestros tweets, nuestros datos biomédicos, las páginas que visitamos y nuestros hábitos de consumo (desde compras en internet hasta nuestra búsqueda de productos bancarios). Con toda la información que tienen sobre nosotros podemos afirmar que el algoritmo nos conoce mejor que nosotras mismas. “Cuando voy a una librería física, deambulo entre las estanterías y confío en mis sensaciones para escoger un libro adecuado. Cuando voy a la tienda virtual de Amazon, aparece inmediatamente un algoritmo que me dice: “sé que libros te gustaron en el pasado. A personas con gustos similares también les gusta este o aquel libro”. ¡Maravilloso!” (Harari, 2022: 376). 

Los hábitos de navegación, los datos —el petróleo del siglo XXI (Fernández-Laquetty, 22/05/2020)—, permiten que el algoritmo identifique y conozca los intereses de determinadas audiencias y con ese conocimiento puede ofrecer servicios, productos acordes a los necesidades y deseos de esas audiencias. En todo este intercambio, damos un salto de la programación de algoritmos a la programación de personas, pues el proceso de anticipación de nuestros intereses es, a la vez, un condicionamiento, pues se anticipan, también, nuestras propensiones futuras.

En las formas tradicionales de publicidad, como puede ser el panfleteo, el buzoneo o los anuncios que aparecen en prensa, televisión o en las marquesinas de los autobuses, aparece dispersa. Los “anuncios oscuros” se caracterizan por enviarse a un grupo concreto de personas propensas a su recepción según un estudio exhaustivo previamente realizado. Uno de los problemas fundamentales de este tipo de prácticas es que el receptor no posee la posibilidad de escuchar otro tipo de opiniones. ¿Qué ocurre cuando lo que se anticipa son ideas políticas?  Lo que sucede es que nuestra capacidad de plantear futuros políticos alternativos está seriamente amenazada (Amoore, 2020: xi).

Para que la manipulación pase desapercibida, se necesita el llamado efecto de resonancia: sugerencias suficientemente personalizadas para cada individuo. De este modo, las tendencias locales se refuerzan gradualmente mediante la repetición, lo que conduce a la “burbuja de filtro” o “efecto de cámara de eco”: al final, lo único que puedes obtener son tus propias opiniones reflejadas. Esto provoca la polarización social, que da lugar a la formación de grupos separados que ya no se entienden entre sí y se encuentran cada vez más enfrentados.  De este modo, la información personalizada puede destruir involuntariamente la cohesión social. En las democracias occidentales, esta ruptura está siendo cada vez más clara, asistimos a una radicalización y una polarización de los discursos que hacen imposibles los compromisos políticos (Helbing et al., 25-02-2017). Estos problemas se ven agravados en aquellos lugares en los que existe un déficit de estabilidad política y social y pueden ser utilizados para fomentar la violencia — la ONU denunció el papel determinante que el uso de Facebook en el genocidio perpetrado contra los rohiyás (Mozur, 15-10-2018) —.

La polarización y radicalización puede coadyuvar en procesos con altos índices de violencia contra las mujeres y contra los movimientos feministas.  En las últimas décadas, asistimos a la radicalización de las narrativas misóginas y antifeministas en las comunidades digitales, fagocitadas en gran medida, por este tipo de estrategias.  La machoesfera sería un ejemplo claro de ecosistema en el que surgen narrativas radicales contra las mujeres y el feminismo. Dentro de este ecosistema, merece especial atención la emergencia de los discursos de odio en la incelosphere (Ávila, 2023; Ging, 2019; Lavin, 2020; RAN, 2021; Van Valkenburgh, 2021).


 

3. Aprendizaje automático y sesgos de género. La urgencia de incluir a las mujeres.

 

 

Los modelos de aprendizaje automático replican y amplifican estereotipos racistas, sexistas y colonialistas. Junto a estos estereotipos, encontramos otros sesgos tóxicos como pueden ser las asociaciones estereotipadas hacia personas con enfermedad mental o diversidad funcional. Estos estereotipos y sesgos serían legitimados durante el proceso de aprendizaje automático perpetuando patrones históricos injustos y discriminatorios (Basta, Costa-Jussà y Casas, 2019; Bennett et al., 2021; Birhane, 2021; Birhane et al., 2021; Ricaurte, 2019; López Flores, 2022).

La presencia de este tipo de sesgos entra en conflicto con el acceso a derechos básicos. Dado que los algoritmos de aprendizaje automático recurren a grandes paquetes estadísticos para recabar los patrones de datos, los patrones son permeables a los contextos de desigualdad en los que los datos consultados se producen. Disponemos de una gran lista de casos en los que los sesgos han estado presentes en las decisiones algorítmicas incurriendo en discriminación.

La inteligencia artificial que Amazon incorporó para reclutar a su personal discriminaba a las mujeres. El sistema se “enseñó a sí mismo” que eran preferibles los candidatos masculinos penalizando aquellos que incluían la palabra femenino — “capitán de un club de ajedrez femenino”, o descartando, directamente, candidaturas que provenían de graduadas de universidades exclusivamente femeninas (Dastin, 11-10- 2018).

Los sistemas de reconocimiento automático de habla presentan importantes sesgos de género, raciales y étnicos (por no hablar de los que pueden afectar a las personas con algún tipo de diversidad). Cometen más errores con hablantes negros que con hablantes blancos  (Koenecke et al., 2020) y presentan más dificultades para reconocer las voces de las mujeres correctamente. Uno de los ejemplos más populares fue el Louise Kennedy, una veterinaria irlandesa que no consiguió convencer al sistema de que hablaba inglés correctamente, pese a ser nativa inglesa y tener dos titulaciones universitarias obtenidas en lengua inglesa (Australian Associated Press, 8-8-2017).  Estos errores no se producen porque las mujeres hablemos mal. Se producen porque las voces de las mujeres son diferentes a las voces de los hombres y los sistemas de reconocimiento automático, al igual que los muñecos con los que se probaba la seguridad de los coches, se diseñaron por hombres. Esto hace que no funcionen tan bien con las mujeres, concluye Raquel Tatman (Tatman, 2016). Por tanto, una parte fundamental de los sesgos que vemos en el desarrollo del aprendizaje automático serían fruto del androcentrismo.

Los sistemas de reconocimiento automático facial no están exentos de este tipo de sesgos. Joy Buolanwini y Timnit Gebru evaluaron tres sistemas de reconocimiento facial comerciales: IBM, Microsoft y Face++. Encontraron que el reconocimiento facial falla, y lo hace, con imágenes de mujeres y con imágenes de personas racializadas. Según su informe, las mujeres más morenas presentan los porcentajes de error más elevados para todos los clasificadores de género, que oscilan entre el 20,8% y el 34,7%. Para los clasificadores de Microsoft e IBM, los hombres más claros son el grupo mejor clasificado, con tasas de error del 0,0% y el 0,3%, respectivamente. Estamos ante sistemas de aprendizaje automático que han sido entrenados con datos sesgados por lo que tienen un margen de error mínimo cuando lo que tienen que reconocer son hombres blancos (Buolamwini y Timnit, 2018).

Otro ámbito en el que se han detectado sesgos de género ha sido en el relacionado con el acceso a servicios financieros, en concreto en la evaluación de riesgos para concesión de créditos. Dado que lo que se tiene en cuenta son series de datos estadísticas, aquellos colectivos que han estado tradicionalmente excluidos de la esfera laboral o aquellos cuyos ingresos han sido menores, se ven perjudicados.  En 2019, el empresario danés David Heinemeier Hansson publicó un tweet en el que acusaba al algoritmo de la Apple Card de sexista. El algoritmo consideraba que Heinemeier merecía 20 veces más crédito que su mujer.  El cofundador de Apple, Steve Wozniak reconoció que el mismo algoritmo le proporcionó 10 veces más crédito a él que a su mujer, pese a tener todos sus bienes compartidos  (Hamilton, 11-11-2019). Por su parte, Goldman Sachs, la entidad financiera asociada con Apple, afirma que no hay discriminación contra las mujeres. “La tarjeta de Apple no ve el género, y ese es el problema”, rezaba el título de un artículo de Wired (Knight, 19-11-2019).

Insistiremos durante el trabajo en la importancia que tiene contar con mujeres en los procesos de diseño y desarrollo de sistemas de aprendizaje automático. Muchos de los sesgos y problemas resultarían obvios si se tuviera en los equipos las necesidades y puntos de vista de las mujeres (Gutiérrez, 2021; Bardon, 2021). Aunque es ampliamente conocido que la inteligencia artificial incorpora sesgos de diverso tipo y reproduce la discriminación, se percibe una escasa incorporación de la perspectiva de género en los planes de estudio de grados y másteres —al menos en las universidades españolas— (Garcia y Calvo, 2022).

 

 

4. Las brechas digitales

 

 

4.1. Entre el ciberfeminismo y el tecnofeminismo

 

El surgimiento de internet, en tanto nuevo espacio de comunicación, generó toda una serie de reflexiones de gran interés. Así, desde finales del siglo pasado asistimos a un debate en el que se atisban dos claras posturas: teorías utópicas y teorías distópicas. A grandes rasgos, las primeras consideraban que Internet podría erigirse en un nuevo espacio de comunicación e intercambio a escala global. Por otro, lado, surgieron teorías distópicas que alertaban sobre los peligros de Internet como vía de escape y fuente de aislamiento de la realidad (Núñez, 2008).  Como veremos más adelante, la retórica igualitaria que emerge de estas teorías utópicas y su apariencia democrática, han dificultado el ejercicio de la crítica (Prainsack, 2019). Los planteamientos feministas no tardarán en desarrollar estos debates. Dentro de la postura utópica podíamos situar el ciberfeminismo de Sadie Plant.

El término ciberfeminismo fue acuñado por colectivo australiano VNS Matrix en la primera década de 1990, si bien la Encyclopedia of New Media de Sage le otorga erróneamente la maternidad a Sadie Plant (Rackham, 2019). El ciberfeminismo tiene como objetivo “explorar la construcción del espacio social, la identidad y la sexualidad en el ciberespacio” (Wajcman, 2006: 99). Uno de los trabajos pioneros fue Ceros y Unos de Sadie Plant. Se trata de una obra ecléctica, con influencia de autoras feministas como Luce Irigaray, Monique Wittig y Dona Haraway y con guiños al posestructuralismo francés, en especial, los análisis de biopolítica de Foucault y Capitalismo y Esquizofrenia de Deleuze y Guattari. En esta obra reconstruye la relación entre mujeres y tecnología. Según Plant, “la tecnología es fundamentalmente femenina y no masculina, como quieren hacernos creer legiones de lumbreras de los ordenadores, profesores de informática y redactores de la revista Wired” (Galloway, n.d.).

El tecnofeminismo de Judy Wajcman “se basa en las ideas del feminismo ciborg, aunque asentándolo firmemente en un enfoque completamente materialista de los estudios sociales de la tecnología, incluido su propio papel en dichos estudios. De esta manera, el tecnofeminismo también ofrece una crítica más concienzuda de los estudios de la tecnología y de la ciencia dominante”. El tecnofeminismo realizaría un análisis sobre las relaciones que se producen entre las políticas sexuales y la tecnología, apartándose del “determinismo tecnológico” que lleva implícito el ciberfeminismo en los términos planteados por Plant. “Una política de la tecnología que promueva la emancipación requiere algo más que hardware y software, requiere wetware –cuerpos, fluidos y agencia humana–” (Wajcman, 2006: 120).

La solución a la brecha digital y tecnológica promovida por el feminismo en las décadas de 1970 y de 1980 del pasado siglo estaba centrada en las mujeres, esto es, en facilitar el acceso de las mujeres a los ámbitos científicos y tecnológicos. Se consideraba que era un problema de socialización y de acceso a la educación. Por eso, en la medida que las mujeres pudieran adoptar el modelo de los hombres su entrada sería un éxito. Se asumió que la tecnociencia era neutra, que era objetiva, que no estaba sujeta a sesgos. Las estrategias para promocionar la igualdad de oportunidades en el ámbito de las ciencias y de la tecnología tienen un éxito limitado porque no están teniendo en cuenta que “el propio lenguaje de la tecnología, su simbolismo, son masculinos” (Wajcman, 2006: 28). Aunque las mujeres se encuentran entre las primeras tecnólogas, el surgimiento de la ingeniería moderna desplazó toda la historia que vincula a las mujeres con la tecnología. El ingenio femenino se sustituye por las máquinas masculinas y la ingeniería se convierte en una profesión para varones de clase media blancos —y, si tenemos en cuenta la experiencia de Alan Turing (Plant, 1998: 101-103), podemos incluir la última característica, “heterosexual”—.  La redefinición de la masculinidad y feminidad que opera a finales del siglo pasado afectaría a la relación que éstas mantienen con la tecnología. La feminidad es redefinida como incompatible con los requisitos tecnológicos y se construye una frontera de género, clase y raza en torno a la ingeniería.

 

4.2. Las brechas digitales y brotopías

 

Cada vez es mayor el número de mujeres que utiliza ordenadores, paliando, en cierto modo, la primera brecha digital (referida a uso y acceso). No obstante, pese a este aumento en su uso y pese a que cada vez son más las mujeres que utilizan Internet, observamos una división digital en la habilidad para utilizar dicha tecnología. Las mujeres, deben adquirir competencias para utilizar estos nuevos medios (Castaño, 2008). Si afirmamos con Wajcman que la brecha digital “produce nuevas formas de exclusión social” el tecnofeminismo, siguiendo a Sonia Núñez, tendría entre sus objetivos la promoción de políticas que permitan reducir las disparidades en el acceso y el uso de los medios tecnológicos. Pero no se limita a esto, cuestionaría también la manera en la que las desigualdades de género intersecciona con otras formas de desigualdad que se manifiestan cuando se analiza el entramado político-económico en el que surgen y se desarrollan los descubrimientos tecnológicos (Núñez, 2008).

La última encuesta sobre “Equipamiento y Uso de Tecnología de Información y Comunicación (TIC) en los hogares (2022)” (INE, 2022), confirma que en nuestro país acabamos de superar la primera brecha digital, esto es, la brecha que existe en el acceso a la tecnología (Attewell, 2001). El aumento del uso de internet por parte de las mujeres es un hecho que desplaza el estereotipo que las situaba en contraposición a la tecnología (Saiz, Arroyo y Castaño, 2020).

 

Gráfico 1. Brecha de género (hombres - mujeres).  Población de 16 a 74 años que ha usado Internet en los últimos tres meses por edad. Serie 2017-2022 (%)

 

Fuente: elaboración propia con datos obtenidos del INE (2022).

Pese a los buenos resultados obtenidos en nuestro país, la brecha de acceso sigue existiendo en otros lugares del mundo. Según los datos del Foro Económico Mundial, los hombres tienen un 21% más de probabilidades de acceder a Internet que las mujeres. Si centramos nuestra atención en los países en vías de desarrollo, la probabilidad se eleva al 52% (Moore Aoki, Mar 8, 2022). Además, las mujeres con niveles socioeconómicos bajos experimentan mayores dificultades para acceder a internet, lo que incrementa de un modo notable su discriminación.

La contratación de mujeres en profesiones relacionadas con la Tecnología de la Información y la Comunicación (TIC) viene profundamente lastrada por la brecha de género existente en áreas como Ciencia, Tecnología, Ingeniería y Matemáticas (STEM por su acrónimo en Ingles). Los datos del National Center for Education Statistics (NCES) muestran que en Estados Unidos el porcentaje de mujeres graduadas en Ciencias computacionales ha descendido en los últimos treinta años. (Simonite ,17-8-2018). Se observa la misma tendencia en nuestro país. El gráfico 2 muestra el descenso del interés de las mujeres hacia carreras relacionadas con la ciencia de la computación (Merelo y Merelo, 2017). Según el estudio, la presencia de mujeres en el área de informática no deja de descender en la mitad de las universidades públicas españolas. El porcentaje de mujeres, de media, es del 12%. (Merelo y Merelo, 2017).

Gráfico 2. Mujeres estudiantes de informática 1985-2017

Fuente: Merelo y Merelo (2017).

La interpretación de este descenso requiere un enfoque diverso.  La UNESCO (2019) propone un modelo explicativo multifactorial que permite abordar la escasa participación de las mujeres y niñas en la ciencia. Esta vendría marcada por diferentes factores que pueden ser agrupados en cuatro niveles: individuales, familiares y pares, escolar y social (Gráfico 3).

 

Gráfico 3. Marco ecológico de factores que influyen en la participación, el rendimiento y la progresión femenina en los estudios

 

Fuente: UNESCO, 2019.

 

La revisión y posterior investigación llevada a cabo por Olga Martín, Elsa Santaolalla e Isabel Muñoz (2022), concluye que la brecha de género en las STEM se debe a la confluencia de diversos factores entre los que cabe destacar los relacionados con la percepción identitaria de quién realiza ciencia, a saber, el prototipo responde a un varón blanco, centrado en su área de estudio y con dificultades para socializarse.  Las niñas y adolescentes no solo no se ajustan al prototipo, sino, además, cuanto mayor es su grado de conformidad con los estereotipos atribuidos a las mujeres, menor es su autoconfianza respecto a su propio desempeño en áreas científicas. Esta imagen prototípica es asumida por las chicas, pero también, por familias y docentes (Rippon, 2020).

Si la imagen estereotipada de programador (friki, sin habilidades sociales e incluso siniestro) le resultaba muy lejano a las chicas, la nueva imagen de programador puede resultar aterradora. Desde hace una década asistimos a un nuevo prototipo de programador veinteañero, el broprogrammer (bro=hermano, programmer=programador). La versión 2.0 de la vieja fratría. El término aparece por primera vez en 2012, en un artículo titulado “Entrevistas Gangbang y fotos en bikini: el problema de los programadores en el Silicon Valley”. En él Tasneem Raja denuncia las actitudes y conductas sexistas inherentes al mundo de la programación y de las famosas Starts Apps (Raja, 2012). Y no será la única.

 En 2018, Brotopia se convierte en uno de los libros más polémicos del año al destapar el “lado oscuro, secreto y orgiástico de Silicon Valley”  (Chang, 02-01-2018). La autora, Emily Chang, sostiene que las mujeres han sido expulsadas de la tecnología por Silicon Valley; el referente tecnológico se habría convertido en un club selecto de hombres. La expulsión se debe, en gran medida, al uso de las pruebas de personalidad en los procesos de reclutamiento; sí lo que se busca es un nerd, un empollón centrado exclusivamente en la tecnología y con pocas habilidades para relacionarse —o abiertamente antisociales—, es muy difícil que las mujeres encajen. Según la autora, Silicon Valley nos traslada de nuevo al ambiente de instituto; los chavales que habían sufrido las burlas de sus compañeros y el rechazo de las chicas ahora reclaman venganza. Hay cierto aire de animadversión hacia las mujeres (Chang, 2018). 

Si, como afirma Tasneem Raja  (Raja, 2012), se utiliza el calificativo “gang bang[1] para referirse a las entrevistas de trabajo que se realizan por comité y en una conferencia, ante un centenar de personas, se dan consejos para atraer a las chicas más calientes del campus ¿qué tipo de cultura del trabajo se está promoviendo? (Hicks, 2013). Con los datos aportados parece plausible afirmar que los sesgos presentes en la sociedad y en el sistema educativo, acaban afectando a su autoconcepto y alejándolas de las STEM. Por lo tanto, nos enfrentamos, como mínimo, a dos problemas; el poco interés que las niñas y mujeres muestran por las STEM y la retención del talento de las mujeres que se encuentran trabajando en estas áreas. Las mujeres que trabajan en el ámbito de las STEM se muestran más proclives a cambiar de sector (López-Iñesta et al., 2020).

Con motivo del Día Internacional de las Mujeres y de las Niñas en la Ciencia, Sima Bahous, directora ejecutiva de ONU Mujeres, afirmó en su declaración que pese a los esfuerzos que se están realizando solo el 35% de las estudiantes de STEM son mujeres y, lo más preocupante, solo el 3% estudian TIC (Bahous, February 9, 2023). Estos datos se traducen en una infrarrepresentación de las mujeres en la Industria 4.0. Según el informe de la UNESCO, esta industria solo contaría con un 33% de mujeres. La brecha de género es mucho más profunda en aquellos campos en los que se requieren habilidades técnicas innovadoras. Así, las mujeres solo tienen una presencia del 14% en áreas como el Cloud Computing; un 20% en Ingeniería y un 32% en Ciencia de datos e Inteligencia Artificial (WEF, 2021).

No obstante, es importante advertir sobre la dificultad que supone el acceso a los datos sobre género y diversidad (Young, Wajcman, Sprejer, 2021). Por un lado, estamos ante nichos profesionales novedosos cuyos campos no están del todo definidos. Por otro, la disponibilidad de los datos requiere de la voluntad de terceros; las cifras han dejado de ser accesibles cuando la IA ha pasado del ámbito de la investigación académica a la empresa privada. Para solventar estas dificultades, las investigaciones recurren a datos de plataformas científicas e investigaciones que se han llevado a cabo previamente, a los aportados en conferencias o a los proporcionados por empresas privadas. El Foro Económico Mundial recurre métricas desarrolladas en colaboración con LinkedIn, Coursera, Hologic y WTW para analizar la incidencia de estas tendencias emergentes en la paridad de género.  (WEF, 2022: 32).

Teniendo en cuenta las diversas brechas analizadas, todo parece indicar que la inminente automatización e incorporación de inteligencia artificial en el ámbito productivo, incidirá de manera negativa en los empleos desempeñados por las mujeres. La razón es obvia, el uso de inteligencia artificial en el ámbito laboral requerirá de profesionales capaces de gestionar dichos sistemas. Dado el sesgo existente en la formación de competencias digitales, esto se traducirá en pérdida de oportunidades laborales y salariales para las mujeres (UNESCO, 2022). La digitalización y adopción de nuevas tecnologías en el mercado laboral se han acelerado desde la pandemia por COVID-19, por tanto, es fundamental elaborar estrategias encaminadas a eliminar las barreras que impiden que las mujeres ocupen su lugar en estos nuevos escenarios.

 

 

5. ¿Qué puede salir mal? Salud, seguridad e inteligencia artificial

 

 

¿Qué puede salir mal? preguntaba Monika Sarder (5-6-2020). La aplicación de algoritmos a la toma de decisiones no es de por sí negativa, ni debería ser problemática. Sin embargo, cuando se automatizan las tomas de decisiones, no es suficiente con desarrollar un buen software ni con vigilar los datos que se utilizan. Hay que tener en cuenta que no se están incluyendo consideraciones éticas que sí tienen en cuenta las decisiones humanas. 

Para ilustrar este aspecto se proponen dos ejemplos de ámbitos en los que la algoritmización está muy avanzada: salud y prevención de violencia de género. Se observará que, en ambos casos, los modelos de inteligencia artificial utilizados reproducen la visión androcéntrica y desigual que opera en la sociedad y en la ciencia.

 

5.1. Mujeres, salud, androcentrismo e inteligencia artificial

 

Los algoritmos médicos son, algoritmos informáticos que ayudan, por un lado, a procesar la información médica; de otro, en la toma de decisiones sanitarias (Hoffman y Podgurski, 2020). Antes de la pandemia por COVID-19 se comenzó a implementar la inteligencia artificial en países con grandes listas de espera como China, Inglaterra y Japón. Estos algoritmos ayudaban a los profesionales a tomar decisiones sobre los casos de riesgo y priorizar en la asignación de profesionales y pruebas (Axelsen, 15-03-2019). Durante la pandemia la telemedicina o asistencia sanitaria virtual se convirtió en una herramienta habitual para pacientes y profesionales sanitarios. Se nos invitaba a instalar aplicaciones para el control de contagios y acabamos incorporando nuestros datos sanitarios en nuestros pequeños dispositivos.

La inteligencia artificial se aplica a diferentes áreas y tareas en el sector sanitario, desde tareas de gestión hasta diagnósticos. A grandes rasgos encontramos:

 

-      Diagnósticos asistidos por ordenador: diagnósticos de melanomas a partir de imágenes de lesiones cutáneas o evaluación de resonancias magnéticas para diagnosticar un tumor.

-      Programas de análisis predictivo. El objetivo es identificar a pacientes con un alto riesgo de sufrir patologías antes de que esas patologías se materialicen.

-      En el ámbito de la medicina personalizada permite el ajuste de las dosis adecuadas de medicación gracias al conocimiento de diferentes variables (peso, sexo, secuencia genética…).

-      Realización de triajes que priorizan a los pacientes más urgentes y reducen las listas de espera — El hospital público CHU de Rennes (Francia) ha reducido el tiempo de espera de las urgencias de traumatología entre un 30-40 aplicando inteligencia artificial (ISANIDAD, 1 de diciembre de 2022)—.

-      Aplicaciones para teléfonos inteligentes que permiten adaptar y prescribir dietas en función de la información médica de referencia y de los patrones de ejercicio.

 

Antes de analizar la relación inteligencia artificial, género y salud hay que poner en primer plano que la medicina adolece de un fuerte androcentrismo. En 1969 un pequeño grupo denominado “grupo médico”, se reunió en Boston para expresar la angustia y frustración causada por el sistema médico en general (Colectiva Mujeres de Boston, 1987). El libro, no sólo resulta un excelente material sobre sexualidad y salud, resulta también, un ajuste de cuentas a esa larga tradición de oscurantismo, vergüenza y condena al cuerpo de las mujeres. Ha pasado medio siglo desde la publicación de Nuestros cuerpos, nuestras vidas y todavía hoy es uno de los ámbitos en el que es necesario recordar que el hombre no es la medida de todas las cosas ni es sinónimo de humanidad. La ciencia no es objetiva, es una construcción social y la ciencia médica, afirma Carme Valls “ha nacido sesgada porque es androcéntrica, y será necesario investigar en qué apartados y cómo ha conseguido invisibilizar a las mujeres y sesgar su aproximación diagnóstica y terapéutica” (Valls, 2006: 151). Este sería el escenario real en el que se plantea la algoritmización.

Nos encontramos ante una nueva dificultad al analizar la triada género, inteligencia artificial y salud; a saber, la disponibilidad de datos. Para entrenar a los sistemas de IA se necesitan una gran cantidad de paquetes estadísticos: desde historiales farmacéuticos, registros médicos, rastreadores de actividad, seguros —dejamos de lado otro gran tema, el de la protección de nuestros datos de salud —. El problema de recurrir a los paquetes de datos estadísticos y a las grandes series históricas es que importamos sesgos, entrenamos a la inteligencia artificial con datos que están sesgados. De la misma manera que los sistemas de reconocimiento facial y los de reconocimiento de voz han demostrado fallar ante determinados grupos (mujeres, minorías étnicas, personas racializadas) porque se encontraban infrarrepresentados en los grupos de entrenamiento, los sistemas de diagnóstico pueden mostrar sesgos de diverso tipo si no se tiene en cuenta la diversidad en su entrenamiento.

Los sesgos en los datos reflejan a menudo desequilibrios profundos y ocultos en las infraestructuras institucionales y las relaciones sociales de poder  (Zou y Schiebinger, 2018). Es importante que los equipos que diseñan los sistemas de inteligencia artificial sean capaces de incluir la diversidad que hay en nuestras sociedades. Cuantas más mujeres hay en los equipos de investigación más probable es que se tengan en cuenta asuntos de género. Esto vuelve a traer a primer plano la importancia de cerrar la brecha de género en las STEM.

Resulta, además, imperativo analizar qué se entiende por “eficiencia”. Desde un marco de interpretación neoliberal, como en el que nos encontramos, es fácil apelar sólo a criterios económicos —rapidez en el procesamiento de la información y ahorro de mano de obra—. La aplicación de la inteligencia artificial al ámbito sanitario debe tener en cuenta otras variables de cara a no seguir reproduciendo injusticias y sesgos que, pueden traducirse en un coste de vidas.

 

5.2. Mujeres, seguridad. El caso VioGén. ¿Falla el algoritmo o la administración?

 

En 2020 Phumzile Mlambo-Ngcuka, directora ejecutiva de ONU Mujeres, se refería a la violencia contra las mujeres como una pandemia en la sombra (Mlambo-Ngcuka, 6-04-020).  La declaración ponía en primer plano los 253 millones de mujeres y niñas de entre 15 y 49 años que, durante los doce meses anteriores a la pandemia, habían sufrido violencia por sus parejas y exparejas.  Desde que la violencia contra las mujeres se reconoce como un fenómeno estructural (ONU, 1993), los organismos supranacionales instan a los gobiernos a trabajar por su erradicación. De este modo, la eliminación de la violencia contra las mujeres ha pasado a formar parte de las agendas políticas de la mayoría de los gobiernos democráticos (con desigual compromiso y con desigual resultado). Si la introducción de algoritmos en la toma de decisiones políticas y sociales permite optimizar las respuestas, aumentando la eficacia y la rapidez de soluciones, resulta lógico que los gobiernos, en su compromiso por erradicar la violencia contra las mujeres, introduzcan el aprendizaje automático en sus estrategias de protección a las víctimas. Es el caso de VioGén en España.

En 2007, siguiendo lo establecido por la Ley Orgánica 1/2004 de 28 de diciembre, se pone en funcionamiento el Sistema de Seguimiento Integral de los casos de Violencia de Género, conocido por sus siglas como VioGén. Entre sus objetivos está la nada fácil tarea de hacer una predicción de riesgo y en función de este, realizar un seguimiento y ofrecer protección a las víctimas (Ministerio del Interior, n.d). Se trata de un sistema pionero a nivel mundial, que ha ido evolucionando y sometiéndose a revisiones constantes.

La auditoría externa realizada por la Fundación Éticas ha puesto de manifiesto lo que desde algunas organizaciones feministas y de atención a las víctimas se sospechaba. El sistema de predicción de riesgo está fallando y lo hace porque los datos que utiliza el sistema algorítmico para predecir la situación de riesgo son pobres o sesgados.  En primer lugar, el formulario de la entrevista, el VRP (Valoración de Riesgo Policial de Violencia contra la Víctima) es un cuestionario rígido y genérico que no permite que las víctimas se expliquen. Las respuestas dependen de la interpretación de los agentes de policía, lo que puede dar lugar a tergiversación, en especial cuando los profesionales no tienen formación en violencia de género. El momento en el que se realiza la entrevista es cuando la mujer presenta la denuncia —esto es, en el momento en el que la mujer es más vulnerable—.  A esto hay que sumarle la ambigüedad de algunas preguntas o la dificultad para comprender las mismas. 

En función de la información extraída en el VRP, el sistema asigna un nivel de riesgo: riesgo no apreciado, bajo, medio, alto o extremo. Estos niveles de riesgo pueden ser modificados al alza por los agentes, no obstante, según el informe de la Fundación Éticas, el 95% de los agentes de policía no modificaron la valoración de riesgo propuesta por el sistema (Fundación Éticas, 8-3-2022).

Tras el repunte de violencia de género que estamos experimentando en nuestro país —desde el 1 de diciembre de 2022 hasta el 31 de mayo de 2023, ascienden a 31 el número de mujeres víctimas mortales— es importante comprometerse para que todas las herramientas que pongamos a disposición para proteger a las víctimas funcionen correctamente. Según los datos disponibles en el portal estadístico de la Delegación del Gobierno contra la Violencia de Género del Ministerio de Igualdad de los 11 asesinatos que ocurrieron en diciembre de 2022, seis habían interpuesto una denuncia contra su agresor (Gráfico 4). Durante el año 2022 y lo que llevamos de 2023 el 35% de las víctimas mortales por violencia de género habían interpuesto una denuncia. ¿Podemos dejar en manos del algoritmo decisiones tan complejas como la evaluación de riesgo de las mujeres víctimas de género?

 

Gráfico 4. Número de mujeres víctimas mortales por violencia de género con y sin denuncia (2022-2023). Datos absolutos

 

Fuente: elaboración propia con datos de la Delegación del Gobierno contra la Violencia de Género del Ministerio de Igualdad. Ministerio de Igualdad. Actualizado el 31-05-2023.

 

Según Andrés Pueyo, activo colaborador en la implantación del sistema VioGén. es prácticamente imposible predecir el asesinato, precisamente porque es tan poco frecuente que se convierte en no predecible (Kohan, 09-01-2023). Por otro lado, el porcentaje de denuncia, pese a estar aumentando en los últimos años, es relativamente bajo. Sólo el 21% de las mujeres asesinada desde 2003 hasta la actualidad habían presentado denuncia (Gráfico 5). Los datos que se utilizan para perfeccionar el sistema de evaluación de riesgo provienen de los datos de las denuncias.

 

Gráfico 5. Número de mujeres víctimas mortales según denuncia 2003-2023 (31-05-2023)

 

Fuente: elaboración propia con datos de la Delegación del Gobierno contra la Violencia de Género del Ministerio de Igualdad. Ministerio de Igualdad. Actualizado 31-05-2023.

 

El gran desafío no parece estar en la inteligencia artificial, sino en los datos y entrenamiento que se le está proporcionando; si los datos suministrados están sujetos a interpretación humana, el reto pendiente sigue siendo la formación de los profesionales que atienden a las mujeres.

Es fundamental que en todos estos procesos prime la cautela y se tenga en cuenta que el algoritmo no se ajusta a la realidad. No es posible aplicar reglas únicas a problemas complejos (Sarder, 5-6-2020). En un mundo tan cambiante como el nuestro, una superinteligencia no puede tomar decisiones perfectas, pues la complejidad sistémica aumenta más deprisa que los volúmenes de datos de los que se alimentan. Además, no se tendrían en cuenta los conocimientos y hechos locales que son fundamentales para tomar buenas decisiones (Helbing et al., 25-02-2017).

6. Conclusiones

 

En las últimas décadas presenciamos profundos cambios tecnológicos que involucran todas las facetas de nuestra vida. Ninguna de las revoluciones anteriores ha sido tan rápida y ha provocado cambios tan profundos como los que estamos observando con la llegada de la cuarta revolución industrial. Estas transformaciones afectan a aspectos fundamentales de nuestra identidad individual y colectiva que van más allá de nuestra capacidad de adquirir nuevas habilidades profesionales y personales. A corto y medio plazo estas transformaciones nos invitan a repensar qué tipo de sociedades estamos construyendo e incluso a redefinir lo que entendemos por humanidad. Desde el feminismo tenemos que estar atentas a estas redefiniciones.

En la primera parte del artículo, se analiza la necesidad de despertar del sueño dogmático, del sonambulismo tecnológico en el que nos encontrábamos. El exceso de entusiasmo nos ha hecho olvidar que la ciencia y la tecnología son androcéntricas. La tecnología, en general, y los modelos de aprendizaje son portadores de sesgos y estereotipos de género. Por tanto, es importante que la teoría critica feminista incorpore en sus análisis este tipo de cuestiones.

Dada la saturación de significados de los términos en juego, por su omnipresencia en el debate público, en la segunda parte del trabajo se explicitan los términos involucrados. Se insiste en uno de los riesgos de la algoritmización de la esfera pública, la polarización como coadyuvante en el aumento y propalación de discursos misóginos y antifeministas.

En la tercera parte del artículo, se analiza la urgencia de incluir a las mujeres en los procesos de aprendizaje automático para evitar los sesgos y estereotipos de género. La tarea no es sencilla, sobre todo si se tiene en cuenta las reticencias de las mujeres a incorporarse a las STEM y la cronificada brecha de género en la tecnología.

El debate teórico sobre la relación de mujeres y tecnología no es nuevo. A finales del XX el ciberfeminismo pone en el centro del debate la cuestión. Las brechas tecnológicas atisbadas entonces, siguen siendo objeto de interés en nuestros días. La ausencia de mujeres en la tecnología genera nuevas formas de exclusión e ir cerrando estas brechas se convierte en un tema prioritario de la agenda feminista.  La falta de diversidad en los equipos dificulta que se tenga en cuenta una mirada plural en la definición de los procesos. Si a esto le unimos la presencia de sesgos en los datos procesados por los algoritmos ¿qué puede salir mal?

Se han analizado dos ámbitos en los que la algoritmización está muy avanzada: salud y prevención de violencia de género. Hemos visto que, en ambos casos, la desigualdad existente en la sociedad y la visión androcéntrica de la ciencia y de la realidad, alimentan los datos con los que aprenden los sistemas de aprendizaje automático. Es importante detectar a tiempo los sesgos para evitarlos; contrarrestar los datos que pueden reproducir sesgos en la aplicación de los algoritmos.  Para detectar a tiempo estos sesgos, insistimos en la importancia de incorporar mujeres, de incluir la diversidad en los equipos de trabajo, de ampliar la mirada.

Bibliografía

 

Amoore, Louise (2020): Altorithms and the attributes of ourselves and others. Durham: Duke University Press.

 

Attewell, Paul (2001): “The First and Second Digital Divides”. En: Sociology of Education, vol. 74, nº. 3, pp. 252-259. Disponible en: https://www.learntechlib.org/p/95037/ [01/06/2023].

 

Australian Associated Press (2017): “Computer says no: Irish vet fails oral English test needed to stay in Australia”. En: The Guardian, 8 de agosto. Disponible en: https://www.theguardian.com/australia-news/2017/aug/08/computer-says-no-irish-vet-fails-oral-english-test-needed-to-stay-in-australia  [01/06/2023].

 

Ávila Bravo-Villasante, María (2023): “Radicalización violenta y misoginia extrema: Narrativas antifeministas en la manosphere”. En:  Global Media Journal México, nºº. 20, pp.  1–17. Disponible en:  https://doi.org/10.29105/gmjmx20.38-485 [02/06/2023].

 

Axelsen, Amelia (2019): “Hospitals are using AI to slash wait times and solve doctor shortages”. En:  Apolitical, 15 de marzo. Disponible en https://apolitical.co/solution-articles/en/hospitals-are-using-ai-to-slash-wait-times-and-solve-doctor-shortages [01/06/2023].

 

Bahous, Sima (2023): “Statement: Building a future of scientific progress and gender equality” En: UN WOMEN, 9 de febrero. Disponible en: https://www.unwomen.org/en/news-stories/statement/2023/02/statement-building-a-future-of-scientific-progress-and-gender-equality  [01/06/2023].

 

Bardon, Agnès (2021): Nuestras invitadas: “Hay que educar a los algoritmos”. En: El Correo De La UNESCO, 2020, vol. 2020, nº. 4, pp. 42-45. Disponible en:  https://doi.org/10.18356/22202315-2020-4-13 [01/06/2023].

 

Basta, Christine; Costa-Jussà, Marta R. y Casas, Noe (2019): “Evaluating the Underlying Gender Bias in Contextualized Word Embeddings”. En: Marta R. Costa-jussà, Christian Hardmeier, Will Radford y Kellie Webster (eds.): Proceedings of the First Workshop on Gender Bias in Natural Language Processing. Florence, Italy: Association for Computational Linguistics, pp. 33–39.

 

Bellver, José (2019): “Costes y restricciones ecológicas al capitalismo digital”. En: Papeles de relaciones ecosociales y cambio global nº. 144, pp. 59-79. Disponible en: https://www.fuhem.es/papeles_articulo/costes-y-restricciones-ecologicas-al-capitalismo-digital/  [01/06/2023].

 

Bennett, Cynthia L. et al. (2021): “‘It’s Complicated’: Negotiating Accessibility and (Mis)Representation in Image Descriptions of Race, Gender, and Disability”. En: Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (Yokohama, Japan) (CHI ’21): Association for Computing Machinery, New York, NY, USA, nº. 375, pp.1-19 Disponible en: https://doi.org/10.1145/3411764.3445498 [01/06/2023].

 

Birhane, Abeba (2021): “Algorithmic Injustice: A Relational Ethics Approach”. En: Perspective, 12 de febrero, vol. 2. pp.1-9.  Disponible en:  https://doi.org/10.1016/j.patter.2021.100205 [01/06/2023].

 

Birhane, Abeba; Prabhu, Vinay Uday y Kahembwe, Emmanuel (2021): Multimodal datasets: misogyny, pornography, and malignant stereotypes. En: arXiv:2110.01963v1 [cs.CY], en 5 de octubre. Disponible en: https://doi.org/10.48550/arXiv.2110.01963 [01/06/2023].

 

Brynjolfsson, Erik y McAfee, Andrew (2014): The Second Machine Age. Work, Progress, and Prosperity in a Time of Brilliant Technologies. Nueva York: W. W. Norton & Company.

 

Buolamwini, Joy y Gebru Timnit (2018): Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. En: Proceedings of Machine Learning Research vol. 81, pp.1–15. Conference on Fairness, Accountability, and Transparency. Disponible en https://proceedings.mlr.press/v81/buolamwini18a.html [01/06/2023].

 

Castaño Callado, Cecilia (2008): “Nuevas tecnologías y género. La segunda brecha digital y las mujeres”. En: Telos: Cuadernos de Comunicación, Tecnología y Sociedad  vol. 75, pp: 24-33.

 

Chang, Emily (2018): Brotopia: Breaking Up the Boys' Club of Silicon Valley. Nueva York: Portfolio.

 

_____.  (2018): “Oh My God, This Is So F---ed Up”: Inside Silicon Valley’s Dark Side”. En: Vanity Fair, el 2 de enero. Disponible:  https://www.vanityfair.com/news/2018/01/brotopia-silicon-valley-secretive-orgiastic-inner-sanctum [09/03/2023].

 

Colectiva Mujeres de Boston (1987): Nuestros cuerpos, nuestras vidas. Cali: Colectivo de Mujeres de Cali y Asociación Artística La Cuchilla.

 

Dastin, Jeffrey (2018): “Amazon scraps secret AI recruiting tool that showed bias against women”.  En:  Reuters, 8 de marzo. Disponible en:   https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G [09/03/2023].

 

Fernández-Lasquetty Quintana, Javier (2020): “Los datos son el petróleo del siglo XXI”. En: The Conversation, 22 de mayo. Disponible en:  https://theconversation.com/profiles/javier-fernandez-lasquetty-quintana-1036288/articles [09/03/2023].

 

Fundación Éticas (2022): “Auditoría externa del sistema VioGén”. En: Fundación Éticas y Fundación Ana Bella. Red de Mujeres Supervivientes, 8 de marzo. Disponible en: https://eticasfoundation.org/wp-content/uploads/2022/04/ETICAS-_-Auditori%CC%81a-Externa-del-sistema-VioGe%CC%81n-_-20220308.docx.pdf [09/03/2023].

 

Gallego Trijueque, Sara and Oliva Marañón, Carlos (2022): La cuarta revolución industrial: Transformación digital como nuevo paradigma. En: Signo y Pensamiento, nº. 41. Disponible:  https://doi.org/10.11144/Javeriana.syp41.crit [09/03/2023].

 

Galloway, Alex (n.d.): “A Report on Cyberfeminism Sadie Plant relative to VNS Matrix” En: Switch. Electronic Gender. Art at the Interstice. Disponible en: https://vnsmatrix.net/wordpress/wp-content/uploads/a-report-on-cyberfeminism-sadie-plant-relative-to-vns-matrix-alex-galloway-switch-journal-issue-9-june-14-1998-online-journal.pdf [09/03/2023].

 

García, Eva. C., y Calvo, Encina (2022): “Perspectiva de género en Inteligencia Artificial, una necesidad”. En: Cuestiones de género: de la y la diferencia, nº. 17, pp. 111–127. Disponible en: https://doi.org/10.18002/cg.i17.7200 [09/03/2023].

 

Ging, Debbie (2019): “Alphas, betas, and incels: theorizing the masculinities of the manosphere”. En: Men and Masculinities, nº. 22, pp: 638-657. Disponible en: https://doi.org/10.1177/1097184X17706401 [09/03/2023].

 

Gutiérrez, Miren (2021): “Algorithmic Gender Bias and Audiovisual Data: A Research Agenda”.  En: International Journal of Communication, nº. 15, pp. 439-461. Disponible en: https://ijoc.org/index.php/ijoc/article/view/14906/3333 [09/03/2023].

 

Hamilton, Isobel Asher (2019): “Apple cofounder Steve Wozniak says Apple Card offered his wife a lower credit limit”. En: Business Insider, 11 de noviembre.  Disponible en:  https://www.businessinsider.com/apple-card-sexism-steve-wozniak-2019-11 [09/03/2023].

 

Harari, Yuval Noah (2022): Homo Deus. Breve historia del mañana. Barcelona: Debate.

 

Isanidad (1 de diciembre de 2012): “La inteligencia artificial puede reducir hasta un 40% los tiempos de espera en urgencias de traumatología”. En: Isanidad. Disponible en: https://isanidad.com/232698/la-inteligencia-artificial-puede-reducir-hasta-un-40-los-tiempos-de-espera-en-urgencias-de-traumatologia/ [09/03/2023].

 

INE (2022): “Encuesta sobre Equipamiento y Uso de Tecnologías de la Información y Comunicación en los Hogares”. En: Instituto Nacional de Estadística. Disponible en: https://www.ine.es/dyngs/INEbase/es/operacion.htm?c=Estadistica_C&cid=1254736176741&menu=ultiDatos&idp=1254735976608 [09/03/2023].

 

Helbing, Dirk et al. (2017): “Will democracy survive big data and artificial intelligence?”. En:  Scientific American. 25 de febrero. Disponible en: https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/ [09/03/2023].

 

Hicks, Mar (2013): “De-Brogramming the History of Computing [Think Piece]”.  En: IEEE Annals of the History of Computing, nº. 35, pg. 88. Disponible en: https://ieeexplore.ieee.org/document/6502624 [09/03/2023].

 

Hoffman, Donald (2015): “Evolving AI. Edge 2015: What do you think about machines that think?” En: Edge.org. Disponible en: http://bit.ly/3ZRxzr7 [09/03/2023].

 

Hoffman, Sharona y Podgurski, Andy (2020): “Artificial Intelligence and Discrimination in Health Care”. En: Faculty Publications, nº. 19. Disponible en:  https://scholarlycommons.law.case.edu/faculty_publications/2098 [09/03/2023].

 

Knight, Will (2019): “The Apple Card Didn't 'See' Gender—and That's the Problem”. En: WIRED, 19 de noviembre. Disponible: https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/ [09/03/2023].

 

Kohan, Marisa (2023): “Viogén, una herramienta necesaria pero insuficiente para poner fin a los asesinatos por violencia de género”. En: Público, 9 de enero. Disponible en: https://www.publico.es/mujer/viogen-herramienta-necesaria-insuficiente-poner-asesinatos-violencia-genero.html [09/03/2023].

 

Koenecke, Alison et al. (2020): “Racial disparities in automated speech recognition”. En: Proceedings of the National Academy of Sciences, nº. 117 pp. 7684-7689. Disponible en: https://doi.org/10.1073/pnas.1915768117 [09/03/2023].

Lavin, Talia (2020): La cultura del odio. Un periplo por la dark web de la supremacía blanca. Madrid: Capitán Swing.

 

Legg, Shane y Hutter, Marcus (2007): “A collection of definitions of intelligence”.  En: Frontiers in Artificial Intelligence and applications, nº. 157, pp. 17-54. Disponible en: https://doi.org/10.48550/arXiv.0706.3639  [01/06/2023].

 

López Flores, Luis Moisés (2022): “Colonialdad algorítmica: Racialización y sexualización mecanizada en el capitalismo digital: Una perspectiva de género”. En:  Revista de Cultura Digital y Movimientos Sociales, nº. 19, pp. 231-239. Disponible: http://dx.doi.org/10.5209/TEKN.78681 [09/03/2023].

 

López Iñesta, Emilia et al. (2020): “Towards breaking the Gender Gap in Science”, Technology, Engineering and Mathematics. En:  IEEE Revista Iberoamericana de tecnologías del Aprendizaje, vol. 15, nº. 3 pp. 233-241. Disponible en: http://dx.doi.org/10.1109/RITA.2020.3008114 [01/06/2023].

 

Martín Carrasquilla, Olga; Santaolalla Pascual, Elsa y Muñoz San Roque, Isabel (2022): “La brecha de género en educación STEM”. En: Revista de educación nº. 396, pp. 151-175.

 

Merelo Guervós, Juan Julián y Melero Molina, Cecilia (2017): “Evolución de la Matrícula Femenina en el Grado de Informática en Universidades Públicas Españolas; Technical Report”. En: GeNeura. Disponible en: http://dx.doi.org/10.13140/RG.2.2.19608.08969 [02/06/2023].

 

Merelo Guervós, Juan Julián; Melero Molina, Cecilia (2017): “Evolución de la Matrícula Femenina en el Grado de Informática en Universidades Públicas Españolas; Technical Report”. En: GeNeura. Disponible en: http://dx.doi.org/10.13140/RG.2.2.19608.08969 [02/06/2023]

 

Ministerio del Interior (n.d.): “Sistema VioGén. Ministerio del Interior”. Disponible en: http://bit.ly/3m8lwWX [09/03/2023].

 

Mlambo-Ngcuka, Phumzile (2020): “Violencia contra las mujeres: la pandemia en la sombra”. En: ONU MUJERES, 6 de abril. Disponible en:  http://bit.ly/3hVW3ht [09/03/2023].

 

Moore Aoki, Ayumi (2022) “The digital economy. How to close the digital gender divide and empower women”. En: World Economic Forum, 8 de marzo.  Disponible en: https://www.weforum.org/agenda/2022/03/how-to-close-digital-gender-divide/ [09/03/2023].

 

Mozur, Paul (2018): “A Genocide Incited on Facebook, With Posts From Myanmar’s Military”. En:  The New York Times, 15 de octubre.  Disponible en: https://www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html [09/03/2023].

 

Nicholson Price II, William (2017): “Regulating black-box medicine”. En: Michigan Law Review, nº. 116, pp. 421-474. Disponible en: https://repository.law.umich.edu/mlr/vol116/iss3/2/ [03/03/2023].

 

Núñez Puente, Sonia (2008): “Una exploración de la praxis feminista en España: nuevas tecnologías y nuevos espacios de relación desde el ciberfeminismo”. En: Feminismo/s, nº. 11, pp. 109-123. Disponible en: http://dx.doi.org/10.14198/fem.2008.11.07 [03/03/2023].

 

ONU - Organización de Naciones Unidas (1993): Declaración sobre la eliminación de la violencia contra las mujeres (Res. AG/48/104). Naciones Unidas.

Plant, Sadie (1998): Ceros y Unos. Mujeres digitales y la nueva tecnocultura. Barcelona: Destino.

 

Prainsack, Barbara (2019): “Data Donation: How to Resist the iLeviathan en J. Krutzinna”, En: Luciano Floridi (ed.): The Ethics of Medical Data Donation, Philosophical Studies Series nº. 137. Disponible en: https://doi.org/10.1007/978-3-030-04363-6_2 [03/03/2023].

 

Rackham, Melinda (2019): “Manifiesto”. En; Remedios Zafra y Teresa López-Pellisa (eds.): Ciberfeminismo. De VNS MATRIX a Laboria Cuboniks. Barcelona: Holobionte, pp. 45-49.

 

Radicalisation Awareness Network – RAN (2021): Incels: a first scan of the phenomenon (in the EU) and its relevance and challenges for P/CVE. Publications Office of the European Union. Disponible en: https://home-affairs.ec.europa.eu/whats-new/publications/incels-first-scan-phenomenon-eu-and-its-relevance-and-challenges-pcve-october-2021_en [03/03/2023].

 

Raja, Tasneem (2012): “‘Gangbang Interviews” and “Bikini Shots’: Silicon Valley’s Brogrammer Problem”. En:  Mother Jones, 26 de abril. Disponible en https://www.motherjones.com/media/2012/04/silicon-valley-brogrammer-culture-sexist-sxsw/  [03/03/2023].

 

Ricaurte, Paola (2019): “Data Epistemologies, The Coloniality of Power, and Resistance”. En: Television & New Media, nº. 20, pp. 350–365. Disponible: https://doi.org/10.1177/1527476419831640 [03/03/2023].

 

Rippon, Gina (2020): El género y nuestros cerebros. La nueva neurociencia que rompe el mito del cerebro femenino. Barcelona: Galaxia Gutenberg.

 

Sainz, Milagros; Arroyo, Lidia y Cecilia Castaño (2020): Mujeres y digitalización. De las brechas a los algoritmos. Madrid: Instituto de la Mujer y para la Igualdad de Oportunidades. Disponible en: https://www.inmujeres.gob.es/diseno/novedades/M_MUJERES_Y_DIGITALIZACION_DE_LAS_BRECHAS_A_LOS_ALGORITMOS_04.pdf  [03/03/2023].

 

Sarder, Monika (2020): “From robodebt to racism: what can go wrong when governments let algorithms make the decisions”. En: The Conversation, 8 de junio. Disponible en http://theconversation.com/from-robodebt-to-racism-what-can-go-wrong-when-governments-let-algorithms-make-the-decisions-132594 [03/03/2023].

 

Schwab, Klaus. (2017): La cuarta revolución industrial. Barcelona: Debate.

 

Simonite, Tom (2018): “AI Is the FutureBut Where Are the Women?” En: WIRED, 17 de agosto. Disponible en: https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance/ [03/03/2023].

 

Tatman, Rachael (2016): “Google’s speech recognition has a gender bias”. En: Making noise and hearing things, 12 de julio. Disponible en:  https://makingnoiseandhearingthings.com/2016/07/12/googles-speech-recognition-has-a-gender-bias/ [05/05/2023].

 

The Associated Press (2022): “Oregon is dropping an artificial intelligence tool used in child welfare system”. En:  National Public Radio, 2 de julio. Disponible en: https://www.npr.org/2022/06/02/1102661376/oregon-drops-artificial-intelligence-child-abuse-cases [03/03/2023].

Tiu, Ekin, et al., (2022): “Expert-level detection of pathologies from unannotated chest X-ray images via self-supervised learning”. En: Nature Biomedical Engineering, nº. 6, pp. 1399–1406. Disponible en: https://www.nature.com/articles/s41551-022-00936-9 [03/03/2023].

 

UNESCO (2019): “Descifrar el Código: LA educación de las niñas y las mujeres”. En: Ciencias, tecnología, ingeniería y matemáticas (STEM): UNESCO Publishing. Disponible en https://unesdoc.unesco.org/ark:/48223/pf0000366649 [03/03/2023].

 

_____. (2021): “Science Report:TheRace Against Time for Smarter Development”. En: Susan Schneegans, Tiffany Straza y Jake Lewis (eds): UNESCO Publishing. Disponible en https://unesdoc.unesco.org/ark:/48223/pf0000377250 [03/03/2023].

 

_____. (2022): “Los efectos de la IA en la vida laboral de las mujeres”. En: Clementine Collett, Gina Neff y Livia Gouvea Gomes (eds.): UNESCO Publishing. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000380871 [03/03/2023].

 

Van der Ploeg, Irma (2007): “Genetics, biometrics and the informatization of the body”. En: Annali dell'Istituto superiore di sanita, vol. 43, nº. 1, pp:44-50. Disponible en: https://pubmed.ncbi.nlm.nih.gov/17536153/ [05/05/2023].

 

Van Valkenburgh, Shawn. P. (2021): “Digesting the Red Pill: Masculinity and Neoliberalism in the Manosphere”. En:  Men and Masculinities, vol. 24, nº. 1, pp. 84-103. Disponible en https://doi.org/10.1177/1097184X18816118 [05/05/2023].

 

Valls Llobet, Carme (2006): Mujeres invisibles. Barcelona: Debolsillo.

 

Wajcman, Judy (2006): El tecnofeminismo. Madrid: Ediciones Cátedra.

 

WEF (2021): Global Gender Gap Report 2021. World Economic Forum. Disponible en: https://www.weforum.org/reports/global-gender-gap-report-2021/ [05/05/2023].

 

_____. (2022): Global Gender Gap Report 2022. World Economic Forum. Disponible en: https://www.weforum.org/reports/global-gender-gap-report-2022/ [05/05/2023].

 

Winner, Langdon (2008): La ballena y el reactor una búsqueda de los límites en la era de la alta tecnología. Barcelona: Gedisa.

 

Young, Erin; Wajcman, Judy y Sprejer, Laila, (2021): “Where are the Women? Mappingthe Gender Job Gap in AI. Policy Briefing: Full Report”. En: The Alan Turing Institute. Disponible en: https://www.turing.ac.uk/research/research-projects/women-data-science-and-ai [05/05/2023].

 

Zou, James y Schiebinger, Londa (2018): “AI can be sexist and racistit’s time to make it fair”. En: Nature, nº. 559, pp: 324-326. Disponible: https://doi.org/10.1038/d41586-018-05707-8 [05/05/2023].

 

 

 

 



[1] El “gang bang” es una práctica de sexo grupal que ha sido popularizada a través de la industria del porno. En estas representaciones normalmente una mujer, realiza prácticas sexuales con diversos hombres.