Source: The Conversation – (in Spanish) – By Nàdia Alonso López, Profesora e investigadora. Departamento de Comunicación Audiovisual, Documentación e Historia del Arte, Universitat Politècnica de València
La inteligencia artificial (IA) suele presentarse como objetiva: datos, estadística y predicción. Sin embargo, su mirada nace del mundo humano y eso incluye desigualdades de género.
La brecha comienza antes del código
En España, las mujeres son mayoría en la universidad (57 % en grado y máster), pero su presencia cae en las áreas STEM más tecnológicas: 28,1 % en Ingeniería y Arquitectura y 17,2 % en Informática. En doctorado, el descenso continúa, en línea con la “tubería que pierde talento” descrita en el informe Científicas en Cifras (2025). Esto conecta con los datos nacionales de brecha digital de género correspondientes al año 2025, que concentran el desequilibrio precisamente en las áreas de Informática e Ingeniería.
El hombre como patrón científico
En biomedicina, el análisis de centenares de ensayos médicos ha demostrado que aproximadamente dos tercios no informan sobre resultados diferenciados por sexo ni justifican por qué no lo hacen. Un caso paradigmático es el del fármaco hipnótico zolpidem (Ambien): durante años, se comercializó con una posología única, hasta que en 2013 se recomendó reducirla a la mitad para las mujeres, al descubrirse un riesgo mucho mayor de efectos adversos. En el conocido ensayo Invisible Women (2019), la periodista y activista británica Caroline Criado-Perez describe este sesgo farmacológico como una laguna sistémica: la consideración del patrón masculino como “universal” y de lo femenino como una desviación “invisible” en los datos.
La IA puede amplificar lo que ya tiene sesgo
Por supuesto, el fenómeno de los sesgos de género no es nuevo: se repite, con matices, en cada avance científico y tecnológico a lo largo de la historia. La tecnología actual no es una excepción. La IA se ha convertido en una auténtica revolución que, más allá del potencial tecnológico, supone una verdadera fuerza transformadora de la economía y el mercado laboral. En este escenario, un sesgo automatizado no es anecdótico, sino que escala a miles de decisiones.
Las alertas han venido, a menudo, de mujeres expertas. La socióloga estadounidense Safiya Umoja Noble mostró cómo buscadores aparentemente neutrales pueden producir resultados profundamente racistas y sexistas. La experta en computación etíope Timnit Gebru evidenció –junto con Joy Buolamwini– errores graves en reconocimiento facial y advirtió sobre los riesgos de los modelos de lenguaje masivos. Y la científica de datos estadounidense Cathy O’Neil sostiene que muchos modelos actúan como “armas de destrucción matemática”, porque convierten prejuicios en matemáticas operativas.
Por qué el lenguaje importa tanto
Los sesgos en la IA provienen de cuatro fuentes principales: datos de entrenamiento, decisiones de diseño, interacción con usuarios y procesos de alineación con feedback humano. Esto se ha demostrado empíricamente: por ejemplo, en GPT-3 (OpenAI) se comprobó que el término “musulmán” solía aparecer asociado a violencia o terrorismo en un porcentaje muy alto, reflejando patrones del corpus de internet –colección masiva, estructurada y digitalizada de textos, documentos y, a veces, audio, extraídos directamente de la World Wide Web para su uso en análisis lingüístico, lingüística computacional y entrenamiento de IA–.
Ahora bien, si abordamos el vínculo entre IA y lenguaje, es importante subrayar que los sesgos discriminatorios también pueden ser implícitos. Las lenguas no son sexistas por naturaleza, lo que puede ser sexista es la comunicación: las elecciones lingüísticas (conscientes o no) que invisibilizan o rebajan a un grupo.
A veces, incluso sin marcas gramaticales explícitas, existen marcos conceptuales que orientan qué “deducimos” las personas a partir de un discurso. Según este estudio, esta lógica de inferencia es, de hecho, la misma que “aprende” un traductor automático: cuando el sistema debe asignar género en una traducción, puede acabar eligiéndolo a partir de estereotipos sexistas (quién cocina, quién arregla muebles) y no sobre la base de información real.
La conversación también discrimina
Otro punto crítico son los asistentes de voz. La elección recurrente de voces femeninas para tareas de atención consolida el binomio “mujer-cuidadora / hombre-técnico”. Esto podría vincularse a una asignación comercial del género: la IA no tiene sexo, pero se le asigna una personalidad femenina sumisa para encajar con expectativas sociales y maximizar aceptación.
Más mujeres y más conciencia lingüística
A fin de cuentas, la solución no pasa solo por incorporar “más datos”, sino por desarrollar una mirada más diversa y consciente. En términos generales, incluir mujeres y diversidad en los equipos que diseñan y validan sistemas de IA es una condición de calidad científica.
Asimismo, desde la lingüística, es necesario asumir que el lenguaje crea categorías y activa inferencias: si los corpus retratan a la mujer científica como una excepción, el algoritmo lo normalizará. Por eso conviene auditar corpus, prompts y resultados con pruebas específicas de género, así como revisar los valores “por defecto” (voz, roles) y ampliar la pluralidad de perspectivas en el diseño y entrenamiento.
Queremos expresar nuestro agradecimiento a Marcos García Martí por su valiosa ayuda en la localización y selección de las fuentes, así como por sus aportaciones al contenido y a la redacción de este artículo. Su colaboración ha sido esencial para dar coherencia y solidez al trabajo final.
![]()
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
– ref. ¿La inteligencia artificial tiene género? – https://theconversation.com/la-inteligencia-artificial-tiene-genero-275484
