domingo 28 de diciembre, 2025
Lo último:
Ideas, Innovación, Inclusión

Micaela Hirsch presentó una investigación sobre sesgos contra personas trans en LLMs en el Workshop Queer in AI @ NeurIPS 2025

En el marco de NeurIPS 2025, uno de los encuentros más importantes del mundo en inteligencia artificial, la investigadora argentina Micaela Hirsch -parte de la comunidad ARPHAI y becaria de investigación en el Laboratorio de Inteligencia Artificial Aplicada (ICC, UBA/CONICET)- participó de los workshops LatinX in AI y Queer in AI, donde presentó un estudio innovador sobre los sesgos implícitos que afectan a personas trans en modelos de lenguaje de gran escala (LLMs) realizado en el marco del proyecto “Hacia el diseño inclusivo de grandes modelos de lenguaje clínico en español: caracterización y medición de daños representacionales para la salud trans” de la convocatoria CLIAS 2024.

El trabajo presentado, adjudicado en el marco de la convocatoria del Centro de Inteligencia Artificial y Salud para América Latina y el Caribe (CLIAS), se titula “Implicit Bias in LLMs for Transgender Populations” y es producto de un equipo interdisciplinario conformado por Micaela Hirsch, Marina Elichiry, Blas Radi, Luciana Benotti, David Restrepo, Tamara Quiroga, Verónica Xhardez, Jocelyn Dunstan y Enzo Ferrante.

La investigación indaga cómo los grandes modelos de lenguaje continúan reproduciendo sesgos y estereotipos hacia personas trans, incluso en sistemas entrenados con protocolos de seguridad destinados a evitar contenido explícitamente ofensivo. El estudio remarca que estos sesgos, muchas veces invisibles, pueden tener consecuencias en entornos sensibles como el de la salud, en particular, con poblaciones vulnerables.

El equipo diseñó dos evaluaciones complementarias para identificar la persistencia de prejuicios implícitos en los modelos:

  1. Pruebas de asociación de palabras adaptadas.

El equipo de investigación ajustó la técnica de tests de asociación semántica para conocer en qué medida los LLMs vinculan conceptos negativos con “transgender” y positivos con “cisgender”. Se analizaron ocho categorías —entre ellas, apariencia, riesgo y veracidad— en las que los modelos exhibieron sesgos sistemáticamente desfavorables hacia personas trans.

  1. Simulación de asignación de turnos médicos.

En este caso, los modelos funcionaron como agentes de turnos responsables de asignar consultas médicas de distintas especialidades a personas cis o trans en distintas especialidades médicas. Los resultados mostraron una tendencia consistente: los candidatos trans fueron más frecuentemente asignados a especialidades como ITS y salud mental, mientras que los candidatos cis resultaron preferidos en áreas como ginecología y cuidados mamarios, lo que hubiese llevado a minimizar (y en algunos casos anular directamente) la posibiliadad de personas de trans de acceder a servicios de salud, en caso de que dichos sistemas fueran realmente desplegados.

En las dos evaluaciones surge una misma conclusión: los sesgos implícitos persisten incluso en modelos sometidos a entrenamientos de seguridad, reproduciendo asociaciones estereotipadas que pueden comprometer la equidad, especialmente en contextos sensibles como el acceso a la salud.