La comunicadora, abogada y activista por los derechos de las mujeres, Ana Correa, brindó una charla sobre sesgos de género en el Centro Judicial de Santa Rosa y advirtió sobre los estereotipos existentes en un contexto de expansión del uso de la inteligencia artificial. “Hay que ver qué impacto tienen esos errores en la brecha digital de género”, remarcó, y planteó la necesidad de avanzar hacia una IA inclusiva.
Para reducir esa brecha, Correa creó OlivIA, una herramienta a la que se accede desde ChatGPT y que permite identificar sesgos y errores de género en ese ecosistema. “No hay que tenerle miedo a la IA, pero sí usarla con cuidado. Incluso saber de qué estamos hablando cuando hablamos de inteligencia artificial, aunque después la usemos más o menos”, señaló.
A OlivIA se le puede hacer la misma pregunta que a ChatGPT; la diferencia es que en sus respuestas identifica desigualdades simbólicas o estructurales, por lo que evita reproducir miradas sesgadas.
Correa disertó en el Centro Judicial a partir de una invitación de la Oficina de la Mujer y Violencia Doméstica y el Centro de Capacitación. Integró el grupo de periodistas, comunicadoras y escritoras que el 3 de junio de 2015 organizó la primera marcha de Ni Una Menos en la Argentina. En 2019 escribió el libro “Somos Belén”, que narra la historia de una joven tucumana que sufrió un aborto espontáneo y terminó detenida luego de que la Justicia de esa provincia la condenara como si la interrupción del embarazo hubiera sido voluntaria. En ese texto se basó la película “Belén”, que obtuvo varios premios internacionales, entre ellos el Premio Goya 2026 a la mejor película iberoamericana.
“Con la IA generativa hay un inconveniente central que no solo se observa en ChatGPT, sino también en otras herramientas similares. Como sus respuestas se basan en datos disponibles en internet, no siempre son precisas y muchas veces aparecen lo que llamamos ‘bucles de retroalimentación’. ¿Por qué? Porque responden con estereotipos, ya que asocian palabras exclusivamente a hombres o mujeres”, explicó. Y ejemplificó: “abogado” aparece ligado al hombre y “azafata” a la mujer.
“Con OlivIA intenté no dar respuestas tajantes ni cerradas, sino más bien estimular el debate. A partir de la información que cargué, que incluye leyes y normativas internacionales, busqué achicar esos márgenes de error”, agregó. En ese marco, insistió en la necesidad de avanzar hacia una inteligencia artificial inclusiva.
En otro tramo de la charla, Correa mencionó herramientas digitales que evalúan fundamentos jurídicos y analizan la valoración de las pruebas, y enfatizó la importancia de utilizar la inteligencia artificial para promover la alfabetización y reducir la brecha en el acceso al conocimiento.

