Dones Juristes al Congrés Internacional de Brasília: IA, gènere i drets humans
El passat 27 de maig de 2025, vam participar al Congrés Internacional de la Fédération Internationale des Femmes des Carrières Juridiques (FIFCJ), celebrat a Brasília.
El Congrés es va centrar en els reptes ètics, socials i jurídics que planteja la intel·ligència artificial (IA), amb especial atenció al seu impacte sobre la igualtat de gènere.
Les diferents ponències van oferir un panorama internacional i crític sobre com els algoritmes i sistemes automatitzats poden reproduir i amplificar desigualtats estructurals si no es dissenyen i implementen des d’una perspectiva de drets humans i justícia de gènere.
En aquest sentit, volem compartir les claus de les intervencions:
Les claus del debat
En la ponència d’Edna Dias, es van visibilitzar les profundes bretxes de gènere en l’àmbit de les tecnologies de la informació i la comunicació (TIC) al Brasil:
- Només el 16% de l’alumnat TIC al Brasil són dones, imoltes abandonen per la manca de referents, la discriminació i l’assetjament en entorns altament masculinitzats.
- Aquesta exclusió precoç impacta no només en les trajectòries professionals, sinó també en la legitimitat percebuda per pertànyer a aquests espais.
- Es va destacar que els homes sovint no són conscients d’aquestes desigualtats, la qual cosa reforça la necessitat de diàleg i cooperació amb ells per transformar estructures laborals discriminatòries.

La ponent Ana Amelia Menna Barreto, en el Panel 4 del dia 28 de maig, va aprofundir en la inclusió de les dones en el sector tecnològic. Tot i que el 28% de les professionals TIC al Brasil són dones, hi ha una bretxa salarial del 20% respecte als seus homòlegs homes. Es van citar iniciatives com el Dia Internacional de les Dones i les Nenes en la Ciència de l’ONU, així com documentals recomanats (Quebrando o código, Mulheres e IA) que aborden aquesta problemàtica.
La intervenció de Camila Salmoria va ser de les més interessants i va introduir el concepte de justícia algorítmica, un terme sorgit als EUA que denuncia els biaixos automatitzats en decisions rellevants per a les persones. Es van analitzar casos reals — com els sistemes d’Amazon o Apple que penalitzaven les dones en processos de selecció o crèdit — que evidencien la necessitat urgent de regular la IA amb garanties de justícia algorítmica. Les ponents van alertar sobre com els algoritmes poden reproduir i amplificar les desigualtats estructurals si no es dissenyen amb una perspectiva feminista i de drets humans.
Drets, gènere i tecnologia
Per tant, la participació al Congrés de la FIFCJ ha confirmat que les problemàtiques abordades en el nostre article —com els biaixos algorítmics, l’asimetria de dades o la manca de representació femenina en la IA— són globals. Les ponents brasileres van descriure realitats que, tot i expressar-se en un altre context social, reflecteixen els mateixos mecanismes estructurals que analitzem des d’Europa: discriminació sistèmica, invisibilitat de les dones en la creació tecnològica i manca de garanties jurídiques eficaces davant les noves formes de desigualtat digital.
Les nostres representants, Esther Susin Carrasco i Anna Maria Massari Morera, van subratllar la importància d’anar més enllà del Reglament Europeu 2024/1689, que tot i ser un avenç, encara no aborda prou el biaix estructural de gènere.
Cal incorporar dones juristes i expertes feministes en els comitès que supervisen els sistemes d’IA i promoure formació en gènere i tecnologia.
En aquest sentit, les xifres compartides al Congrés són alarmants i coincideixen amb les que vam exposar: al Brasil, menys del 4% de les dones han rebut reconeixements en ciència i tecnologia per part d’organismes internacionals. A la UE, només el 16% de les persones especialistes en IA són dones. Aquesta exclusió no és un fenomen aïllat, sinó un factor causal que contribueix a que els algoritmes reflecteixin una lògica masculina i, en molts casos, patriarcal.
Conclusions i recomanacions
El Congrés ha posat sobre la taula una realitat que ja no podem ignorar: els sistemes d’IA no són neutres ni objectius per definició. Són construccions humanes i, com a tals, han de ser sotmesos als principis democràtics, d’igualtat i de justícia que regeixen el nostre ordenament jurídic.
Com a juristes compromeses amb els drets humans i els drets de les dones, ens correspon no només vetllar per la legalitat d’aquestes eines, sinó també exigir-ne la legitimitat des d’una mirada feminista i interseccional.
Tenim la responsabilitat de continuar visibilitzant aquestes noves formes de violència estructural i de promoure marcs normatius que garanteixin una IA justa, transparent i amb perspectiva de gènere.
