Si discrimina, aquesta no és la meva IA – III Jornades sobre Pensar la Justícia Digital Global
El 4 de desembre proposem una jornada per promoure la mirada crítica al procés d’expansió de la IA. Posarem l’accent als factors de discriminació de l’actual model de desenvolupament de la IA.
El procés de disseny, desenvolupament i implementació de la IA apareix marcat per dinàmiques profundament discriminatòries. La transversalitat dels àmbits d'aplicació d'aquestes tecnologies obliga a abordar la complexitat del fenomen. Aquesta jornada s'emmarca dins del projecte de Justícia Digital Global que impulsen Oxfam Intermón i la Direcció de Justícia Global de l’Ajuntament de Barcelona que treballa sobre els impactes de la IA en les desigualtats i està formada per dos converses amb dos enfocaments diferents.
D'una banda, un diàleg entre Paola Ricaurte i Milagros Miceli, que adoptarà una aproximació global i a la qual discutiran sobre la influència dels desequilibris entre el nord i el sud globals en la consolidació d'un model de desenvolupament de la IA, que porta implícita la discriminació des de la seva concepció. El model econòmic hegemònic, el paper de les grans empreses del sector, els desequilibris en les condicions tècniques entre les geografies i, fins i tot, els marcs construïts per les regulacions, imprimeixen en els desenvolupaments dels sistemes de IA un caràcter discriminatori d'origen.
D'altra banda, en una segona conversa entre Paola Villarreal, Salmana Ahmed i Afef Abrougui, es reflexionarà sobre els vectors de discriminació articulats pels usos concrets de la IA, des dels recursos i els conjunts de dades d'entrenament, fins als àmbits d'implantació de sistemes basats en IA, passant pel propi disseny dels algorismes. Les expertes exposaran com els artefactes tecnosociales que són les eines basades en IA agreugen el racisme institucional i la discriminació basada en el gènere, en l'accés als serveis públics, en la gestió de l'espai públic o en els mecanismes de control de la mobilitat humana, per exemple.