#BiasTechMed

Robots masclistes, algoritmes racistes… Què està passant?

El dimecres passat, el PRBB, el BSC i el departament d’enginyeries de la UPF van unir forces per organitzar #BiasTechMed, un esdeveniment centrat en com la tecnologia i la medicina pot tenir un biaix de gènere, racial, i d’altres tipus.

Davide Cirillo va encetar l’esdeveniment amb algunes dades d’estudis que havia realitzat al BSC on es mostrava que existien biaixos de gènere en metodologies utilitzades actualment.

Per exemple, en un estudi que estudiava un programari d’anàlisi facial va determinar que existia una ràtio d’error del 0,8% en homes de pell clara i un 34,7% en dones amb la pell fosca. Per què es deu això? Doncs perquè van veure que la base de dades amb la qual s’entrenava contenia un 77% d’homes i un 83% de persones amb pell clara.

Aquesta mateixa problemàtica també la va posar sobre la taula Oyidiya Oji, que actualment està treballant amb la #UE en la creació d’una nova llei europea sobre intel·ligència artificial, l’“AI act”. “Les dades amb les quals s’entrena la intel·ligència artificial, són antigues, incompletes i esbiaixades” denunciava.

Oyidiya va parlar sobre diversos exemples, un d’ells, el del diagnòstic de càncer de pell en persones negres. Explicava que hi ha programes de diagnòstic d’aquest tipus de càncer que asseguren que tenen un 90% de fiabilitat, però en realitat, per a les persones amb la pell fosca, la fiabilitat és molt més baixa, ja que els algoritmes s’entrenen amb models amb pell clara. Per culpa d’això, les persones negres reben un diagnòstic molt més tard, fet que explica en part perquè tenen una taxa de supervivència als 5 anys del 66%, comparat amb el 90% de les persones de pell clara.

Un altre problema, a banda de les dades que s’utilitzen per generar els algoritmes, són les persones que hi ha darrere el desenvolupament d’aquests algoritmes o programes, i també darrere de la definició d’hipòtesis i metodologies científiques. En general, aquestes persones són homes blancs cis heteros, que tenen els seus propis biaixos i perspectives subjectives.

Per aquest motiu, en la primera taula rodona, que va comptar amb Davide Cirillo del BSC, Paula Subias d’Algorights i Manuel Portela del departament TIC de la UPF, es va recalcar “la importància de la cocreació o els focus groups; fer partícip a la comunitat, la ciutadania o les persones usuàries”.

En la ronda de preguntes, Nataly Buslon, que treballa colze a colze amb Davide Cirillo, va explicar un exemple d’un estudi que van realitzar sobre la comunitat trans, i com van contactar amb PRISMA (associació per la diversitat afectivosexual i de gènere en ciència, tecnologia i innovació) per poder treballar amb aquesta comunitat des de l’inici, i incloure’ls en el disseny i definició de l’estudi i tenir el seu feedback constant.

A la segona taula rodona, amb Paula Petrone d’ISGLOBAL, Nataly Buslon del BSC, Akinbote Akinola de l’EMBLBarcelona i Oyidiya Oji es va parlar sobre el tema de la representativitat de les dones i altres col·lectius oprimits a la ciència, la medicina i la tecnologia.

Akinola Akinbote va fer una interessant reflexió, i va relacionar-ho en part amb la “doble consciència”, és a dir, amb la complexitat de viure amb dues identitats (la pròpia o de la teva comunitat, i la de la societat). “Si l’àmbit científic és hostil (racista, masclista, LGTB-fòbic, capacitista) provoca que les persones de comunitats oprimides no ho considerin un espai segur o un lloc on voler estar” explicava.

Cal que l’àmbit #STEM treballi per ser més accessible, democràtic i just, per incloure comunitats oprimides, i que a més, aquestes puguin tenir veu i les mateixes oportunitats que la resta.

En resum, va resultar un esdeveniment molt enriquidor i necessari. Des de la comunitat científica i també des de la professió de la comunicació i l’educació, creiem que és vital ser conscients de com la medicina o la tecnologia poden estar esbiaixades, resultar discriminatòries, i fomentar estereotips.

Com va dir a la seva presentació Davide Cirillo, la intel·ligència artificial, depèn de com s’utilitzi, pot ser una eina que fomenti la discriminació, o pot ser un recurs per justament aconseguir el contrari, que lluiti per reduir els biaixos. Tot dependrà de com en fem ús.

>> Més informació de l’esdeveniment aquí.

Compartir

1 comentari de “Robots masclistes, algoritmes racistes… Què està passant?

Comments are closed