Al Decidim Fest 2023, vam parlar amb Ashwin Singh, activista queer bahujan que treballa en l'estudi de les barreres socials, jurídiques i institucionals a les quals s'enfronta la comunitat queer a la IA.
Les tecnologies d’intel·ligència artificial van guanyant cada cop més terreny, però també existeix una creixent preocupació pels sistemes que generen opressions de la diversitat sexual i de gènere. Aquestes tecnologies afirmen ser capaces d’identificar les persones LGBTQI+ analitzant els seus trets facials, veu, connexions socials, pertinença a grups, comportament dels clients i fins i tot filtres de fotos de perfil.
No obstant això, el programari és incapaç de determinar amb precisió l’orientació sexual i la identitat de gènere de les persones, ja que aquestes característiques personals i profundament sentides no poden discernir-se únicament a partir de factors externs, poden canviar amb el temps i poden no ajustar-se a les construccions occidentals o als conjunts de dades utilitzades per a entrenar la IA.
La conseqüència és que aquests sistemes operen censurant i degradant els continguts de les persones LGTBIQ+, exposant-les a l’assetjament en fer-los hipervisibles; perpetuen el deadnaming, utilitzant noms anteriors als seus trànsits en determinats moments, i revel·len les seves identitats sense consentiment, trencant així la seva intimitat. En resposta a aquest panorama, la comunitat queer en la intel·ligència artificial ha aixecat ‘Queer in AI’, una organització global, descentralitzada i dirigida per persones voluntàries, que abraça el disseny participatiu interseccional per construir un futur tecnològic més inclusiu i equitatiu.
Des de la seva experiència, l’Ashwin ens inspira a qüestionar els mètodes de participació i d’inclusió dins de la IA, a reconèixer les comunitats digitals queer que estan transformant el disseny dels sistemes per a crear un teixit més ric i humà del desenvolupament tecnològic.
Quins són els riscos que la IA pot comportar per a la democràcia?
Una part significativa de l’ús poc ètic de la IA recau en les grans corporacions tecnològiques empreses privades, que estan mal equipades per a fer front als perills que generen els sistemes, sobretot en el seu disseny. Des de la perspectiva de la regulació, que és l’àrea en la qual treballo, és des d’on es poden minimitzar danys. Quan els sistemes d’IA causen danys, realment no podem confiar en els seus creadors, que són majoritàriament grans empreses, per regular-los. Això és perquè sovint prioritzen els beneficis per sobre de la seguretat de les persones.
Quines són les amenaces?
Això comporta una amenaça per a la democràcia perquè hi ha una pèrdua de confiança. Quan el govern o l’organització que governa el país no salvaguarda els drets de la ciutadania davant les grans corporacions tecnològiques que prioritzen els beneficis per sobre de la seva seguretat, es crea una situació de desconfiança. Aquesta desconfiança és una amenaça important perquè té conseqüències reals sobre les persones.
Algun exemple concret?
Un exemple que em ve al cap és el cas de l’Índia, on als aeroports utilitzen tecnologies de reconeixement facial per assegurar que les dades siguin coherents amb els passaports de les persones. Això sovint implica també el gènere. Com a persona no binària, si em vesteixo de manera femenina i hi ha una incoherència, hi haurà una conseqüència molt real per a mi i la meva identitat.
En el camp de la inclusió, moltes vegades les formes més comunes dins de la intel·ligència artificial utilitzen mètodes que extreuen i exploten la participació de les comunitats, o bé fan un «rentat de participació i inclusió». Això vol dir que sembla que inclouen la comunitat, però en realitat no ho fan de manera justa. Per exemple, un informe recent mostra com OpenAI va usar pràctiques laborals explotadores per fer que ChatGPT fos menys tòxic, fent que els treballadors kenians veiessin continguts molt angoixants sense donar-los prou suport per a la seva salut mental.
Per això és important implicar la comunitat i les organitzacions LGTBIQ+ en el disseny i l’avaluació dels sistemes de IA per revocar qualsevol tecnologia que intenti identificar el gènere i l’orientació sexual.
Quines són les conseqüències d’aquestes incoherències de les quals parles?
Quan hi ha sistemes d’IA en aquests tipus d’àrees, les persones que s’hi oposen sovint són una minoria i sempre hi ha conseqüències negatives si estàs en contra. Si entres en conflicte amb la llei per una incoherència en el reconeixement facial, això té conseqüències negatives a la teva vida. Això realment esgota la confiança de la gent en els òrgans de govern, perquè els drets no es protegeixen realment i les tecnologies actuen contra les mateixes identitats LGTBIQ+.
Què podem fer per abordar aquestes problemàtiques?
Hi ha tres principis que podem tenir en compte per augmentar la consciència sobre les qüestions de diversitat sexual i de gènere en la IA: l’organització descentralitzada, la interseccionalitat i les iniciatives liderades per la comunitat. També, és essencial que els governs prenguin mesures per regular les tecnologies d’IA, assegurant que prioritzin la seguretat i els drets de les persones per sobre dels beneficis econòmics. Això requerirà una col·laboració estreta amb persones expertes en ètica, drets humans i tecnologia per crear regulacions que protegeixin les persones i restaurin la confiança en els sistemes democràtics.