
El relat visionari sobre el Gran Germà d’Orwell sembla més possible que mai. Comencen uns anys en què el gran algoritme generador de dades tindrà informació sobre nosaltres, biaixos inclosos. Tot i les demandes d’un Internet lliure i democràtic durant els inicis d’Internet, la xarxa segueix reproduint la desigualtat estructural que observem en la societat. Amb motiu del Dia Mundial d’Internet entrevistem el col·lectiu Algorights, una comunitat internacional de persones amb coneixements diversos, que treballen per donar a conèixer les implicacions i les potencialitats que té la Intel·ligència Artificial a la societat. La seva proposta basada en la justícia social planteja una conversa contínua entre persones tecnòlogues, humanistes i ciutadania.
En les albors d’Internet, els ciberutòpics concebien aquest espai virtual com un lloc lliure de privilegis i prejudicis generats per qüestions d’ètnia, poder econòmic o força militar. Com ha canviat aquesta percepció?
Primer de tot, no hem d’oblidar que Internet va sorgir com un invent militar dels Estats Units durant la Guerra Freda per mantenir comunicacions estables en cas de guerra. Per això, no ens ha d’estranyar que el moviment ciberutòpic sorgís per demanar una Internet lliure. Cada vegada hi ha més veus crítiques a aquesta concepció sobre la neutralitat de l’espai virtual. És cert que no és cap novetat, ja que des de la publicació del Manifest Cyborg escrit per Donna Haraway a mitjans dels vuitanta, nombroses acadèmiques i activistes ciberfeministes han fomentat la reflexió sobre la continuïtat de les estructures de poder i desigualtats a la xarxa.
No obstant això, el fet que cada vegada hi hagi una mica més de diversitat (encara que no la suficient) en el desenvolupament de tecnologies així com la proliferació d’espais participatius d’experimentació amb la tecnologia (com els hacklabs), contribueix al pensament crític sobre la tecnologia. Tot i això, aquest pensament crític no està democratitzat ni és accessible a part de la població més vulnerable.
No tothom accedeix als laboratoris ciutadans i els processos participatius per part de l’administració no arriben a tots els estrats socials. Les denúncies sobre la perpetuació de les discriminacions, desigualtats i vulneracions per part dels sistemes sociotècnics són moltes, però considerem que segueixen faltant veus de la societat civil en els espais de debat i és aquest el motiu pel qual un dels nostres objectius és fomentar el coneixement entre la població de tota mena. En resum, volem ser un dels agents que incideixen en l’agenda política i que permeten canviar aquesta percepció més enllà de l’acadèmia.
Algorights ha començat recentment de forma pública com un col·lectiu de defensa dels drets i les llibertats de les persones en l’àmbit específic de la intel·ligència artificial. Qui forma part actualment i què voleu aconseguir?
La comunitat està formada per un grup de més o menys 60 persones, amb diferents graus de participació i sorgeix de les jornades d’intel·ligència artificial (IA) i drets humans (DDHH) que es van realitzar el 2020 organitzades per l’Espai Societat Oberta. Tant el naixement com el creixement i l’organització han estat i estan sent moviments orgànics i inclusius. A la comunitat hi ha persones amb diferents experiències, coneixements i de diferents llocs geogràfics, però amb l’interès comú d’entendre les implicacions que té la IA a la societat, des de la perspectiva de la justícia social.
El nostre principal objectiu és garantir que el disseny, desenvolupament i aplicació de la intel·ligència artificial respecti el marc dels Drets Humans ja existents, així com aquells que puguin sorgir arran de la transformació digital. Per això, podem dur a terme diferents estratègies i accions, i totes passen per apropar el debat sobre els riscos de la digitalització de les nostres vides a la societat civil.
Tant en l’àmbit europeu com estatal s’estan duent a terme grans esforços per regular els usos dels sistemes de reconeixement facial. A què ens estem exposant?
Els sistemes de reconeixement facial tenen com a principal problema que utilitzen parts del cos humà, en aquest cas, l’estructura facial, per identificar persones de manera inequívoca. Això fa que si forces policials utilitzen aquests sistemes per reconèixer persones a espais públics, s’exerceix un desequilibri de poder significant. No podem negar-nos a ser identificades mitjançant reconeixement facial, ja que no podem treure’ns o canviar la nostra cara de manera simple. A més, en els últims anys s’ha demostrat que aquests sistemes reprodueixen biaixos cap a individus racialitzats.
Després de l’assassinat de George Floyd per part d’oficials policials als EUA, diverses companyies tecnològiques (IBM, Amazon, Microsoft) van decidir aturar la venda d’aquests sistemes a cossos de policia per la pressió que van rebre per part del moviment #BlackLivesMatter.
Dins del nostre territori, també s’ha demanat una moratòria al Govern. En les últimes setmanes, la Unió Europea ha publicat la primera regulació sobre IA, que considera aquestes aplicacions d’alt risc, i fins i tot prohibeix el seu ús a l’espai públic. Això no obstant, manté excepcions que considerem necessari vigilar de prop, com l’ús de reconeixement facial per a la prevenció d’atacs terroristes.
Els algoritmes faciliten alguns àmbits de la vida: confirmen les identitats i agiliten processos de verificació. Però també s’ha pogut observar que discriminen i tenen biaixos. Com podem fer més justa la tecnologia que no és neutra?
Generalment s’intenta fer més justa la tecnologia des d’una perspectiva tècnica i aquesta visió tecnosolucionista deixa de banda els problemes estructurals de la societat que els causen. Perquè la tecnologia sigui més justa és necessari posar el focus en quatre aspectes: transparència, auditoria, justícia i participació ciutadana.
Quan parlem de transparència, ens referim a saber com pren les decisions l’algoritme. L’eina de l’auditoria ens permet conèixer el seu funcionament i descobrir les dades que l’alimenten, en la mesura del possible. La idea de justícia fa referència a entendre que l’algoritme no ha de donar un resultat correcte, sinó que ha de ser just des d’un punt de vista d’impacte social. Els algoritmes no saben de contextos; el que fan és buscar patrons, de manera que les seves decisions poden ser correctes (troba un patró concret i donen la resposta en funció d’això), però no sempre justes. Per això, la implementació d’algoritmes automatitzats ha de venir d’una profunda reflexió i conversa prèvia entre persones tecnòlogues i humanistes, però sense deixar de costat a la ciutadania, a la qual cal incloure en els processos de disseny.
Cal crear aquestes infraestructures de participació i debat al mateix temps que es fomenta la transparència i auditoria.
Pots anomenar un cas representatiu dels biaixos de la intel·ligència artificial?
Són diversos els exemples que mostren que els processos automatitzats corren el perill de replicar i amplificar les opressions i dinàmiques de poder de les nostres societats. Molts dels exemples més coneguts provenen del món anglosaxó, però, si posem la lupa al nostre país, veurem que no som immunes a aquesta problemàtica.
A Espanya, tenim l’exemple del programa Bosco, usat pel Govern per atorgar el bo social elèctric. L’organització CIVEO va denunciar que s’estaven negant ajudes a persones que tenien el dret de rebre-les i va portar el cas davant el Consell de Transparència. Se li va negar l’accés a la font de l’algoritme, ja que es van al·legar raons de protecció intel·lectual. També hi ha altres algoritmes que identifiquen denúncies falses dins de les comissaries (Veripol) o que valoren el risc de víctimes de violència de gènere, sense que hagin estat auditats per un cos independent. És molt rellevant per assegurar que no es vulnerin drets, que s’analitzin aquests sistemes en auditories i es publiquin els seus resultats en pro de la transparència i la rendició de comptes.
Algorights és una xarxa de col·laboració internacional oberta, a la qual qualsevol persona o col·lectiu es pot adherir. Quina perspectiva de futur us mou?
Algorights és una xarxa col·laborativa per promoure la participació de les persones i de les organitzacions de la societat civil en l’àmbit de les tecnologies de la IA des d’un enfocament centrat en els Drets Humans. Una xarxa que vol promoure i crear coneixement en relació amb la IA per contribuir a la democratització de la mateixa fomentant el pensament crític i constructiu en la població.
D’aquí, que aquesta comunitat promogui la diversitat d’opinions i visions. L’eix comú, la nostra raó de ser, és que volem unes polítiques digitals centrades en les persones per a una societat digital més justa i concebem un futur on sigui una realitat. Per això formem la comunitat!
Alguna cosa més que vulgueu afegir?
Algorights és un espai multidisciplinari, divers i plural. Som un conjunt de persones de diferents àmbits i amb coneixements molt variats que ens uneix voler que la societat civil tingui un paper clau en el desenvolupament de la IA i ho fem a través del pensament crític i la col·laboració. Des de la comunitat debatem al voltant de diferents temes per aprendre i discutir diferents visions com a eina d’empoderament de totes les integrants i de la mateixa comunitat. Per a nosaltres és molt important generar espais inclusius d’enfortiment del pensament crític, sobre la diversitat i el respecte a diferents maneres d’aprendre i també considerem clau l’existència d’espais cuidadors. Espais amb i per a les persones.
Estem molt il·lusionades amb el projecte i encara que és un repte enorme, creiem fermament en la democratització del coneixement, la intel·ligència col·lectiva i la força de les comunitats organitzades.