04 de maig de 2023

Poden conviure la intel·ligència artificial i la democràcia?

Com construir una intel·ligència artificial de governança pública, auditable i en pro del bé comú? Parlem amb Paula Guerra, Karlos Castilla i Paula Boet.

Podem somiar amb sistemes de IA de governança pública sense biaixos de gènere, racistes o classistes? Quin rol ha de tenir la ciutadania i el tercer sector? Recupera les idees que han compartit Karlos Castilla, Paula Guerra Cáceres i Paula Boet a la segona sessió del cicle «Intel·ligència artificial, Drets i Democràcia»: «IA, polítiques públiques i discriminacions».

Avui en dia, un total de 27565 persones, han signat la carta oberta «Pause Giant AI Experiments: An Open Letter» la qual proposa una moratòria d'almenys sis mesos en el desenvolupament de la intel·ligència artificial. Els motius que avalen la proposta es basen en el ritme accelerat de diverses intel·ligències artificials, com ChatGPT. La IA presenta riscos, amenaces i vulnerabilitats significatives per als nostres drets i llibertats, així com per a la mateixa democràcia. Però també potencialitats: ens trobem davant d’un escenari incert on les regulacions per part del sector públic són més importants que mai.

Parlar avui dia d'intel·ligència artificial i l'avenç accelerat que presenta forma ja part de la societat. Però què succeeix quan una tecnologia tan innovadora, que hauria d'ajudar-nos a tothom per igual presenta biaixos que generen discriminació o racisme? L'any 2021 un estudi desenvolupat per la IE University va revelar que un 64,1% de les persones europees creuen que la tecnologia està reforçant la democràcia.

En aquesta línia, en la segona sessió del cicle de conferències «IA, Drets i Democràcia» del Canòdrom – Ateneu d’Innovació Democràtica de Barcelona, les expertes en ètica, política i tecnologia Paula Guerra Cáceres, Karlos Castilla i Paula Boet parlen sobre com construir una intel·ligència artificial de governança pública, auditable i en pro del bé comú. La falta de formació i divulgació dels algorismes d’aquesta tecnologia en la societat civil planteja un debat: com les persones es relacionen amb la IA, quins drets adquireixen i quins posen en risc?  

 

Els interessos polítics i les discriminacions inherents als algoritmes

L’informe «Quatre angles d'anàlisis de la igualtat i la no discriminació en la intel·ligència artificial (2022)» de l’Institut de Drets Humans de Catalunya i l’Open Society Foundation, afirma que la Xina, els Estats Units i el Japó, representen el 78% de totes les sol·licituds de patents d'intel·ligència artificial en el món. L’Àfrica i Amèrica Llatina són els països amb els nivells més baixos.

El document proposa una anàlisi dels efectes positius i negatius de la IA respecte a la igualtat i no discriminació a partir de quatre angles fonamentals que responen a les preguntes: on, qui, per a què i com es desenvolupa aquesta tecnologia. En aquesta línia, Karlos Castilla, investigador a l’Institut de Drets Humans de Catalunya, va exposar el cas d’una xerrada sobre IA on el missatge estava present en les imatges: van assistir una majoria d’homes blancs i una minoria de dones. I és que els estereotips de gènere i les discriminacions no només es codifiquen en els sistemes tecnològics. L’expert va indicar que aquest tipus de llocs serien espais que generen discriminacions.

 

Algoritmes que determinen si una denúncia és falsa o preveuen el nivell de probabilitat de reincidència d'un crim

No només les institucions i administracions públiques parlen dels desafiaments de la governança digital i l’elecció dels sistemes d’intel·ligència artificial en l'administració pública. També ho estan fent organitzacions de la societat civil que busquen donar a conèixer i reflexionar col·lectivament com estan dissenyats aquests algoritmes i quines solucions es poden aportar des de la perspectiva de defensa de drets en aquesta era digital.

En aquest sentit, Paula Guerra Cáceres de l’entitat Algorace, que es dedica a analitzar i investigar el racisme estructural i les seves conseqüències en l’àmbit digital, va presentar l’informe «Una introducció a la IA i la discriminació algorítmica per a MMSS» (2022) que «sorgeix amb la idea d'acostar la temàtica de la IA i l'impacte que té en persones i col·lectius racialitzats», va afirmar Guerra. Els nous processos de transformació digital relacionats amb la IA, així com les polítiques públiques que apliquen aquesta tecnologia, són regulats ignorant la veu de la societat civil organitzada.

Un d’aquests casos és VeriPol, una tecnologia basada en intel·ligència artificial que fa servir el processament del llenguatge natural per a analitzar denúncies policials. Prediu si la denúncia és falsa o no en funció dels detalls que doni la persona denunciant i la morfosintaxi que empri en parlar. Aquest algorisme ha estat fortament criticat pel fet que va ser creat amb una base de dades molt limitada, sota la supervisió d'un sol policia, la qual cosa no garanteix una aplicació justa que protegeixi els drets de qui denuncia. Un altre exemple es troba dins del sistema penitenciari de l’estat espanyol, el qual prediu el nivell de probabilitat de reincidència d'un crim tenint com a variables barris, grups demogràfics i fins i tot la localitat d'on prové la persona reclosa, la qual cosa reforça el sistema discriminatori i punitiu de la justícia.

 

Mecanismes per regular la IA

Aquest tipus de casos també s’observen en altres països del territori europeu. A Països Baixos va entrar en funcionament el sistema SIRI, el qual detecta i revela possibles fraus al Sistema de benestar, Hisenda o Seguretat Social mitjançant una avaluació de dades de les famílies beneficiàries d’ajudes estatals. Aquest algorisme va llançar com a resultat a les «possibles famílies defraudadores» de l'Estat, famílies treballadores i de classe mitjana, fomentant la discriminació i segregació a més d'una invasió a la seva privacitat. Un cas similar passa a l’estat espanyol, amb BOSCO, un programari desenvolupat per ordre del Govern que les elèctriques utilitzen per a decidir qui és beneficiari del denominat bo social elèctric.

En aquest sentit, per a combatre des de l’arrel la discriminació, el racisme i masclisme que implica l'ús de la IA a les nostres vides, l’Ajuntament de Barcelona ha creat el protocol «Definició de metodologies de treball i protocols per a la implementació de sistemes algorítmics» (2023). Segons Paula Boet, del Comissionat d'Innovació Digital - Fundació BIT Hàbitat de l’Ajuntament de Barcelona «és un document pioner respecte a la regulació i la governança dels sistemes algorítmics en l'àmbit local».

El protocol es basa en la proposta de regulació europea sobre la intel·ligència artificial i defineix, pas a pas, els mecanismes de garantia i salvaguarda de drets que s'han d'introduir a cada moment de la implementació d'un sistema d'intel·ligència artificial per part dels ens locals.

 

Intel·ligència artificial, comunicació i periodisme


La IA ja s'ha introduït sistemàticament en la comunicació, i de moltes formes diferents. En privat, la coneixem pels assistents de veu dels telèfons intel·ligents, per exemple, SIRI als dispositius mòbils o Alexa a les llars. En l’àmbit de la comunicació, ha obert una finestra d’oportunitats, amb una escletxa prou fosca de reptes, com és el cas de ChatGPT o programaris que generen imatges automàtiques de creació digital. Aquestes noves eines, faciliten la feina dels periodistes i comunicadores o les substitueixen? On està la frontera?

El 18 de maig continua el cicle «IA, Drets i Democràcia» amb la sessió «IA, comunicació i periodisme» amb Patrícia Ventura (investigadora en ètica, intel·ligència artificial i comunicació), Judith Membrives (tècnica de digitalització de Lafede.cat), Carles Planas Bou (periodista especialitzat en tecnologia a El Periódico) i Enric Borràs (subdirector del Diari Ara). Les quatre expertes posaran sobre la taula què suposa l’ús i la normalització de la intel·ligència artificial pel sector de la informació i la comunicació.