17 de Mayo de 2021

Algorights: «La justicia algorítmica pasa por una conversación previa entre personas tecnólogas, humanistas y ciudadanía»

algorights - intel·ligència artificial

 

El relato visionario sobre el Gran Hermano de Orwell parece más posible que nunca. Empiezan unos años en los que el gran algoritmo generador de datos tendrá información sobre nosotros, sesgos incluidos. A pesar de las demandas de un Internet libre y democrático durante los inicios de Internet, la red sigue reproduciendo la desigualdad estructural que observamos en la sociedad. Con motivo del Día Mundial de Internet entrevistamos al colectivo Algorights, una comunidad internacional de personas con conocimientos diversos, que trabajan para dar a conocer las implicaciones y las potencialidades que tiene la Inteligencia Artificial en la sociedad. Su propuesta basada en la justicia social plantea una conversación continua entre personas tecnólogas, humanistas y ciudadanía.

En los albores de Internet, los ciberutópicos concebían este espacio virtual como un lugar libre de privilegios y prejuicios generados por cuestiones de etnia, poder económico o fuerza militar.  ¿Cómo ha cambiado esta percepción?

Primero de todo, no debemos olvidar que Internet surgió como un invento militar de Estados Unidos durante la Guerra Fría para mantener comunicaciones estables en caso de guerra. Por ello, no es de extrañar que el movimiento ciberutòpic surge para pedir una Internet libre. Cada vez hay más voces críticas a esta concepción sobre la neutralidad del espacio virtual. Es cierto que no es ninguna novedad, ya que desde la publicación del Manifiesto Cyborg escrito por Donna Haraway a mediados de los ochenta, numerosas académicas y activistas ciberfeministas han fomentado la reflexión sobre la continuidad de las estructuras de poder y desigualdades en la red.

Sin embargo, el hecho de que cada vez haya un poco más de diversidad (aunque no la suficiente) en el desarrollo de tecnologías así como la proliferación de espacios participativos de experimentación con la tecnología (como los hacklabs), contribuye al pensamiento crítico sobre la tecnología. Sin embargo, este pensamiento crítico no está democratizado ni es accesible a parte de la población más vulnerable.

No todo el mundo accede a los laboratorios ciudadanos y los procesos participativos por parte de la administración no llegan a todos los estratos sociales. Las denuncias sobre la perpetuación de las discriminaciones, desigualdades y vulneraciones por parte de los sistemas socio-técnicos son muchas, pero consideramos que siguen faltando voces de la sociedad civil en los espacios de debate y es este el motivo por el que uno de nuestros objetivos es fomentar el conocimiento entre la población de todo tipo. En resumen, queremos ser uno de los agentes que inciden en la agenda política y que permiten cambiar esta percepción más allá de la academia.

Algorights ha comenzado recientemente de forma pública como un colectivo de defensa de los derechos y las libertades de las personas en el ámbito específico de la inteligencia artificial. ¿Quién forma parte actualmente y qué desea lograr?

La comunidad está formada por un grupo de más o menos 60 personas, con diferentes grados de participación y surge de las jornadas de inteligencia artificial (IA) y derechos humanos (DDHH) que se realizaron en 2020 organizadas por el Espacio sociedad Abierta. Tanto el nacimiento como el crecimiento y la organización han sido y están siendo movimientos orgánicos e inclusivos. En la comunidad hay personas con diferentes experiencias, conocimientos y de diferentes lugares geográficos, pero con el interés común de entender las implicaciones que tiene la IA en la sociedad, desde la perspectiva de la justicia social.

Nuestro principal objetivo es garantizar que el diseño, desarrollo y aplicación de la inteligencia artificial respete el marco de los Derechos Humanos ya existentes, así como aquellos que puedan surgir a raíz de la transformación digital. Por ello, podemos llevar a cabo diferentes estrategias y acciones, y todas pasan por acercar el debate sobre los riesgos de la digitalización de nuestras vidas a la sociedad civil.

Tant en l’àmbit europeu com estatal s’estan duent a terme grans esforços per regular els usos dels sistemes de reconeixement facial. A què ens estem exposant?

Tanto en el ámbito europeo como estatal se están llevando a cabo grandes esfuerzos para regular los usos de los sistemas de reconocimiento facial. ¿A qué nos estamos exponiendo?

Los sistemas de reconocimiento facial tienen como principal problema que utilizan partes del cuerpo humano, en este caso, la estructura facial, para identificar personas de manera inequívoca. Esto hace que si fuerzas policiales utilizan estos sistemas para reconocer personas en espacios públicos, se ejerce un desequilibrio de poder significante. No podemos negarnos a ser identificadas mediante reconocimiento facial, ya que no podemos sacarnos o cambiar nuestra cara de manera simple. Además, en los últimos años se ha demostrado que estos sistemas reproducen sesgos hacia individuos racialitzats.

Tras el asesinato de George Floyd por parte de oficiales policiales en EEUU, varias compañías tecnológicas (IBM, Amazon, Microsoft) decidieron detener la venta de estos sistemas a cuerpos de policía por la presión que recibieron por parte del movimiento #BlackLivesMatter.

Dentro de nuestro territorio, también se ha pedido una moratoria al Gobierno. En las últimas semanas, la Unión Europea ha publicado la primera regulación sobre IA, que considera estas aplicaciones de alto riesgo, e incluso prohíbe su uso en el espacio público. No obstante, mantiene excepciones que consideramos necesario vigilar de cerca, como el uso de reconocimiento facial para la prevención de ataques terroristas.

Los algoritmos facilitan algunos ámbitos de la vida: confirman las identidades y agilizan procesos de verificación. Pero también se ha podido observar que discriminan y tienen sesgos. ¿Cómo podemos hacer más justa la tecnología que no es neutra?

Generalmente se intenta hacer más justa la tecnología desde una perspectiva técnica y esta visión tecnosolucionista deja de lado los problemas estructurales de la sociedad que los causan. Para que la tecnología sea más justa es necesario poner el foco en cuatro aspectos: transparencia, auditoría, justicia y participación ciudadana.

Cuando hablamos de transparencia, nos referimos a saber cómo toma las decisiones el algoritmo. La herramienta de la auditoría nos permite conocer su funcionamiento y descubrir los datos que la alimentan, en la medida de lo posible. La idea de justicia se refiere a entender que el algoritmo no debe dar un resultado correcto, sino que debe ser justo desde un punto de vista de impacto social. Los algoritmos no saben de contextos; lo que hacen es buscar patrones, por lo que sus decisiones pueden ser correctas (encuentra un patrón concreto y dan la respuesta en función de ello), pero no siempre justas. Por ello, la implementación de algoritmos automatizados debe venir de una profunda reflexión y conversación previa entre personas tecnólogas y humanistas, pero sin dejar de lado a la ciudadanía, a la que hay que incluir en los procesos de diseño.

Hay que crear estas infraestructuras de participación y debate a la vez que se fomenta la transparencia y auditoría.

¿Puedes nombrar un caso representativo de los sesgos de la inteligencia artificial?

Son varios los ejemplos que muestran que los procesos automatizados corren el peligro de replicar y amplificar las opresiones y dinámicas de poder de nuestras sociedades. Muchos de los ejemplos más conocidos provienen del mundo anglosajón, pero, si ponemos la lupa en nuestro país, veremos que no somos inmunes a esta problemática.

En España, tenemos el ejemplo del programa Bosco, usado por el Gobierno para otorgar el bono social eléctrico. La organización CIVE denunció que se estaban negando ayudas a personas que tenían el derecho de recibirlas y llevó el caso ante el Consejo de Transparencia. Se le negó el acceso a la fuente del algoritmo, ya que se alegaron razones de protección intelectual. También hay otros algoritmos que identifican denuncias falsas dentro de las comisarías (Veripol) o que valoran el riesgo de víctimas de violencia de género, sin que hayan sido auditados por un cuerpo independiente. Es muy relevante para asegurar que no se vulneren derechos, que se analicen estos sistemas en auditorías y se publiquen sus resultados en pro de la transparencia y la rendición de cuentas.

Algorights es una red de colaboración internacional abierta, a la que cualquier persona o colectivo puede adherirse. ¿Qué perspectiva de futuro le mueve?

Algorights es una red colaborativa para promover la participación de las personas y de las organizaciones de la sociedad civil en el ámbito de las tecnologías de la IA desde un enfoque centrado en los Derechos Humanos. Una red que quiere promover y crear conocimiento en relación con la IA para contribuir a la democratización de la misma fomentando el pensamiento crítico y constructivo en la población.

De ahí, que esta comunidad promueva la diversidad de opiniones y visiones. El eje común, nuestra razón de ser, es que queremos unas políticas digitales centradas en las personas para una sociedad digital más justa y concebimos un futuro donde sea una realidad. Por eso formamos la comunidad!

¿Algo más que desee agregar?

Algorights es un espacio multidisciplinar, diverso y plural. Somos un conjunto de personas de diferentes ámbitos y con conocimientos muy variados que nos une querer que la sociedad civil tenga un papel clave en el desarrollo de la IA y lo hacemos a través del pensamiento crítico y la colaboración. Desde la comunidad debatimos en torno a diferentes temas para aprender y discutir diferentes visiones como herramienta de empoderamiento de todas las integrantes y de la misma comunidad. Para nosotros es muy importante generar espacios inclusivos de fortalecimiento del pensamiento crítico, sobre la diversidad y el respeto a diferentes maneras de aprender y también consideramos clave la existencia de espacios cuidadores. Espacios con y para las personas.

Estamos muy ilusionadas con el proyecto y aunque es un reto enorme, creemos firmemente en la democratización del conocimiento, la inteligencia colectiva y la fuerza de las comunidades organizadas.