30 de Marzo de 2023

¿Qué está pasando con la inteligencia artificial? Nociones básicas con Maria Vanrell y Carlos Castillo

Què està passant amb la intel·ligència artificial? Nocions bàsiques amb Maria Vanrell i Carlos Castillo

¿ChatGPT? ¿Creación de imágenes? ¿Traducción de textos? ¿Automatización de asignación de hipotecas o ayudas sociales? ¿Qué está pasando con la inteligencia artificial? ¿Qué son todas estas nuevas herramientas que se están incorporando en nuestro día a día? Recupera las ideas que han compartido Maria Vanrell y Carlos Castillo en la primera sesión del ciclo «IA, Derechos y Democracia»: «WTF, ¿inteligencia artificial? Riesgos y potencias».

Que la expresión compleja «inteligencia artificial» (IA) sea la palabra del año 2022 es sintomático de la atención mediática que hay sobre esta tecnología. A pesar de llevar 50 años aplicándose para hacer más sencillos procesos complejos, es ahora cuando ha logrado ganar espacio en la cotidianidad de las personas y presencia en medios de comunicación e industria. Esto también ha provocado que se generen polémicas respecto a su mal uso. 

Es por eso que la Unión Europea ha comenzado a crear regulaciones para un uso ético de estas herramientas, que han llegado para quedarse. El 2022 se planteó la implementación de normativas que generen un uso responsable de la IA, que deberán ser aplicadas y estar vigentes en todos los países miembros de la Unión Europea.

Si bien es necesario establecer desde el marco jurídico leyes para proteger a la ciudadanía de futuras y posibles amenazas de la IA y sus avances agigantados, también es de suma importancia la alfabetización de la sociedad en esta materia. En esta línea, el Canòdrom – Ateneo de Innovación Digital y Democrática ha iniciado el ciclo de conferencias «IA, Derechos y Democracia», donde se analizan estas herramientas desde una perspectiva de derechos y democrática. En la primera sesión, «WTF, ¿inteligencia artificial? Riesgos y potencias», las investigadoras y expertas en inteligencia artificial Maria Vanrell y Carlos Castillo proponen desde su conocimiento y experiencia un aterrizaje práctico a la IA.

 

Escucha en Podcast en la XRCB de Radio Canòdrom


Redes neuronales que se entrenan a través de ejemplos

Explica Maria Vanrell, catedrática en la UAB y coordinadora del máster interuniversitario de Visión por Computador, que la base de la inteligencia artificial está inspirada en el cerebro humano. Se trata de redes neuronales profundas que funcionan, aprenden y se entrenan a través de ejemplos: fotografías, textos e incluso su experiencia sobre los errores cometidos en el proceso de reconocimiento y asignación de categorías.

Para comprender el vasto mundo de la inteligencia artificial primero debemos entender qué es un «algoritmo». Vanrell establece que es un conjunto de reglas programadas en forma de función que están hechas para resolver un problema. Una vez establecida la base, nos adentramos en su desarrollo. Estén presentes o no los sesgos en la función, estos pueden ir tomando fuerza por los datos que se procesan.

Los sistemas de IA son una herramienta que ha agilizado la vida de las personas, pero poco a poco ha empezado a surgir una alerta por la discriminación automatizada que presentan los algoritmos. Maria Vanrell clarifica que un sesgo es una predisposición socialmente construida, y que lo más natural es que los algoritmos presenten sesgos en su programación. Vanrell considera que estas cuestiones y dudas pueden causar temor e incertidumbre en la sociedad, que siente una amenaza que no puede palpar.

¿Cómo se establecen los sesgos en algo a priori tan objetivo y matemático como un algoritmo? Estamos rodeados de tecnologías que contienen algoritmos, ya sea en el móvil o en el cajero automático. Actualmente, el uso de tecnologías digitales y plataformas genera una ingente cantidad de información: datos bancarios, domicilio, género, gustos y preferencias o comportamiento. A partir de recoger estos datos, se generan categorías en las cuales la persona es asignada. Así, cuando se solicite una hipoteca, una ayuda social o cuando se aplique a una oferta laboral, es más que probable recibas un tipo de respuesta u otra.

Ahora bien, la detección de estos sesgos es compleja debido a la cantidad de neuronas que están presentes en este tipo de redes. Para resolver esta cuestión, Carlos Castillo, profesor en la UPF donde dirige el grupo de Ciencia Web y Computación Social, entra en la ecuación.

 

Detectar sesgos en el entorno laboral a través de estadísticas

Aunque es un trabajo complicado, es posible detectar los sesgos a través de métodos estadísticos. A menudo se intenta determinar las inequidades y desigualdades controladas por algunas variables que determinen la discriminación, explica Carlos Castillo.

Subraya que «cada vez que creamos un algoritmo basado en datos de entrenamiento, en esos datos de entrenamiento hay pequeños y a veces grandes sesgos que el sistema tiende a amplificar». Gracias a la aplicación de métodos estadísticos, en particular la «auditoría algorítmica», es posible analizar si un algoritmo funciona de manera correcta y a la vez posibilita conocer si existe algún tipo de sesgo en el sistema.

Uno de los ámbitos donde se producen más discriminaciones es el sector laboral. Castillo cita un estudio que realizó su grupo en 2017, en el que se observa como los algoritmos de los portales laborales tienden a exagerar diferencias de género preexistentes en profesiones como economista, analista o editor. Los sistemas de ordenamiento no visibilizan a mujeres profesionales acorde con la realidad. Si se observan los diez primeros resultados en un portal de empleo, solo aparece una mujer, por lo cual da la impresión de que solo existe un 10% de mujeres en esta profesión.

Para reconducir situaciones de discriminación en el entorno laboral, en 2022 el Gobierno del estado español presentó una guía práctica para el uso de la IA y sus herramientas en el sector laboral. En esta guía se exponen las obligaciones que deben asumir las empresas al momento de realizar contrataciones de personal, para garantizar el derecho vital de la no discriminación.

La tecnología, sus usos y posibles aplicaciones son herramientas que deberían ser empleadas a nuestro favor, pero en algún punto pueden ser mal utilizadas y aplicadas de forma negativa en la sociedad. Es por esta razón que debe existir una regulación, una auditoría constante, con el fin de velar por los derechos de las personas, sus datos personales y su futuro.

 

Inteligencia artificial, políticas públicas y discriminaciones

Quedan muchos retos pendientes, uno de los cuales es: ¿cómo construir una inteligencia artificial de gobernanza pública, auditable y en pro del bien común? ¿Como abrir y hacer común algo que se nutre de ingentes cantidades de datos y saberes acumulados a lo largo de la historia de la humanidad, pero que tiende a ser gobernado con un pequeño grupo de empresas tecnológicas?

El 20 de abril continua el ciclo «IA, Derechos y Democracia» con la sesión «Inteligencia artificial, políticas públicas y discriminaciones» con Paula Boet, (Ajuntament de Barcelona), Karlos Castilla (Institut de Drets Humans de Catalunya) y Paula Guerra (Algorace). Las tres expertas ponen sobre la mesa en qué están trabajando para corregir las discriminaciones automatizadas de los algoritmos en políticas públicas.