Ashwin Singh: «La prioridad de los beneficios corporativos sobre los derechos ciudadanos genera desconfianza»

En el Decidim Fest 2023, hablamos con Ashwin Singh, activista queer bahujan que trabaja en el estudio de las barreras sociales, jurídicas e institucionales que enfrenta la comunidad queer en la IA.

Las tecnologías de inteligencia artificial están ganando cada vez más terreno, pero también existe una creciente preocupación por los sistemas que generan opresiones hacia la diversidad sexual y de género. Estas tecnologías afirman ser capaces de identificar a las personas LGBTQI+ analizando sus rasgos faciales, voz, conexiones sociales, pertenencia a grupos, comportamiento de clientes e incluso filtros de fotos de perfil. Sin embargo, el software es incapaz de determinar con precisión la orientación sexual y la identidad de género de las personas, ya que estas características personales y profundamente sentidas no pueden discernirse únicamente a partir de factores externos, pueden cambiar con el tiempo y pueden no ajustarse a las construcciones occidentales o a los conjuntos de datos utilizados para entrenar la IA.

La consecuencia es que estos sistemas operan censurando y degradando los contenidos de las personas LGTBIQ+, exponiéndolos al acoso al hacerlos hipervisibles; perpetúan el deadnaming, utilizando nombres anteriores a sus transiciones en ciertos momentos, y revelan sus identidades sin consentimiento, rompiendo así su intimidad. En respuesta a este panorama, la comunidad queer en la inteligencia artificial ha levantado ‘**Queer in AI**’, una organización global, descentralizada y dirigida por voluntarios, que abraza el diseño participativo interseccional y liderado por la comunidad queer para construir un futuro tecnológico más inclusivo y equitativo.

Desde su experiencia, Ashwin nos inspira a cuestionar los métodos de participación e inclusión dentro de la IA, a reconocer las comunidades digitales queer que están transformando el diseño de los sistemas para crear un tejido más rico y humano del desarrollo tecnológico.

¿Cuáles son los riesgos que la IA puede comportar para la democracia?

Una parte significativa del uso poco ético de la IA recae en las grandes corporaciones tecnológicas y empresas privadas, que están mal equipadas para hacer frente a los peligros que generan los sistemas, especialmente en su diseño.

Desde la perspectiva de la regulación, que es el área en la que trabajo, es desde donde se pueden minimizar daños. Cuando los sistemas de IA causan daños, realmente no podemos confiar en sus creadores, que son mayoritariamente grandes empresas, para regularlos. Esto es porque a menudo priorizan los beneficios sobre la seguridad de las personas.

¿Cuáles son las amenazas?

Esto supone una amenaza para la democracia porque hay una pérdida de confianza. Cuando el gobierno u organización que gobierna el país no salvaguarda los derechos de la ciudadanía ante las grandes corporaciones tecnológicas que priorizan los beneficios sobre su seguridad, se crea una situación de desconfianza. Esta desconfianza es una amenaza importante porque tiene consecuencias reales sobre las personas.

¿Algún ejemplo concreto?

Un ejemplo que me viene a la mente es el caso de la India, donde en los aeropuertos utilizan tecnologías de reconocimiento facial para asegurar que los datos sean coherentes con los pasaportes de las personas. Esto a menudo implica también el género. Como persona no binaria, si me visto de manera femenina y hay una incoherencia, habrá una consecuencia muy real para mí y mi identidad.

En el campo de la inclusión, muchas veces las formas más comunes dentro de la inteligencia artificial utilizan métodos que extraen y explotan la participación de las comunidades, o bien hacen un «lavado de participación e inclusión». Esto significa que parece que incluyen a la comunidad, pero en realidad no lo hacen de manera justa. Por ejemplo, un informe reciente muestra cómo OpenAI utilizó prácticas laborales explotadoras para hacer que ChatGPT fuera menos tóxico, haciendo que los trabajadores kenianos vieran contenidos muy angustiantes sin darles suficiente apoyo para su salud mental.

Por eso es importante implicar a la comunidad y las organizaciones LGTBIQ+ en el diseño y la evaluación de los sistemas de IA para revocar cualquier tecnología que intente identificar el género y la orientación sexual.

¿Cuáles son las consecuencias de estas incoherencias de las que hablas?

Cuando hay sistemas de IA en estos tipos de áreas, las personas que se oponen a menudo son una minoría y siempre hay consecuencias negativas si estás en contra. Si entras en conflicto con la ley por una incoherencia en el reconocimiento facial, esto tiene consecuencias negativas en tu vida. Esto realmente agota la confianza de la gente en los órganos de gobierno, porque los derechos no se protegen realmente y las tecnologías actúan contra las mismas identidades LGTBIQ+.

¿Qué podemos hacer para abordar estas problemáticas?

Hay tres principios que podemos tener en cuenta para aumentar la conciencia sobre las cuestiones de diversidad sexual y de género en la IA: la organización descentralizada, la interseccionalidad y las iniciativas lideradas por la comunidad.

También, es esencial que los gobiernos tomen medidas para regular las tecnologías de IA, asegurando que prioricen la seguridad y los derechos de las personas sobre los beneficios económicos. Esto requerirá una colaboración estrecha con expertos en ética, derechos humanos y tecnología para crear regulaciones que protejan a las personas y restauren la confianza en los sistemas democráticos.