Repensando la inteligencia artificial a través del feminismo

Desde una perspectiva feminista, realizamos un análisis crítico del aprendizaje automático de las inteligencias artificiales para encontrar prácticas más equitativas.

Sharon Hogge, ingeniera electrónico, con el robot centinela autónomo ROBART I y el robot industrial HT3. Maryland, 1983

Sharon Hogge, ingeniera electrónico, con el robot centinela autónomo ROBART I y el robot industrial HT3. Maryland, 1983 | The U.S. National Archives | Dominio público

La tecnología nos rodea y está por todas partes, pero cómo se produce esta tecnología y a quién beneficia realmente y a quién no continúa siendo una importante cuestión a investigar. En los últimos tiempos han surgido movimientos como el Data Feminism o la Design Justice, que analizan la tecnología desde una óptica más crítica con la intención de crear una mayor equidad en la práctica tecnológica. De la mano de su creadora, exploramos algunas de las implicaciones a partir del proyecto artístico Feminist Data Set, que explora cómo sería un sistema feminista interseccional de aprendizaje automático (machine learning) de etiquetado y de datos de entrenamiento (data training), y qué haría falta para construirlo

En estos tiempos que corren, con el resurgir del fascismo y una aparente pérdida de los valores de justicia social, y en plena era de la digitalización global, la justicia social es más importante que nunca a la hora de poner en cuestión los datos, la tecnología y la estructura de la sociedad como tal. Estamos absolutamente rodeados de tecnología pero ¿cómo se fabrica la tecnología? ¿quién se beneficia de ella profundamente y quién no? Son preguntas importantes que todavía no hemos resuelto y que deberíamos estudiar y analizar. Feminist Data Set es un proyecto artístico que parte del feminismo interseccional para cuestionar e investigar el aprendizaje automático. Dicha investigación se hace desde la perspectiva del diseño crítico puesto que el proyecto consiste en crear un bot conversacional desde cero, a partir de las premisas del feminismo interseccional, y que suscitan preguntas como: ¿qué es la recopilación de datos feminista interseccional? ¿cómo son los datos del feminismo interseccional?, ¿qué es la catalogación de datos y los datos de entrenamiento desde el punto de vista del feminismo interseccional? ¿existe un sistema o un producto feminista interseccional con datos susceptibles de ser etiquetados o de los que se pueda obtener datos de entrenamiento? ¿qué aspecto tiene el software feminista y qué hace? ¿existen algoritmos para el feminismo intereseccional? o ¿qué hace falta para que existan? ¿cómo sería un bot conversacional interseccional y cómo interaccionaría?

Políticamente y artísticamente, Feminist Data Set se inspira en la cultura maker, el diseño crítico, el Arte Útil, el Data Feminism, la Design Justice, el Critical Engineering Manifesto, el Xenofeminismo y los Principios feministas de Internet. Pedagógicamente, Feminist Data Set se sitúa en la línea de trabajos como The Toaster Project de Thomas Thwaites, una obra de diseño crítico consistente en fabricar una tostadora casera a partir de cero. Feminist Data Set aporta una mirada crítica y artística al programario, especialmente en lo que refiere al aprendizaje automático. ¿Qué significa crear un aprendizaje automático de manera consciente y teniendo en consideración cada aspecto posible del proceso de crear, reproducir y diseñar? Debería llevarse a cabo una revisión a fondo de cada parte de este proceso desde una perspectiva feminista.

Hay una tendencia creciente a analizar la tecnología desde un punto de vista crítico y ético –aunque en los últimos tiempos la palabra «ético» se ha vuelto polémica y se usa demasiado–, pero esta visión crítica es importante, sobre todo porque aporta más equidad a la tecnología como práctica y como entidad en sí misma –en el sentido de que la tecnología es una cosa concreta, ya sea software o hardware, y la práctica se refiere al modo en que un individuo o un grupo utiliza la tecnología para contribuir a sus procesos creativos y productivos. Libros recientes como Data Feminism, de Catherine D’Ignazio y Lauren Klein, generan una práctica que analiza datos y conjuntos de datos presentes en la sociedad y proponen nuevos métodos para hacer un mejor uso de los datos desde un punto de vista feminista. Design Justice, de Sasha Costanza-Chock, ubica la justicia social directamente en el mundo del diseño, de su elaboración y producción, y en la planificación del diseño como ejercicio y práctica.

Feminist Data Set | Caroline Sinders

Feminist Data Set | Caroline Sinders

Tanto Data Feminism como Design Justice se refieren al uso que hacen del diseño y de los datos las estructuras capitalistas y empresariales, y de cómo los tecnólogos con conciencia cívica, los movimientos de justicia social y los activistas se involucran en temas relacionados con los datos y el diseño. Ambos libros hablan de diseño y datos en contextos tanto empresariales como no empresariales, y consiguen una visión más holística y expansiva del uso de los datos y del diseño, abarcando desde el extremo más problemático –el empresarial– al más justo –el de la justicia social y el activismo. Sin duda hace falta explorar no solo estos dos extremos del espectro, sino también todos los espacios intermedios, lo cual confiere especial valor a Data Feminism y Design Justice en tanto que libros, metodologías y casos de uso. Feminist Data Set se posiciona de manera similar y cuestiona el aprendizaje automático no solo desde la práctica artística sino como un proceso estrechamente unido al diseño de producto y al mundo empresarial, poniendo así de manifiesto que la tecnología interpreta de manera incorrecta el concepto de aprendizaje automático y lo aplica erróneamente en cada elemento individual del entramado.

A menudo me doy cuenta de que las herramientas que necesito para conseguir que Feminist Data Set sea un proyecto artístico y crítico no existen. Por ejemplo, ¿qué es una plataforma feminista de datos de entrenamiento? ¿Existe alguna? En el aprendizaje automático, cuando se trata de etiquetar datos y crear modelos de datos para construir algoritmos, se recurre al Mechanical Turk, la mano de obra de Amazon, para realizar esta tarea. Amazon creó su Mechanical Turk para poner remedio a su problema particular de aprendizaje automático, por su necesidad de entrenar y etiquetar grandes conjuntos de datos. Es habitual utilizar el Mechanical Turk en proyectos de aprendizaje automático y se usa en todas las áreas de etiquetado de datos, desde empresas de tecnología hasta grupos de investigación. Mechanical Turk paga sueldos precarios a sus empleados y los considera trabajadores temporales en lugar de a tiempo completo, lo cual significa que tengan unos ingresos aún menores. Esto no es un tema específico del feminismo interseccional, así que no puedo usarlo para mi investigación… Tengo que buscar una alternativa, o construir una. Durante el último año me he dedicado a investigar cómo sería un sistema feminista interseccional de aprendizaje automático de etiquetado y de datos de entrenamiento, y qué se necesitaría para materializarlo. He creado una herramienta, similar a una calculadora, que traduce la cantidad de tareas que lleva a cabo un Turker y el coste de dichas tareas calculado en horas laborales. Por ejemplo, un cliente estipula diez mil tareas a cuatro céntimos cada una: la calculadora lo traduciría a las horas o días de trabajo que tardaría un Turker en hacer todas esas tareas y cuál sería su salario.

En este sentido, en Feminist Data Set el arte se combina con la investigación y la tecnología impulsadas por el ansia de justicia social, como ocurre con Turkopticon, ideado por la Profesora Lilly Irani y Mechanical Turkers. Turkopticon permite que en Mechanical Turkers se pueda valorar tanto los trabajos como los clientes. Esta mejora pone fin a un problema real al que se enfrentan los trabajadores, que a menudo no saben cómo es el cliente de turno y no tienen manera de compartir información con otros Turkers.

Ordenación de datos feministas recopilados en SOHO20, 2018 | SOHO20 Gallery / Rachel Steinberg

Ordenación de datos feministas recopilados en SOHO20, 2018 | SOHO20 Gallery / Rachel Steinberg

Para poder crear una inteligencia artificial feminista, necesitamos dinamitar la desigualdad salarial y de horas de trabajo en los sistemas de aprendizaje automático con datos de entrenamiento. En un artículo publicado en The Atlantic que investiga el trato recibido en Mechanical Turkers, se afirma que el problema «no es necesariamente que los solicitantes paguen por debajo del salario mínimo. El solicitante paga una media de 11 dólares la hora por los servicios obtenidos», según Hara, «pero también hay muchos que pagan menos y hay muchos otros que publican encargos que se tarda más en hacer de lo que ellos afirman. Aun así, el problema real es que estas plataformas permiten que los solicitantes se ahorren remunerar a los trabajadores por sus períodos de inactividad que existirían si estuvieran contratados a tiempo completo».

En un artículo de investigación, coescrito por Kristy Milland, investigadora y Mechanical Turker, sostiene que el salario medio era de unos dos dólares la hora, aunque solo el 4% de los Turkers ganaba más de 7,25 dólares la hora.

¿Cómo sería una versión feminista de Mechanical Turk? ¿Qué necesitaría?

La igualdad y la paridad salariales representarían un paso hacia la consecución de la igualdad tanto en lo que respecta a la tecnología como a la sociedad. Los trabajadores deberían percibir una remuneración no solo por realizar una tarea asignada sino también por el tiempo que ha destinado a buscar trabajo y a organizar las tareas. Su sueldo debería, además, ser digno. Las empresas que fomentan la «economía de bolos» deberían regirse por la legislación laboral vigente.

Debemos tomarnos muy en serio este extremo y observarlo con espíritu crítico si queremos lograr la igualdad, es decir, hay que poder comentarlo e interpretarlo. Debemos tener claro el papel que desempeña la creación de datos y no olvidar que los sistemas pueden usar, abusar o beneficiarse de los mismos y que a su vez, deben entenderse como un producto que ha surgido de la comunidad, y que amén de ser su reflejo, su propiedad es un punto clave. La ubicación de los datos en los sistemas tecnológicos es una cuestión política, activa, íntima. Con el fin de conseguir la igualdad en el aprendizaje automático, es preciso analizar cada aspecto del sistema, diseccionarlo, construirlo de nuevo integrando las realidades, contextos y limitaciones de todas las tipologías de personas existentes y no solo de aquellas que construyeron la primera web. La tecnología tiene que representar a todos los integrantes de la red actual.

Ver comentarios0

Deja un comentario

Repensando la inteligencia artificial a través del feminismo