La inteligencia artificial permite que decisiones que hasta ahora tomábamos los humanos puedan automatizarse mediante algoritmos informáticos. Aunque buena parte de esas decisiones se hallan en el campo del entretenimiento y las redes sociales, también las encontramos en las finanzas, la educación, el mercado laboral, las aseguradoras, la medicina o la justicia. Ante este fenómeno, de implicaciones sociales profundas, aparecen varias preguntas: ¿qué pasará con los puestos de trabajo asociados a esas tomas de decisiones? ¿Cómo podemos garantizar que esos algoritmos tomen decisiones justas?
Mary Bollender es una madre soltera de Las Vegas con problemas económicos. Una mañana de 2014, al encontrarse enferma su hija de diez años, con una fiebre alta persistente, Mary decidió tomar el coche y llevarla a urgencias. Pero no pudo porque su coche no funcionaba. No es que estuviera averiado ni que no tuviera suficiente gasolina. El banco había desactivado el motor del coche remotamente al observar que Mary se había retrasado tres días en el pago del préstamo. Una vez pagara, el automóvil volvería a funcionar. Desgraciadamente, Mary no podía pagar aquella mañana.
A medida que nuestra sociedad se hace más compleja y la digitalización de datos personales se vuelve más y más masiva, nos encontraremos cada vez más casos como los de Mary Bollender: decisiones automatizadas basadas en recopilar de forma sistemática nuestros datos personales y con efectos negativos para nuestra vida. Los algoritmos que ordenan las noticias de nuestros amigos de Facebook o que nos recomiendan películas en Netflix son también los algoritmos que deciden si el banco nos dará o no un préstamo, si un detenido puede salir bajo fianza, si nos merecemos una beca posdoctoral o si estamos a la altura para que nos contrate una empresa.
Estos programas de ordenador, estos algoritmos, no son resultado de un análisis y desglose del problema por parte de programadores humanos, que dan instrucciones precisas a un ordenador. Estos programas son fruto de complejas operaciones matemáticas desarrolladas automáticamente que buscan correlaciones y patrones útiles en un océano de datos digitalizados. No son como una receta de cocina en la que se nos dice qué ingredientes necesitamos y nos desglosan paso a paso cómo utilizarlos. Se parece más bien a «abre la nevera, mira qué hay, trastea por la cocina a ver qué cacharros puedes utilizar y prepárame una comida para seis personas.» Este tipo de algoritmos, que no están diseñados de forma explícita por un programador, se conocen como «aprendizaje automatizado» (machine learning).
Los algoritmos que actualmente procesan si una persona podrá o no devolver el crédito que está pidiendo a un banco funcionan así. La programadora del algoritmo recopila una base de datos de personas que han pedido un crédito anteriormente e incluye todo tipo de datos: sexo y edad de la persona, si devolvió todo el crédito o no, si se retrasaba en los pagos y con qué frecuencia, cuál era su sueldo medio, cuánto pagaba a hacienda, en qué ciudad y barrio vivía, etc. El algoritmo aplica una serie de fórmulas estadísticas a esos datos y acaba generando unos patrones que le permiten estimar la probabilidad de que un nuevo cliente potencial acabe devolviendo el préstamo o no. Estos algoritmos se desarrollan normalmente con la fiabilidad como único criterio. ¿El programa es suficientemente bueno como para substituir a un humano? Pues adelante con él.
Establecer la fiabilidad es algo complicado. Desarrollar un algoritmo automatizado realmente fiable tiene tanto de ciencia como de arte. Inevitablemente, cuando pensamos en programas de ordenador e inteligencia artificial, tendemos a antropomorfizarlos e imaginar que siguen trenes de pensamiento parecidos a los nuestros. Pero, en realidad, no es así. Un algoritmo automatizado no analiza los ejemplos que le damos e intenta establecer algún tipo de conexión causal, razonable, entre los datos y el resultado final. El algoritmo no sabe nada de género, edad, condiciones económicas, paro, etc. Simplemente tiene una ristra de números e intenta encontrar patrones que le permitan acertar el mayor número de veces.
Y aquí es donde aparece el problema. Un programa tradicional, desarrollado por un humano, sigue una lógica, con lo que es posible entender qué está haciendo ese programa. Un algoritmo automatizado es como una caja negra. Le damos una entrada (los datos de la persona que pide el crédito) y nos da una salida (la probabilidad de que devuelva o no el crédito). Es muy complejo ─o prácticamente imposible─ saber por qué el programa ha decidido rechazar o aceptar un crédito.
En la década de los ochenta, el ejército estadounidense encargó a unos científicos que desarrollaran un sistema automático de reconocimiento de imágenes para poder detectar en tiempo real tanques camuflados. Los científicos pidieron a los militares una buena colección de fotos organizadas en pares: una de un lugar sin tanque, la otra del mismo lugar, pero con un tanque camuflado, para que así un algoritmo automatizado fuera capaz de establecer una serie de criterios para localizar un tanque. El programa funcionó especialmente bien.
Su fiabilidad era del cien por cien. De hecho reconocía tanques que estaban tan bien camuflados que un humano no sabía reconocerlos. Ello sorprendió mucho a los investigadores, y decidieron analizar qué criterios estaba siguiendo el algoritmo. Después de examinar en detalle las fotos y el algoritmo, se dieron cuenta de que, en realidad, el programa no reconocía tanques ni nada parecido. Digamos que los militares hicieron las fotos de los lugares sin tanque al mediodía. Las fotos con tanque camuflado se hicieron a las seis de la tarde. Así, el algoritmo, para decidir si había tanque o no, lo único que hacía era mirar la posición del sol.
Nos gusta imaginarnos que los coches autónomos guiados con algoritmos tienen algún tipo de comprensión de lo que es una carretera, un semáforo, un paso de peatones, un ciclista, otro automóvil, etc., pero lo único que hacen son versiones más sofisticadas de la historia de los tanques. Su aprendizaje es muy contextualizado y depende completamente de cómo responde el entorno en el que esos algoritmos se entrenaron. Al tratarse de cajas negras, nunca podremos saber con seguridad cómo reaccionará un coche autónomo si el contexto es suficientemente diferente del original en el que se entrenó el algoritmo.
Con suficientes entrenamientos en contextos muy variados, podemos disponer de algoritmos realmente fiables y robustos. Pero sigue habiendo un problema aún más insidioso. El de la justicia. Al no estar basados esos algoritmos en un conocimiento propiamente dicho del entorno, sino en establecer regularidades contextuales, basadas en un número finito de datos, ningún algoritmo considerará reactivar el automóvil de Mary Bollender para que pueda llevar a su hija al médico. Es un algoritmo que solo sabe quién ha pagado las cuotas y quién no. En un barrio con un alto nivel de pobreza, la tasa de morosidad es mucho más elevada. Un tanto por ciento elevado de madres solteras tienden a retrasarse en los pagos de hipotecas y préstamos. Un algoritmo automatizado sin duda denegaría un préstamo a una madre soltera de ese barrio empobrecido. La decisión sería sin duda estadísticamente correcta. Pero, ¿sería justa? ¿Queremos vivir en un mundo en el que decisiones relevantes para nuestra vida se basen en regularidades estadísticas dependientes del contexto?
Los desarrollos actuales de algoritmos automatizados de la inteligencia artificial necesitan de las humanidades. Hay que definir infraestructuras para que ingenieros y humanistas colaboren. Necesitamos establecer un lenguaje común. Que sociólogos, antropólogos, filósofos, artistas, entiendan los mecanismos básicos de cómo funciona toda esta nueva familia de programas y que los ingenieros informáticos piensen en cómo adecuar principios éticos, de convivencia, justicia y solidaridad en el desarrollo de nuevo software. Quizás algún día alcanzaremos a desarrollar esa superinteligencia artificial que tanto preocupa a Elon Musk. Ahora mismo debería preocuparnos mucho más cómo programas ya existentes pueden amplificar los sesgos racistas, xenófobos y sexistas existentes en nuestra sociedad.
Ramon Sangüesa | 14 marzo 2017
Buen post!.
Gracias por remarcar estos aspectos del desarrollo de algoritmos de IA. Es un problema que no queda restringido a la IA solamente, claro está, sino a todos los ámbitos donde unse ha programado un algoritmo que toma decisiones por o sobre nosotros.
Dentro de la comunidad tecnológica hay un grupo bien consciente de estos problemas y que colabora con otras disciplinas de ámbitos no tecnológicos: Fairness And Acountability and Transparency in Machine Learning (FAT-ML http://www.fatml.org/). Se centra, sobre todo, en como garantizar la equidad en los algoritmos de aprendizaje automático que, como sabes, son un parte importante de los algoritmos de IA, El año pasado co-organizamos la conferencia en NYC y espero acercarla aquí el 2018.
En cierta medida lo que comentas también es una preocupación de los participantes en la reunión de la semana pasada en Barcelona que dió lugar a la Declaración de Barcelona para el desarrollo y uso correcto de la Inteligencia Artificial: http://www.lavanguardia.com/ciencia/fisica-espacio/20170309/42678964251/barcelona-manifiesto-bases-inteligencia-artificial-europa.html
Saludos!
Ramon Crehuet | 15 marzo 2017
És un article molt interessant però crec que culpabilitzes massa la manca de comprensió de l’algorisme com a causant de la manca de justícia. La frase de «els diners no tenen principis» l’he sentida més d’un cop, i no la deia un algorisme. I em temo que, per una mare soltera en un barri empobrit, aconseguir un crèdit ja era difícil abans del Machine Learning.
De la mateixa manera, has demostrat que sí que es pot saber en què es basa un algorisme de Machine Learning quan has explicat que van poder entendre que només la posició del sol determinava el resultat d’on hi havia un tanc i on no. Cal, és clar, la voluntat i l’esforç d’entendre-ho, que potser sovint no hi és. Per cert, l’eficàcia del predictor no era de 100%! N’hi havia prou en donar-li una foto sense tanc presa a les sis de la tarda. L’error va ser clarament humà.
I és que, en general, els criteris que volem que segueixi l’algorisme els triem nosaltres. Però potser en un moment diferent del qual l’algorisme s’aplica, i això en difumina la responsabilitat. Les coses que no vam tenir en compte en el moment de disseny ens xocaran quan veiem la decisió injusta de l’algorisme. Per tant, calen articles com aquests que ens ho recordin.
David Casacuberta | 16 marzo 2017
Gràcies pels vostres comentaris, Ramons.
No coneixia la iniciativa FAT-ML, que trobo molt necessària. Queda apuntada.
És cert que la manca de transparència de l’algorisme no és ni molt menys la única font d’injusticia. Ni tan sols la principal. Només cal pensar en com està dissenyat l’algorisme darrere el negoci d’Uber. Simplement volia destacar una font extra d’injustícia de la que normalment no som conscients.
Efectivament l’algorisme no era ni molt menys 100% efectiu. Era un algorisme ben dolent en realitat. El que volia indicar és que, quan van fer la primera prova, amb les primeres fotos amb i sense tancs, la impressió general era que tenia un 100% d’efectivitat perquè localitzava tots els tancs, per molt amagats que estiguessin.
Deja un comentario