Investigadores presentan un test para comprobar si los algoritmos caen en discriminaciones sociales al realizar sus predicciones.
PC World en Español
La computadoras actuales son capaces de manejar enormes volúmenes de información -eso que se llama Big Data- en menos de un segundo, de cruzar millones de datos para realizar macropredicciones con las que antes no se podía ni soñar.
A las máquinas se les presupone, además, algo de lo que las personas muchas veces no gozan: imparcialidad. Pero, si los sistemas que programan y utilizan esos algoritmos han sido, a su vez, creados por humanos, ¿también discriminan como ellos?
Distintas voces y estudios así lo afirman desde hace tiempo. El software de reconocimiento de habla de Google detecta con más precisión las voces masculinas que femeninas, por ejemplo. Los algoritmos que utiliza la Policía de Los Ángeles para predecir delitos también tienen una no siempre justificada fijación con los barrios con más población negra.
Un sesgo que quizá tenga que ver con el paisaje social de Silicon Valley, donde las empresas que deciden la vanguardia tecnológica del mundo suelen estar compuestas por una mayoría de trabajadores varones y blancos.
En 2015, por ejemplo, el 60% de los empleados de Google eran hombres. La proporción de trabajadores blancos sobre otras minorías era similar, al igual que las estadísticas registradas en otras compañías.
Como afirma Rachael Tatman, la investigadora de la Universidad de Washington que detectó la brecha de género en el reconocimiento de voz de Google, este tipo de discriminaciones no responden a malicia, sino a que quienes las programan no tienen en cuenta la variedad demográfica de los usuarios que quedarán expuestos a esos algoritmos. Pero eso no significa que no necesiten una solución.
Moritz Hard, un científico que trabaja, precisamente para Google, es uno de los investigadores implicados en un estudio que propone un test capaz de detectar brechas de este tipo en los algoritmos y que fue presentado recientemente en la conferencia Neural Information Processing Systems (NIPS).
Su propuesta, titulada ‘Igualdad de oportunidades en el aprendizaje supervisado’, defiende que las decisiones que los algoritmos realizan sobre las personas no deberían depender de detalles como su raza o su sexo.
En una entrada en el blog de investigación de Google, Hard explica que todos los algoritmos de predicción cometen errores, pero que de lo que se trata, al menos en este caso, es de intentar que no exista un grupo de población que experimente una cantidad desproporcionada de esos fallos.
El científico pone como ejemplo un hipotético sistema para predecir qué individuos tienen mayor riesgo de no devolver un préstamo, en el que algún error incluyese en la categoría de posibles morosos a ciudadanos que sí pagan. Si el grueso de esos ciudadanos mal clasificados tuviera algún atributo ‘sensible’, como la pertenencia a un sexo o grupo étnico, el impacto del uso del algoritmo sería muy perjudicial, alerta Hard.
La metodología que él y sus colegas proponen busca medir y prevenir la discriminación en la que los algoritmos pueden caer. Como punto de partida, escribe, hay que tomar conciencia de que para que las conclusiones de un algoritmo no discriminen a nadie, tampoco deben hacerlo sus primeras clasificaciones, es decir, que las predicciones o análisis en ningún caso pueden depender de factores sensibles como la raza o el género de los individuos a los que miden.
La propuesta no solo mide el sesgo de los algoritmos, sino que también quiere “reajustarlo”. Y propone hacerlo desplazando el costo de los errores de las predicciones, que ahora mismo impactan en los individuos a las que éstas discriminan, a quienes decidieron que éstas funcionaran así.
El test supera otras aproximaciones anteriores al problema, que para Hard resultan más ingenuas o incompletas, como la de eliminar de los algoritmos cualquier atributo que pudiera ser objeto de discriminación.
Esta propuesta consigue analizar sistemas que muchas veces resultan opacos e inescrutables incluso para los ingenieros que los programaron, lo que ha motivado las críticas de quienes creen que todavía hay que trabajar en soluciones que muestren de forma aún más transparente cómo funcionan esos algoritmos que algún día pueden llegar a decidir tanto en nuestras vidas.
Mientras tanto, algunas voces piden dejar para más adelante -para cuando lo entiendan y puedan ajustar mejor- lo de poner a máquinas al frente de decisiones con impacto, para que noticias como la del concurso de belleza juzgado por algoritmos que no escogía a concursantes negros se queden en una anécdota.