Un interesante artículo en TechCrunch,“Machine learning and human bias: an uneasy pair“, me pone sobre la pista de algunas iniciativas de la policía de varias ciudades norteamericanas y su uso de herramientas de machine learning con el fin de predecir determinados crímenes, poner a determinadas personas en “listas calientes”, o calcular la frecuencia recomendable de patrulla en algunas áreas de la ciudad. Un uso que nos evoca de forma inmediata escenas de películas de ciencia-ficción como “Minority Report“ y su Departamento de Pre-crimen, pero que de manera efectiva ya lleva cierto tiempo siendo una realidad.
Un artículo de 2013 en Chicago Tribune relata cómo el Departamento de Policía de la ciudad utiliza herramientas analíticas para determinar qué personas tienen mayores posibilidades de aparecer implicados en crímenes violentos, y llega hasta el punto de visitar a esas personas para notificarles su inclusión en una lista determinada, en un intento de que corrijan su comportamiento al saberse objeto de un nivel de vigilancia superior. Acciones que serían completamente inaceptables en el contexto de muchos países, pero que la legislación norteamericana puede permitir en función de determinados parámetros.
En el estado de Alabama, la ciudad de Oxford utiliza una aplicación de machine learning que divide el territorio de la ciudad en recuadros de 150 metros de lado y trata de predecir en qué áreas es más probable que ocurra un crimen, de manera que los recursos policiales se asignen con mayor eficiencia. La aplicación, denominadaPredictive Policing Software, o PredPol, afirma utilizar únicamente datos públicos acerca del tipo de crimen, el lugar y la hora en la que tuvo lugar, sin hacer uso de datos personales procedentes de los ficheros policiales, simplemente haciendo análisis de frecuencias y tratando de reducir su incidencia mediante un incremento de la presencia policial en esas áreas.
¿De qué aprende una máquina? Mientras la llamada internet de las cosas no llene el mundo de sensores que les proporcionen ojos, oídos y sentidos de todo tipo, las máquinas aprenden, obviamente, de los datos con los que alimentamos sus algoritmos, datos que pueden estar sujetos a la subjetividad de las personas que los obtienen.
No se trata de demonizar nada ni de descartar de forma demasiado apresurada tecnologías que podrían ser enormemente útiles, sino de reconocer que cuando incorporamos a este tipo de algoritmos datos personales de cualquier tipo, el riesgo de incorporar en el aprendizaje de la máquina cuestiones como el lugar de residencia, el perfil racial o la religión y vincularlos a estereotipos definidos en base a la experiencia surge de manera inmediata. La transparencia a la hora de construir esos algoritmos o de decidir con qué datos deben ser parametrizados pasa a convertirse en un factor fundamental. Sin duda, una cuestión, los principios de equidad, responsabilidad y transparencia (FAT, Fairness, Accountability and Transparency) con los que se construyen los algoritmos de machine learning, que va a ir tomando importancia a medida que más y más decisiones pasen a estar determinadas por máquinas que aprenden.
No hay comentarios:
Publicar un comentario