Enfrentando el sesgo de género en la tecnología de reconocimiento facial

Tecnologia
Typography

El software de reconocimiento facial ha estado en problemas en los últimos meses. Investigadores, expertos de la industria, empresas y legisladores han planteado preocupaciones que van desde posibles repercusiones en la privacidad hasta su papel en la discriminación.

La tecnología de reconocimiento facial ha avanzado mucho. El campo ha evolucionado rápidamente y el software ahora puede procesar automáticamente cantidades asombrosas de datos faciales en tiempo real, mejorando drásticamente los resultados (y la confiabilidad) de la coincidencia en una variedad de casos de uso.

A pesar de todos los avances que hemos visto, muchas organizaciones todavía confían en el mismo algoritmo utilizado por la base de datos de Bledsoe, conocido como "k vecinos más cercanos" o k-NN. Dado que cada rostro tiene múltiples coordenadas, una comparación de estas distancias en millones de imágenes faciales requiere un procesamiento de datos significativoEl problema

Los algoritmos que se utilizan hoy en día para el reconocimiento facial dependen en gran medida de los modelos de aprendizaje automático (ML), que requieren una formación significativa. Desafortunadamente, el proceso de capacitación puede resultar en sesgos en estas tecnologías. Si la capacitación no contiene una muestra representativa de la población, ML no identificará correctamente la población perdida.

Si bien esto puede no ser un problema significativo al hacer coincidir rostros para plataformas de redes sociales, puede ser mucho más dañino cuando las agencias gubernamentales y las fuerzas del orden utilizan el software de reconocimiento facial de Amazon, Google, Clearview AI y otros.