If you're seeing this message, it means we're having trouble loading external resources on our website.

Si estás detrás de un filtro de páginas web, por favor asegúrate de que los dominios *.kastatic.org y *.kasandbox.org estén desbloqueados.

Contenido principal

Sesgo en reconocimiento facial

Los servicios de reconocimiento facial usan algoritmos de aprendizaje automático para escanear una cara y detectar el género, la raza, las emociones o incluso la identidad de una persona.
Aquí hay un ejemplo del resultado de un servicio de reconocimiento facial:
Captura de pantalla de un servicio de reconocimiento facial que opera en la cara de una mujer. Una serie de puntos se superponen a las características faciales y una leyenda dice "Femenina, edad 38" con gráficos de barras para diferentes emociones (rabia, disgusto, miedo, felicidad, tristeza, sorpresa, neutral).
Una sobreestimación de mi edad y de mi rabia. Fuente de la imagen: Visage Technologies

Exactitud sesgada

Desafortunadamente, los algoritmos de reconocimiento facial varían en su desempeño con diferentes tipos de caras. La investigadora del MIT, Joy Buolamwini, descubrió que tenía que llevar una máscara blanca para lograr que un servicio de reconocimiento facial pudiese ver su rostro.
Dos capturas de pantalla de una mujer que intenta utilizar la tecnología de reconocimiento facial. En la primera muestra su rostro fruncido sin ninguna característica reconocida. En la segunda muestra que lleva una máscara blanca, con todas las características reconocidas.
Fuente de la imágen: "The Coded Gaze, Unmasked"
Buolamwini formó un equipo con el investigador Timnit Gebru para probar la precisión de servicios populares de reconocimiento facial de grandes compañías (incluyendo Microsoft e IBM). Ingresaron a cada servicio un conjunto diverso de caras, y descubrieron un amplio rango de precisión en la clasificación de género. Todos los servicios funcionaron mejor con caras masculinas que con caras femeninas, y todos los servicios funcionaron de la peor manera con caras femeninas más oscuras.1
Una gráfica de barras de puntuaciones de confianza para tres grupos de caras: mujer más oscura, hombre más oscuro, mujer más blanca y hombre más blanco. El grupo masculino más blanco tiene las puntuaciones de confianza más altos y el grupo femenino más oscuro tiene los resultados de confianza más bajos.
Otro estudio del Instituto Nacional de Ciencia probó 189 algoritmos de reconocimiento facial con 18.27 millones de imágenes, y midió con qué frecuencia cada algoritmo reconoció que dos caras eran de la misma persona. Encontraron que los falsos positivos eran hasta 100 veces más probables para caras de Asia Oriental y caras Afroamericanas comparadas con caras blancas. 2

Inexactitud e injusticia

La exactitud de esos algoritmos es ahora un asunto de justicia penal, ya que los organismos encargados de hacer cumplir la ley han comenzado a usar el reconocimiento facial para identificar a los sujetos. Si los algoritmos de reconocimiento son sesgados, entonces las decisiones que resultan de la aplicación de la ley pueden estar sesgadas, lo que potencialmente puede llevar a falsos arrestos y a encuentros innecesarios con la policía.
En enero de 2020, la policía de Detroit usó tecnología de reconocimiento facial sobre imágenes de vigilancia de un robo, para arrestar equivocadamente a un hombre negro. Robert Williams fue arrestado en el jardín frente a su casa delante de sus hijos pequeños, le mostraron fotos de vigilancia del hombre que supuestamente era él, y estuvo detenido durante 30 horas. Williams dijo esto sobre las fotos de vigilancia: "Cuando veo la foto del tipo, solo veo un tipo negro grande. No veo ningún parecido. Pienso que no se ve como yo en absoluto". Finalmente le retiraron los cargos en una audiencia cuando un fiscal determinó que no había suficiente evidencia. 4

Movimientos en contra del reconocimiento facial

En enero de 2020, más de 40 organizaciones escribieron una carta al gobierno de EE.UU. solicitando un moratorio a los sistemas de reconocimiento facial, una suspensión hasta que la tecnología pueda ser revisada minuciosamente.3 El país todavía tiene que responder, pero varias ciudades y estados han promulgado moratorios a nivel regional.5
En junio de 2020, IBM anunció que ya no ofrecería un servicio de reconocimiento facial: "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluyendo tecnología de reconocimiento facial ofrecida por otros vendedores, para la vigilancia masiva, el perfilamiento racial, las violaciones de los derechos humanos y libertades fundamentales, o cualquier propósito que no sea consistente con nuestros valores y Principios de Confianza y Transparencia".6
🤔 ¿Hay situaciones en las que esté bien usar algoritmos sesgados de reconocimiento facial? Si desarrollaras un servicio de reconocimiento facial mediante aprendizaje automático, ¿cómo adquirirías un conjunto diverso de datos de entrenamiento?

🙋🏽🙋🏻‍♀️🙋🏿‍♂️¿TIenes alguna pregunta sobre este tema? ¡Nos encantaría contestarte; tan sólo pregunta en el área de preguntas más abajo!

¿Quieres unirte a la conversación?

¿Sabes inglés? Haz clic aquí para ver más discusiones en el sitio en inglés de Khan Academy.