Grado de dificultad: 2 (Reconocer a la gente no es tan fácil).

Columnista: Redacción

Es siempre interesante escuchar a la gente hablar de su disciplina. Sus palabras suelen, involuntariamente, revelar muchas cosas.

Twitter, último en descubrir que el agua moja

Una noticia acabó de alborotar las redes sociales, y fue reportada en los periódicos especializados, como en la BBC (artículo en inglés):

Twitter investigates racial bias in image previews

El ejemplo tomado es políticamente muy caliente en la actualidad …

Este tema del reconocimiento facial, lo hemos tratado en un artículo anterior:

Reconocimiento facial y confiabilidad

Los “duros” de Twitter activaron el modo “mitigación de daños”. Salieron a decirnos que “no son parciales”, y que, de todos modos, van a revisar que pudo haber pasado…

Lo interesante, en esta declaración, es que tienen un ejemplo de lo contrario en frente de la nariz… #MalaFe.

Los ingenieros de Twitter hubieran estado mejor inspirados en reconocer que el algoritmo en cuestión no era tan confiable.

Las fotos encabezando nuestro artículo muestran una de las debilidades del proceso de reconocimiento facial (es un simple truco fotográfico).

La de la izquierda se tomó con una luz que alumbra violentamente el rostro de piel oscura. En las otras dos, al contrario, se atenuó el contraste en los rostros de piel clara…

La diferencia es violenta, y evidencia cual es el problema:

En condiciones normales, las condiciones de luz y de contraste están fuera del alcance del software de reconocimiento.

Estas fotos fueron “optimizadas”. #Trampa

Tener diversidad en su sala

Luego, como lo dijo un twittero en respuesta a Twitter:

The algorithm is only as unbiased as the data. And the data is only as unbiased as the people selecting the data. Make sure to have diversity in the room”.

Traducción:

El algoritmo solo tiene la imparcialidad de los datos. Y los datos solo tienen la imparcialidad de las personas que las seleccionan. Asegúrense de tener diversidad en su sala”.

Lo que, sobre todo, evidencia este incidente, es la debilidad cultural del medio de los desarrolladores de software.

Ya sabemos, después de otros incidentes en el mundo del diseño de videojuegos, que el sexismo es frecuente en este medio. ¿Imparcialidad, dijeron?

Resulta que el reconocimiento facial es una subdisciplina de la “Inteligencia Artificial”.

Los duros de la IA nos están mostrando que no saben adónde van (#DeepLearning).

Header Kirabytes