Tecnología
Lunes 23 diciembre de 2019 | Publicado a las 10:42
Estudio: tecnología de reconocimiento facial presenta errores masivos especialmente para no blancos
Por Denisse Charpentier
La información es de Agence France-Presse
visitas

Los sistemas de reconocimiento facial pueden producir resultados extremadamente inexactos, especialmente para los no blancos, seg√ļn un estudio del gobierno de Estados Unidos publicado el jueves que probablemente genere nuevas dudas sobre el despliegue de la tecnolog√≠a de inteligencia artificial.

El estudio de decenas de algoritmos de reconocimiento facial mostr√≥ tasas de “falsos positivos” para asi√°ticos y afroestadounidenses hasta 100 veces m√°s altas que para los blancos.

Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST), un centro de investigación del gobierno, también encontraron que dos algoritmos asignaron el género incorrecto a las mujeres negras casi el 35% de las veces.

Lluis Gene | AFP
Lluis Gene | AFP

El estudio se produce en medio del despliegue generalizado de reconocimiento facial en aeropuertos, seguridad fronteriza, banca, comercio minorista, escuelas y tecnología personal, así como para desbloquear teléfonos inteligentes.

Algunos activistas e investigadores han afirmado que el potencial de errores es demasiado grande, que éstos podrían resultar en el encarcelamiento de personas inocentes, y que la tecnología podría usarse para crear bases de datos que pueden ser pirateadas o utilizadas de manera inapropiada.

El estudio del NIST encontr√≥ tanto “falsos positivos”, por los que un individuo es identificado err√≥neamente, como “falsos negativos”, en los que el algoritmo no logra hacer coincidir con precisi√≥n una cara con una persona espec√≠fica en una base de datos.

“Un falso negativo podr√≠a ser simplemente un inconveniente. La persona no puede acceder a su tel√©fono, por ejemplo, pero el problema generalmente se puede remediar con un segundo intento”, dijo el investigador principal Patrick Grother.

“Pero un falso positivo justifica un mayor escrutinio”, se√Īal√≥.

El estudio encontró que los sistemas de reconocimiento facial desarrollados en Estados Unidos presentan tasas de error más altas para los asiáticos, los negros y los nativos estadounidenses.

El grupo demográfico de los indios estadounidenses mostró las tasas más altas de falsos positivos.

Sin embargo, algunos algoritmos desarrollados en pa√≠ses asi√°ticos produjeron tasas de precisi√≥n similares para la coincidencia entre caras asi√°ticas y cauc√°sicas, lo que seg√ļn los investigadores sugiere que estas disparidades pueden corregirse.

No obstante, Jay Stanley, de la Unión Estadounidense de Libertades Civiles, dijo que el nuevo estudio muestra que la tecnología no está lista para un despliegue amplio.

“Incluso los cient√≠ficos del gobierno ahora est√°n confirmando que esta tecnolog√≠a de vigilancia es defectuosa y parcial”, se√Īal√≥ Stanley en un comunicado.

“Una coincidencia falsa puede conducir a que una persona pierda su vuelo, sea sometida a largos interrogatorios, colocada en listas de vigilancia, sea detenida por motivos err√≥neos o algo peor”.

Tendencias Ahora