Estudio revela que tecnología de reconocimiento facial presenta errores masivos

El estudio de decenas de algoritmos de reconocimiento facial mostró tasas de "falsos positivos" para asiáticos y afroestadounidenses hasta 100 veces más altas que para los blancos.

Tecnología

El estudio de decenas de algoritmos de reconocimiento facial mostró tasas de "falsos positivos" para asiáticos y afroestadounidenses hasta 100 veces más altas que para los blancos.

Los sistemas de reconocimiento facial pueden producir resultados extremadamente inexactos, especialmente para los no blancos, según un estudio del gobierno de Estados Unidos publicado el jueves que probablemente genere nuevas dudas sobre el despliegue de la tecnología de inteligencia artificial.

El estudio de decenas de algoritmos de reconocimiento facial mostró tasas de "falsos positivos" para asiáticos y afroestadounidenses hasta 100 veces más altas que para los blancos.

Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST), un centro de investigación del gobierno, también encontraron que dos algoritmos asignaron el género incorrecto a las mujeres negras casi el 35% de las veces.

El estudio se produce en medio del despliegue generalizado de reconocimiento facial en aeropuertos, seguridad fronteriza, banca, comercio minorista, escuelas y tecnología personal, así como para desbloquear teléfonos inteligentes.

Algunos activistas e investigadores han afirmado que el potencial de errores es demasiado grande, que éstos podrían resultar en el encarcelamiento de personas inocentes, y que la tecnología podría usarse para crear bases de datos que pueden ser pirateadas o utilizadas de manera inapropiada.

El estudio del NIST encontró tanto "falsos positivos", por los que un individuo es identificado erróneamente, como "falsos negativos", en los que el algoritmo no logra hacer coincidir con precisión una cara con una persona específica en una base de datos.

"Un falso negativo podría ser simplemente un inconveniente. La persona no puede acceder a su teléfono, por ejemplo, pero el problema generalmente se puede remediar con un segundo intento", dijo el investigador principal Patrick Grother.

"Pero un falso positivo justifica un mayor escrutinio", señaló.

El estudio encontró que los sistemas de reconocimiento facial desarrollados en Estados Unidos presentan tasas de error más altas para los asiáticos, los negros y los nativos estadounidenses.

El grupo demográfico de los indios estadounidenses mostró las tasas más altas de falsos positivos.

Sin embargo, algunos algoritmos desarrollados en países asiáticos produjeron tasas de precisión similares para la coincidencia entre caras asiáticas y caucásicas, lo que según los investigadores sugiere que estas disparidades pueden corregirse.

No obstante, Jay Stanley, de la Unión Estadounidense de Libertades Civiles, dijo que el nuevo estudio muestra que la tecnología no está lista para un despliegue amplio.

"Incluso los científicos del gobierno ahora están confirmando que esta tecnología de vigilancia es defectuosa y parcial", señaló Stanley en un comunicado.

"Una coincidencia falsa puede conducir a que una persona pierda su vuelo, sea sometida a largos interrogatorios, colocada en listas de vigilancia, sea detenida por motivos erróneos o algo peor".

Has disfrutado de todos los contenidos gratuitos del mes que ofrecemos a nuestros visitantes

Te invitamos a registrarte en EL HERALDO

¿Ya tienes una cuenta?

Disfruta de los siguientes beneficios:

Acceso ilimitado

Noticias más populares

  • EN EL HERALDO
  • EN Tecnología
  • EN VÍDEOS
  • EN FOTOS
X

Hola,

Bienvenido a tu cuenta de EL HERALDO.

Con tu cuenta de EL HERALDO vive una nueva experiencia. En este momento nuestros usuarios registrados disfrutan de:

Acceso Ilimitado

Bienvenido a EL HERALDO

Bienvenido, puedes ingresar con tu correo electrónico y contraseña registrada.

Si todavía no tienes una cuenta, puedes registrarte aquí, es gratis.

Conéctate con tu cuenta de Facebook ó Google

Registrate en EL HERALDO

Crea tu cuenta en EL HERALDO y vive una nueva experiencia. En este momento nuestros usuarios registrados disfrutan de:

Acceso Ilimitado

* La contraseña debe ser mayor de 5 caracteres, contener una mayuscula y un numero

x

Reestablecer tu contraseña

Ingresa el correo electrónico con el cual te registraste, te enviaremos un enlace para que puedas restablecer tu contraseña y acceder de nuevo.

La sesión ha sido cerrada con exíto
Por favor, complete su información de registro aquí
DETECTAMOS QUE TIENES UN BLOQUEADOR DE ANUNCIOS ACTIVADO
La publicidad nos ayuda a generar un contenido de alta calidad
No quiero apoyar el contenido de calidad
X
COMO REPORTAR A WASAPEA
1) Agrega a tu celular el número de Wasapea a EL HERALDO: +57 310 438 3838
2) Envía tus reportes, denuncias y opiniones a través de textos, fotografías y videos. Recuerda grabar y fotografiar los hechos horizontalmente.
3) EL HERALDO se encargará de hacer seguimiento a la información para luego publicarla en nuestros sitio web.
4) Recuerda que puedes enviarnos un video selfie relatándonos la situación.
Ya soy suscriptor web