Expertos llaman a regular la inteligencia artificial para evitar desigualdades

“Está claro que en diversos campos y contextos, la IA está ampliando las desigualdades, colocando la información y los medios de control en manos de quienes ya tienen poder al mismo tiempo que despoja a los que no”, dice el informe.

Archivo
Imagen de referencia. Archivo
Ciencia

“Está claro que en diversos campos y contextos, la IA está ampliando las desigualdades, colocando la información y los medios de control en manos de quienes ya tienen poder al mismo tiempo que despoja a los que no”, dice el informe.

La inteligencia artificial parece estar "ampliando las desigualdades" y su despliegue debería ser objeto de estrictas regulaciones y límites, especialmente para tecnologías sensibles como el reconocimiento facial, advirtieron investigadores en un informe difundido este jueves.

El AI Now Institute, un centro de la Universidad de Nueva York que estudia las implicaciones sociales de la inteligencia artificial, dijo que a medida que estas tecnologías se han hecho más accesibles han comenzado a parecer sus efectos negativos.

Sistemas de IA (almacenaje y análisis de datos a gran escala, automatización de procesos, aprendizaje autónomo de máquinas...) están siendo implementados en sectores como la salud, la educación, el reclutamiento de personal o la justicia "sin salvaguardas o estructuras de control apropiadas", estiman los investigadores en el informe de 93 páginas.

Una preocupación especial es el uso de IA en "los servicios sociales, la vigilancia y seguimiento de inmigrantes y minorías".

"Está claro que en diversos campos y contextos, la IA está ampliando las desigualdades, colocando la información y los medios de control en manos de quienes ya tienen poder al mismo tiempo que despoja a los que no".

El reconocimiento facial, ya muy expandido, y el reconocimiento de emociones por las máquinas, más incipiente, están siendo implementados muy rápidamente, según el estudio.

Los gobiernos y las empresas deberían detener el uso del reconocimiento facial "en contextos sociales y políticos sensibles", hasta que los riesgos sean mejor comprendidos, señalan.

La identificación de emociones por las máquinas debería ser simplemente prohibida. "No debería permitirse que juegue un papel en decisiones importantes que afecten a personas, como en entrevistas de trabajo, el precio de una póliza de seguro, consultas médicas o la evaluación de alumnos en la escuela", señaló el informe.

Los investigadores llaman a los ingenieros y desarrolladores a estar mejor informados sobre las implicaciones de los aparatos y programas que construyen y "denunciar los usos antiéticos o peligrosos de su trabajo".

De manera más general, advierten que el sector de la inteligencia artificial debe realizar "cambios estructurales" para garantizar que los algoritmos no refuercen el racismo o la falta de diversidad.

"La industria de la IA es terriblemente homogénea", critica el estudio.

Has disfrutado de todos los contenidos gratuitos del mes que ofrecemos a nuestros visitantes

Te invitamos a registrarte en EL HERALDO

¿Ya tienes una cuenta?

Disfruta de los siguientes beneficios:

Acceso ilimitado

Noticias más populares

  • EN EL HERALDO
  • EN Ciencia
  • EN VÍDEOS
  • EN FOTOS
X

Hola,

Bienvenido a tu cuenta de EL HERALDO.

Con tu cuenta de EL HERALDO vive una nueva experiencia. En este momento nuestros usuarios registrados disfrutan de:

Acceso Ilimitado

Bienvenido a EL HERALDO

Bienvenido, puedes ingresar con tu correo electrónico y contraseña registrada.

Si todavía no tienes una cuenta, puedes registrarte aquí, es gratis.

Conéctate con tu cuenta de Facebook ó Google

Registrate en EL HERALDO

Crea tu cuenta en EL HERALDO y vive una nueva experiencia. En este momento nuestros usuarios registrados disfrutan de:

Acceso Ilimitado

* La contraseña debe ser mayor de 5 caracteres, contener una mayuscula y un numero

x

Reestablecer tu contraseña

Ingresa el correo electrónico con el cual te registraste, te enviaremos un enlace para que puedas restablecer tu contraseña y acceder de nuevo.

La sesión ha sido cerrada con exíto
Por favor, complete su información de registro aquí
DETECTAMOS QUE TIENES UN BLOQUEADOR DE ANUNCIOS ACTIVADO
La publicidad nos ayuda a generar un contenido de alta calidad
No quiero apoyar el contenido de calidad
X
COMO REPORTAR A WASAPEA
1) Agrega a tu celular el número de Wasapea a EL HERALDO: +57 310 438 3838
2) Envía tus reportes, denuncias y opiniones a través de textos, fotografías y videos. Recuerda grabar y fotografiar los hechos horizontalmente.
3) EL HERALDO se encargará de hacer seguimiento a la información para luego publicarla en nuestros sitio web.
4) Recuerda que puedes enviarnos un video selfie relatándonos la situación.
Ya soy suscriptor web