Investigadores de AI le dicen a Amazon que no venda el reconocimiento facial "defectuoso"

Investigadores de AI le dicen a Amazon que deje de vender a la policía el reconocimiento facial "defectuoso"

Los estudios demuestran que la tecnología de amazon de reconocimiento facial con frecuencia tiene tasas de error más altas para las minorías

Índice de Contenido
  1. Los estudios demuestran que la tecnología de amazon de reconocimiento facial con frecuencia tiene tasas de error más altas para las minorías
  2. "LAS TECNOLOGÍAS DE ANÁLISIS FACIAL DEFECTUOSAS ESTÁN REFORZANDO LOS PREJUICIOS HUMANOS".
  3. Anandkumar  dice a por correo electrónico que espera que la carta abra un "diálogo público sobre cómo podemos evaluar el reconocimiento facial", y agrega que se necesitan marcos técnicos para evaluar esta tecnología. 
  4. Amazon ha defendido su tecnología y gran parte de la carta publicada hoy ofrece una refutación punto por punto de las críticas de la compañía. 

Investigadores de inteligencia artificial de Google, Facebook, Microsoft y varias universidades importantes han pedido a Amazon que deje de vender su tecnología de reconocimiento facial a las autoridades policiales.

En una carta abierta publicada hoy, los investigadores dicen que los estudios han demostrado repetidamente que los algoritmos de Amazon tienen fallas,

con tasas de error más altas para rostros de piel más oscura y rostros femeninos. 

Los investigadores dicen que si la policía adopta dicha tecnología, tiene el potencial de amplificar la discriminación racial, crear casos de identidad errónea y fomentar la vigilancia intrusiva de los grupos marginados.

"LAS TECNOLOGÍAS DE ANÁLISIS FACIAL DEFECTUOSAS ESTÁN REFORZANDO LOS PREJUICIOS HUMANOS".

Estudiante de doctorado en la Universidad de Colorado Boulder y uno de los 26 firmantes de la carta . Scheuerman dice que tales tecnologías "pueden ser apropiadas para propósitos maliciosos ...

De una manera que las compañías que las proveen no tienen conocimiento".

Otros firmantes incluyen a Timnit Gebru, un investigador de Google cuyo trabajo ha resaltado fallas en los algoritmos de reconocimiento facial; 

Yoshua Bengio, un investigador de AI que recientemente recibió el Premio Turing; y Anima Anandkumar, profesora de Caltech y ex científica principal de la filial de Amazon en AWS.

Anandkumar  dice a por correo electrónico que espera que la carta abra un "diálogo público sobre cómo podemos evaluar el reconocimiento facial", y agrega que se necesitan marcos técnicos para evaluar esta tecnología. 

"La regulación gubernamental solo puede darse una vez que hayamos establecido marcos técnicos para evaluar estos sistemas", dice Anandkumar.

Como uno de los principales proveedores de tecnología de reconocimiento facial, los algoritmos de Amazon se han examinado repetidamente de esta manera. 

Un estudio publicado a principios de este año mostró que el software de la compañía tiene más dificultades para identificar el género de hombres y mujeres de piel más oscura,

mientras que una prueba realizada en 2018 por la ACLU encontró que el software Rekognition de Amazon emparejó incorrectamente las fotos de 28 miembros del Congreso con la policía mugshots.

En China, los oficiales de policía usan lentes de sol con reconocimiento facial incorporado para detectar criminales en lugares públicos.

Amazon ha defendido su tecnología y gran parte de la carta publicada hoy ofrece una refutación punto por punto de las críticas de la compañía. 

Los autores señalan, por ejemplo, que a pesar de que Amazon dice que no ha recibido informes de que la policía haya hecho un mal uso de su reconocimiento facial,

eso no es una afirmación significativa, ya que no existen leyes para auditar sus aplicaciones.

A medida que los estudios encuentran más fallas en esta tecnología, las protestas entre los investigadores, accionistas y empleados de tecnología están ocurriendo con más frecuencia. 

Google se niega a vender software de reconocimiento facial debido a su potencial de abuso, mientras que Microsoft ha pedido regulaciones gubernamentales

Sin embargo, exactamente cómo se debe supervisar esta tecnología es una pregunta difícil .

"Estas tecnologías deben desarrollarse de una manera que no dañe a los seres humanos, o perpetúe el daño a los grupos ya históricamente marginados",

dice Scheuerman. Subraya que, para hacerlo, es necesario que haya más diálogo entre las personas que desarrollan la tecnología de reconocimiento facial y las que la critican. 

"Este es un problema interdisciplinario que requiere un enfoque interdisciplinario".

Deja una respuesta Cancelar la respuesta

Subir

Las cookies de este sitio web se usan para personalizar el contenido y los anuncios, ofrecer funciones de redes sociales y analizar el tráfico. Mas información

Spanish (Spain)
Salir de la versión móvil