Una IA que pronostica el crimen mirando tu cara

Una IA que pronostica el crimen mirando tu cara

¿El semblante de un delincuente? Un libro sobre una investigación discutida que emplea algoritmos automáticos de reconocimiento facial para pronosticar si una persona cometerá o bien no un delito, será publicado próximamente. No obstante, más de mil setecientos especialistas, estudiosos y académicos en múltiples campos de la inteligencia artificial han firmado una carta abierta que se opone a dicho trabajo, citando «graves preocupaciones» sobre el estudio y también instando a Springer, la editorial que va a publicar la obra, a retirar su lanzamiento.

Un rechazo masivo

Emplear la tecnología para pronosticar el crimen sería “injusto y provocaría un daño real”, conforme los especialistas. La Coaltition for Critical Technology escribió una carta abierta a Springer Verlag en Alemania para expresar su gran preocupación sobre el software de reconocimiento facial automatizado últimamente desarrollado que un conjunto de científicos de la Universidad de Harrisburg, Pensilvania.

Y es que Springer’s Nature Research Book Series tiene la pretensión de publicar un artículo de los científicos de Harrisburg llamado “Un modelo de red neuronal profunda para pronosticar la delincuencia a través de el procesamiento de imágenes” (cuyo comunicado oficial sobre el estudio se ha borrado de la red). La alianza desea que se anule la publicación del estudio, y otros afines, argumentando que el documento hace aseveraciones que se fundamentan en premisas, investigaciones y métodos científicos poco sólidos.

Los científicos que han desarrollado esta IA exponían que el algoritmo tiene un «ochenta por ciento precisión y sin prejuicios raciales; el software puede pronosticar si alguien es un criminal basándose solamente en una imagen de su cara. El software está destinado a asistir a la policía a prevenir el delito».

Multitud de especialistas se han negado rotundamente a su empleo, de esta forma:

«Seamos claros: no hay forma de desarrollar un sistema que pueda pronosticar o bien identificar ‘criminalidad’ que no esté sesgada racialmente, pues la categoría de ‘criminalidad’ en sí está sesgada racialmente», añadió. «Los datos generados por el sistema de justicia penal no pueden ser usados para «identificar criminales o bien pronosticar el comportamiento delictivo. Jamás».

«Incontables estudios han probado que las personas de color son tratadas con más dureza que las personas blancas ubicadas de forma afín en todas y cada una de las etapas del sistema legal, lo que resulta en serias distorsiones en los datos», prosigue la carta del conjunto de especialistas.

«Por consiguiente, cualquier software creado en el marco legal penal existente inevitablemente va a hacer eco de esos prejuicios y también imprecisiones esenciales tratándose de determinar si una persona tiene la ‘cara de un criminal'».

Springer, por su lado, ha afirmado que el documento no fue «en ningún instante» admitido para su publicación y se sometió a una conferencia en la que Springer publicará las actas en las que había sido rechazada cuando se emitió la carta abierta.

Mientras, los organizadores de la Alianza para la Tecnología Crítica han señalado que la ‘ciencia policial’ se ha usado anteriormente como una forma de justificar prácticas racionalmente discriminatorias y han demandado que «todos y cada uno de los editores deben abstenerse de publicar estudios afines en el futuro».

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *