Educación

Así es como la Policía de Los Angeles predice los crímenes

Las herramientas de predicción policial han sido criticadas por reforzar prejuicios raciales.

30/05/2018 |07:23Arturo Ilizaliturri |
Vive USA
RedacciónVer perfil

La Policía de Los Angeles no solo investiga crímenes que han ocurrido, también trata de predecir dónde y quién los cometerá antes de que sucedan.

La película basada en un cuento escrito por Philip K. Dick en 1956 plantea que tres policías con habilidades sobrenaturales utilizan visiones del futuro para prevenir hechos delictivos; en Los Angeles los oficiales no necesitan ver el futuro, pues utilizan datos de criminalidad y los antecedentes penales de una persona para calcular qué tan probable es que cometan un crimen.

Operación Laser es un programa de la Policía de Los Angeles que otorga un puntaje a los habitantes de la ciudad a partir de sus antecedentes criminales.

Newsletter
Recibe en tu correo las noticias más destacadas para viajar, trabajar y vivir en EU
Te recomendamos

Si alguien está siendo investigado se le asignan 5 puntos, si pertenece a una pandilla, otros 5. Los habitantes con mayor número de puntos son enlistados en el “Boletín de Infractores Crónicos” y los agentes siguen sus movimientos con especial atención.

De acuerdo con un estudio del cofundador de PredPol la precisión del software es de 4.7 por ciento, mientras que el análisis hecho por humanos sólo predice con 2.1 por ciento de éxito el lugar donde ocurrirá un crimen.

Sin embargo, el enfoque predictivo policial implica dilemas éticos, pues los datos con los que trabaja pueden estar sesgados por motivos de raza o nivel socioeconómico, aseguran organizaciones defensoras de derechos humanos.

La inició en mayo para exigir el cese de la Operación Laser y del uso de PredPol.

“PredPol está basado en datos criminales históricos abundantes en sesgo. Esto crea un círculo vicioso que amplifica la selección de comunidades que siempre han sido elegidas como blanco de la Policía”, afirma la Coalición.

“Los datos son subjetivos  y los datos están sesgados porque las prácticas policiales siempre han impactado a la población negra y morena (…) si el sistema es sesgado e injusto el algoritmo va a replicar eso”, dijo a Jamie Garcia, una mujer integrante de la Coalición.