L a inteligencia artificial (IA) aplicada a la seguridad pública ha dejado de ser una promesa futurista para convertirse en una realidad operativa. Sistemas de reconocimiento facial, análisis automatizado de imágenes y vigilancia algorítmica son desplegados a gran escala por agencias policiales, muchas veces sin un marco normativo suficientemente robusto. Este fenómeno, descrito por analistas como un “salvaje oeste” regulatorio, plantea interrogantes sobre responsabilidad, debido proceso y límites al poder estatal.
El caso reciente de una mujer en Tennessee, detenida durante meses tras ser erróneamente identificada por un sistema de reconocimiento facial, ilustra con crudeza los riesgos de estas tecnologías. La detención se basó esencialmente en una coincidencia algorítmica, pese a existir evidencia objetiva que demostraba su inocencia.
Desde una perspectiva jurídica, el problema central no es la existencia de la tecnología, sino su uso como sustituto del juicio humano. Diversos desarrolladores advierten que los resultados de reconocimiento facial no constituyen identificación positiva definitiva, sino meras probabilidades que requieren corroboración independiente. Sin embargo, en la práctica, estos resultados algorítmicos están siendo tratados como evidencia concluyente, lo que tensiona principios fundamentales como la presunción de inocencia.
A ello se suma un elemento estructural: la opacidad algorítmica. Muchos de estos sistemas operan bajo modelos propietarios, lo que dificulta auditar su funcionamiento. La literatura académica ha demostrado que métricas agregadas de precisión pueden ocultar disparidades significativas entre grupos demográficos, elevando el riesgo de discriminación sistemática.
El desafío regulatorio es doble. En primer lugar, se requiere definir con precisión el estatus jurídico de estas herramientas: ¿son meros instrumentos investigativos o constituyen medios probatorios autónomos? En segundo lugar, hay que establecer obligaciones de cumplimiento normativo que incluyan auditorías independientes, trazabilidad de decisiones y estándares mínimos de verificación antes de cualquier actuación coercitiva.
Adicionalmente, la expansión acelerada de estos sistemas evidencia que la regulación está corriendo detrás de la tecnología. Esta asimetría regulatoria incrementa la probabilidad de abusos, especialmente en contextos donde la presión por resultados en seguridad pública puede incentivar el uso acrítico de herramientas tecnológicas.
El debate no debe centrarse en prohibir o permitir el reconocimiento facial, sino en diseñar un marco de gobernanza adecuado. Esto implica delimitar claramente los supuestos de uso, exigir niveles de confiabilidad diferenciados según el impacto de la decisión, y garantizar mecanismos efectivos de reparación frente a errores.
En definitiva, la IA aplicada al orden público representa una herramienta poderosa, pero jurídicamente delicada. Su implementación sin controles adecuados puede erosionar derechos fundamentales y comprometer la legitimidad del sistema de justicia. Regular no es frenar la innovación, sino asegurar que su despliegue se alinee con los principios del Estado de derecho.












