De la ficción a la calle: cómo “Precrimen” se parece cada vez más a la seguridad real

Durante años, la idea de detener un delito antes de que ocurra fue patrimonio exclusivo del cine. La lógica de “Precrimen”, popularizada por la película Minority Report, parecía una exageración futurista. Sin embargo, el avance de la inteligencia artificial aplicada a la seguridad empieza a acercar esa hipótesis a la práctica cotidiana.
Hoy, los sistemas de videovigilancia no solo registran lo que pasa. También analizan comportamientos, detectan patrones y generan alertas ante situaciones consideradas anómalas. Personas que permanecen demasiado tiempo en un lugar, movimientos repetitivos, trayectorias inusuales o concentraciones fuera de lo esperado pueden activar advertencias en tiempo real. No predicen un delito con certeza, pero sí construyen probabilidades.

Puede Interesarte:
Altube cargó contra PAMI por el conflicto con jubilados: “No se está priorizando a los adultos mayores”
Ahí está el punto clave: no se trata de “adivinar el futuro”, sino de interpretar datos. La inteligencia artificial trabaja sobre estadísticas y antecedentes. Cuanto más información tiene, más ajustadas son sus inferencias. Pero sigue siendo eso: inferencias. No certezas.
Desde el punto de vista legal, el terreno es mucho más complejo. El derecho penal moderno se basa en un principio básico: no hay delito sin hecho. Es decir, no se puede sancionar a alguien por lo que podría hacer. La anticipación absoluta choca de frente con garantías fundamentales como la presunción de inocencia y el principio de legalidad.
Sin embargo, existen zonas grises. Las fuerzas de seguridad sí pueden actuar preventivamente ante situaciones sospechosas. La diferencia es que esa intervención debe estar fundada en hechos concretos y no únicamente en un algoritmo. La inteligencia artificial puede ser una herramienta de apoyo, pero no un sustituto del criterio humano ni una prueba autónoma.
En Argentina, además, se suma el marco de protección de datos personales. El uso de sistemas de reconocimiento facial o análisis de comportamiento está condicionado por normas que buscan evitar abusos, aunque en la práctica su aplicación es desigual y muchas veces queda por detrás del avance tecnológico.

Puede Interesarte:
Ariel Fusco puso el foco en la crisis de la abogacía y lanzó su candidatura con un diagnóstico incómodo
El riesgo es claro: si la tecnología se usa sin controles, puede derivar en perfiles automatizados, sesgos y decisiones que afecten derechos individuales. La historia reciente muestra que los algoritmos no son neutrales; reproducen los datos con los que fueron entrenados. Y si esos datos están sesgados, el resultado también lo estará.
Al mismo tiempo, negar el avance tampoco es una opción realista. Las herramientas existen y se están implementando. La discusión no pasa por frenarlas, sino por definir cómo se usan, bajo qué reglas y con qué nivel de supervisión.
La pregunta que plantea hoy la seguridad inteligente no es si se puede predecir un delito. La respuesta, en términos estrictos, sigue siendo no. Lo que sí se puede hacer es anticipar escenarios de riesgo. Y ahí es donde la frontera entre prevención y control empieza a volverse difusa.
La película planteaba un dilema moral. La realidad empieza a plantear uno legal.

Seguinos y no te pierdas de nada























