Minority Report: los riesgos de convertir la ciencia ficción en una realidad
En un contexto donde la dinámica del “hate”, el “doxeo”, y la proliferación inagotable de discursos de odio en redes sociales a través de huestes inagotables de cuentas de dudosa procedencia, la noticia sobre la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) ha suscitado preocupación sobre los riesgos que implica otorgar fondos discrecionales a servicios de inteligencia para el desarrollo de tecnologías de vigilancia avanzadas. El uso de IA en la predicción y prevención del crimen, como se refleja en la Resolución 710/2024 del Ministerio de Seguridad de la Nación, promete aumentar la eficacia en la lucha contra el crimen. Sin embargo, este enfoque plantea serios interrogantes en términos de transparencia, derechos humanos y privacidad… Además de su eficacia.
Uno de los riesgos clave radica en la falta de mecanismos robustos de rendición de cuentas para los servicios de inteligencia que emplean fondos reservados. El informe de CELE (2023) destaca cómo la utilización de inteligencia basada en fuentes abiertas (OSINT) en Argentina ya ha demostrado ser problemática, con denuncias de vigilancia ilegal a disidentes políticos y periodistas. Si los servicios de inteligencia pueden utilizar IA y tecnologías avanzadas sin supervisión adecuada, existe un alto riesgo de que estas herramientas sean utilizadas para la persecución política o la represión, lo cual socava los derechos democráticos fundamentales.
El uso de IA para predecir delitos, una técnica conocida como “policía predictiva”, ha sido criticada por ser inexacta y sesgada en diversos trabajos de investigación. Estos abordajes han revelado cómo casos como el de Colombia, donde el ciberpatrullaje ha sido utilizado desde 2015 sin una regulación clara, y ejemplos recientes en Argentina, muestran que estas tecnologías pueden fomentar la discriminación, además de infringir derechos individuales sin justificación legal cierta. La IA tiende a replicar y amplificar sesgos presentes en los datos que analiza, lo que podría resultar en la estigmatización de grupos vulnerables o la criminalización de conductas inofensivas. Todo este debate pareciera un deja vú que nos remite al film “Sentencia Previa” (2002) de Steven Spielberg, basado en el relato “Informe de la minoría” de Philip Dick (1954), en donde se pone en debate precisamente la contraposición del libre albedrío versus el determinismo. Es interesante traer a colación esta comparación con las obras literaria y cinematográfica ya que sus simples títulos, como se puede observar, plantean nociones completamente contrarias a los preceptos constitucionales y democráticos que aún rigen en nuestras sociedades (principio de inocencia y gobierno de la mayoría).
La falta de control sobre el uso de los fondos reservados destinados a la UIAAS añade una capa adicional de opacidad. Estos fondos, por su naturaleza discrecional, no están sujetos a los mismos controles que otros presupuestos públicos, lo que aumenta el riesgo de abusos financieros y de poder. La combinación de tecnología avanzada, falta de transparencia financiera y objetivos de seguridad nacional crea un cóctel peligroso que podría erosionar las libertades civiles en nombre de la seguridad.
Los sistemas de inteligencia basados en IA requieren una regulación exhaustiva que establezca límites claros para su uso, incluyendo salvaguardas robustas para proteger la privacidad y los derechos humanos. Sin estas regulaciones, los servicios de inteligencia podrían operar sin restricciones, monitoreando y perfilando a ciudadanos sin justificación legal, como ya se ha visto en casos de espionaje estatal.
Si bien la tecnología de IA puede ofrecer herramientas poderosas para mejorar la seguridad, su implementación en el ámbito de la inteligencia debe ser transparente y estar sujeta a controles democráticos estrictos. No obstante, la semana pasada el Congreso de la Nación derogó, desde ambas cámaras, el Decreto de Necesidad y Urgencia que pretendía otorgar un monto exorbitante de fondos para uso discrecional de los servicios de inteligencia argentinos; sin perjuicio de ello, no debe quitarse el foco en el desarrollo de esta Unidad creada por el Ministerio de Seguridad, ya que más allá del riesgo que implica otorgar fondos reservados, el simple hecho de poner en práctica una dinámica de control basada en el uso de algoritmos que aún pueden adolecer de fallas e inexactitud en la previsión de escenarios y respuestas, su uso indiscriminado puede convertirse más que en una solución en materia de seguridad, en una receta para el abuso de poder y la violación de derechos humanos.
Referencias:
- Resolución 710/2024 del Ministerio de Seguridad de Argentina
- Informe CELE sobre OSINT (2023)(230621-reporte-OSINT)
- The Register sobre predicción de crímenes en Argentina (2024)