La frontera en expansión de la IA y los datos que exige
La inteligencia synthetic es rápidamente Cambiar cómo vivimostrabajo y gobernar. En salud pública y servicios públicos, las herramientas de IA prometen más eficiencia y una toma de decisiones más rápida. Pero debajo de la superficie de esta transformación hay un desequilibrio creciente: nuestra capacidad de recopilar datos ha superado nuestra capacidad de gobernarlo de manera responsable.
Esto va más allá de un desafío tecnológico para ser una disaster de privacidad. Desde software program de vigilancia predictiva hasta herramientas de vigilancia y lectores automatizados de matrículas, Los datos sobre individuos están siendo acumulados, analizados y actuados a una velocidad sin precedentes. Y, sin embargo, la mayoría de los ciudadanos no tienen concept de quién posee sus datos, cómo se usa o si se está salvaguardando.
He visto esto de cerca. Como ex agente especial del FBI Cyber y ahora el CEO de una compañía líder de tecnología de seguridad pública, he trabajado tanto en el gobierno como en el sector privado. Una cosa es clara: si no solucionamos la forma en que manejamos la privacidad de los datos ahora, la IA solo empeorará los problemas existentes. ¿Y uno de los mayores problemas? Jardines amurallados.
¿Qué son los jardines amurallados y por qué son peligrosos en seguridad pública?
Jardines amurallados son sistemas cerrados donde una empresa controla el acceso, el flujo y el uso de datos. Son comunes en la publicidad y las redes sociales (piense en las plataformas Fb, Google y Amazon), pero cada vez más, también aparecen en seguridad pública.
Las compañías de seguridad pública desempeñan un papel clave en la infraestructura de vigilancia moderna, sin embargo, la naturaleza patentada de algunos de estos sistemas significa que no siempre están diseñados para interactuar fluidamente con las herramientas de otros proveedores.
Estos jardines amurallados pueden ofrecer una funcionalidad potente como las imágenes BodyCam basadas en la nube o los lectores automatizados de matrículas, pero también crean un monopolio sobre cómo se almacenan, acceden y analizan los datos. Las agencias de aplicación de la ley a menudo se encuentran encerradas en contratos a largo plazo con sistemas propietarios que no se hablan entre sí. El resultado? Fragmentación, concepts aisladas y una incapacidad para responder de manera efectiva en la comunidad cuando más importa.
El público no lo sabe, y eso es un problema
La mayoría de las personas no se dan cuenta de cuánto de su información private está fluyendo hacia estos sistemas. En muchas ciudades, su ubicación, vehículo, actividad en línea e incluso estado emocional se pueden inferir y rastrear a través de un mosaico de herramientas basadas en AI. Estas herramientas se pueden comercializar como mejoras de lucha contra el crimen, pero en ausencia de transparencia y regulación, se pueden usar fácilmente.
Y no es solo que los datos existan, sino que existe en ecosistemas amurallados que están controlados por empresas privadas con una supervisión mínima. Por ejemplo, Herramientas como lectores de matrículas ahora se encuentran en miles de comunidades en los Estados Unidos.recopilar datos y alimentarlos en su purple patentada. Los departamentos de policía a menudo ni siquiera poseen el {hardware}, lo alquilan, lo que significa que la tubería de datos, el análisis y las alertas son dictados por un proveedor y no por consenso público.
Por qué esto debería levantar las banderas rojas
AI necesita datos para funcionar. Pero cuando los datos están bloqueados dentro de los jardines amurallados, no se puede referencias transversales, validadas o desafiadas. Esto significa decisiones sobre quién se detiene, dónde van los recursos o quién es marcado como una amenaza se están tomando en función de información parcial, a veces inexacta.
El riesgo? Palas decisiones, posibles violaciones de las libertades civiles y una brecha creciente entre los departamentos de policía y las comunidades a las que sirven. La transparencia se erosiona. La confianza se evapora. Y la innovación se sofoca, porque las nuevas herramientas no pueden ingresar al mercado a menos que se ajusten a las limitaciones de estos sistemas amurallados.
En un escenario en el que un sistema de reconocimiento de matrícula marca incorrectamente un vehículo robado basado en datos anticuados o compartidos, sin la capacidad de verificar esa información en plataformas o auditar cómo se tomó esa decisión, los oficiales pueden actuar en falsos positivos. Ya hemos visto incidentes donde La tecnología defectuosa condujo a arrestos injustos o confrontaciones intensificadas. Estos resultados no son hipotéticos, están sucediendo en comunidades de todo el país.
Lo que realmente necesita la policía
En lugar de bloquear los datos, Necesitamos ecosistemas abiertos que admitan un intercambio de datos seguro, estandarizado e interoperable. Eso no significa sacrificar la privacidad. Por el contrario, es la única forma de garantizar que se apliquen las protecciones de privacidad.
Algunas plataformas están trabajando hacia esto. Por ejemplo, Primero Ofrece herramientas de conciencia situacionales en tiempo actual que enfatizan la integración responsable de los datos disponibles públicamente. Otros, como Forcemetrics, se centran en combinar conjuntos de datos dispares como llamadas al 911, registros de salud del comportamiento e historial de incidentes anteriores para dar a los oficiales un mejor contexto en el campo. Pero de manera essential, estos sistemas están construidos con necesidades de seguridad pública y respeto de la comunidad como una prioridad, no una ocurrencia tardía.
Construyendo una infraestructura de privacidad primero
Un enfoque de privacidad primero significa más que redactar información confidencial. Significa limitar el acceso a los datos a menos que haya una necesidad clara y authorized. Significa documentar cómo se toman las decisiones y habilitar auditorías de terceros. Significa asociarse con partes interesadas de la comunidad y grupos de derechos civiles para dar forma a la política y la implementación. Estos pasos dan como resultado una seguridad fortalecida y una legitimidad basic.
A pesar de los avances tecnológicos, todavía estamos operando en un vacío authorized. Estados Unidos carece de legislación integral de privacidad de datos federalesdejando a las agencias y proveedores para inventar las reglas a medida que avanzan. Europa tiene GDPRque ofrece una hoja de ruta para el uso de datos basado en el consentimiento y la responsabilidad. Estados Unidos, por el contrario, tiene un mosaico fragmentado de políticas a nivel estatal que no abordan adecuadamente las complejidades de la IA en los sistemas públicos.
Que necesita cambiar. Necesitamos estándares claros y exigibles sobre cómo las organizaciones de aplicación de la ley y seguridad pública recopilan, almacenan y comparten datos. Y necesitamos incluir a las partes interesadas de la comunidad en la conversación. El consentimiento, la transparencia y la rendición de cuentas deben hornear en todos los niveles del sistema, desde la adquisición hasta la implementación y el uso diario.
El resultado last: sin interoperabilidad, la privacidad sufre
En seguridad pública, las vidas están en juego. La concept de que un proveedor podría controlar el acceso a datos críticos de la misión y restringir cómo y cuándo se usa no es solo ineficiente. No es ético.
Necesitamos ir más allá del mito de que la innovación y la privacidad están en desacuerdo. La IA responsable significa sistemas más equitativos, efectivos y responsables. Significa rechazar el bloqueo del proveedor, priorizar la interoperabilidad y exigir estándares abiertos. Porque en una democracia, ninguna empresa debe controlar los datos que determine quién recibe ayuda, quién se detiene o quién se queda atrás.