25.4 C
Colombia
lunes, julio 7, 2025

La fase dos de la IA militar ha llegado


Como también escribo en mi historia, este empuje aumenta las alarmas de algunos expertos en seguridad de IA sobre si los modelos de idiomas grandes son adecuados para analizar piezas sutiles de inteligencia en situaciones con altas apuestas geopolíticas. También acelera a los Estados Unidos hacia un mundo donde la IA no solo analiza los datos militares, sino que sugiere acciones, por ejemplo, generando listas de objetivos. Los proponentes dicen que esto promete mayor que Precisión y menos muertes civiles, pero muchos grupos de derechos humanos argumentan lo contrario.

Con eso en mente, aquí hay tres preguntas abiertas para vigilar como el ejército estadounidense, y otros en todo el mundo, traen IA generativa a más partes de las llamadas “matar cadena. “

¿Cuáles son los límites de “humano en el bucle”?

Hable con tantas compañías de tecnología de defensa como yo y escuchará una frase repetida con bastante frecuencia: “humano en el bucle”. Significa que la IA es responsable de tareas particulares, y los humanos están allí para verificar su trabajo. Está destinado a ser una salvaguardia contra los escenarios más sombríos, ai que ordene injustamente un ataque mortal, por ejemplo, pero también contra percances más triviales. Implícito en esta thought hay una admisión de que AI cometerá errores y una promesa de que los humanos los atraparán.

Pero la complejidad de los sistemas de IA, que se obtienen de miles de datos, convierte a una tarea hercúlea para los humanos, cube Heidy Khlaaf, quien es la principal científica de IA en el Instituto AI Now, una organización de investigación y previamente dirigida a auditorías de seguridad para los sistemas impulsados ​​por IA.

“‘Human within the Loop’ no siempre es una mitigación significativa”, cube ella. Cuando un modelo de IA se basa en miles de puntos de datos para sacar conclusiones, “realmente no sería posible que un humano study esa cantidad de información para determinar si la salida de IA fue errónea”. A medida que los sistemas de IA dependen de más y más datos, este problema escala.

¿La IA está haciendo que sea más fácil o más difícil saber qué debe clasificarse?

En la period de la Guerra Fría de la inteligencia militar estadounidense, la información se capturó a través de medios encubiertos, escrito en informes de expertos en Washington y luego estampó “Secreto”, con acceso restringido a aquellos con autorizaciones adecuadas. La edad de Large Information, y ahora el advenimiento de la IA generativa para analizar esos datos, está volcando el viejo paradigma de muchas maneras.

Un problema específico se llama clasificación por compilación. Imagina que cientos de no clasificado Todos los documentos contienen detalles separados de un sistema militar. Alguien que logró reconstruirlos podría revelar información importante de que se clasificaría por sí solo. Durante años, period razonable asumir que ningún humano podía conectar los puntos, pero este es exactamente el tipo de cosas en las que se destacan los modelos de lenguaje grande.

Con la montaña de datos creciendo cada día, y luego la IA crea constantemente nuevos análisis, “No creo que nadie haya recibido grandes respuestas para lo que debería ser la clasificación adecuada de todos estos productos”, cube Chris Mouton, un ingeniero senior de Rand, quien recientemente probó cuán bien adecuada es la IA generativa para la inteligencia y el análisis. La subclasificación es una preocupación de seguridad de los Estados Unidos, pero los legisladores también han criticado el Pentágono por sobreclasificante información.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles