24.8 C
Colombia
lunes, julio 7, 2025

Meta cube que puede detener el desarrollo de sistemas de IA que considera demasiado arriesgado


El CEO de Meta, Mark Zuckerberg, se ha comprometido a hacer que la inteligencia common synthetic (AGI), que se outline aproximadamente como AI que puede lograr cualquier tarea que un humano pueda, abiertamente disponible algún día. Pero en un nuevo documento de políticaMeta sugiere que hay ciertos escenarios en los que no puede liberar un sistema de IA altamente capaz que desarrolló internamente.

El documento, que Meta está llamando a su marco Frontier AI, identifica dos tipos de sistemas de IA que la compañía considera demasiado riesgoso para liberar: sistemas de “alto riesgo” y “riesgo crítico”.

Como los meta outline, tanto los sistemas de “alto riesgo” como de “riesgo crítico” son capaces de ayudar en la seguridad cibernética, los ataques químicos y biológicos, la diferencia es que los sistemas de “riesgo crítico” podrían dar lugar a un “resultado catastrófico [that] no se puede mitigar en [a] Contexto de implementación propuesto “. Los sistemas de alto riesgo, por el contrario, pueden hacer que un ataque sea más fácil de llevar a cabo, pero no tan de manera confiable o confiable como un sistema de riesgo crítico.

¿De qué tipo de ataques estamos hablando aquí? Meta da algunos ejemplos, como el “compromiso automatizado de extremo a extremo de un entorno a escala corporativa mejor protegido de práctica” y la “proliferación de armas biológicas de alto impacto”. La lista de posibles catástrofes en el documento de Meta está lejos de ser exhaustiva, reconoce la compañía, pero incluye aquellos que Meta cree que son “el más urgente” y believable para surgir como resultado directo de liberar un poderoso sistema de IA.

Algo sorprendente es que, según el documento, el meta clasifica el riesgo del sistema no basado en una prueba empírica sino que se informa por el aporte de investigadores internos y externos que están sujetos a la revisión de los “tomadores de decisiones de nivel superior”. ¿Por qué? Meta cube que no cree que la ciencia de la evaluación sea “suficientemente robusta como para proporcionar métricas cuantitativas definitivas” para decidir el riesgo de un sistema.

Si Meta determina que un sistema es de alto riesgo, la compañía cube que limitará el acceso al sistema internamente y no lo liberará hasta que implementa mitigaciones para “reducir el riesgo a niveles moderados”. Si, por otro lado, se considera un sistema crítico, Meta cube que implementará protecciones de seguridad no especificadas para evitar que el sistema sea exfiltrado y detenga el desarrollo hasta que el sistema pueda ser menos peligroso.

El marco fronterizo de AI de Meta, que la compañía evolucionará evolucionará con el cambiante panorama de IA, parece ser una respuesta a las críticas al enfoque “abierto” de la compañía para el desarrollo del sistema. Meta ha adoptado una estrategia de hacer que su tecnología AI esté disponible abiertamente, aunque No es código abierto por la definición comúnmente entendida – En contraste con compañías como OpenAi que optan por compactar sus sistemas detrás de una API.

Para Meta, el enfoque de liberación abierta ha demostrado ser una bendición y una maldición. La familia de modelos de IA de la compañía, llamado Llamaha acumulado cientos de millones de descargas. Pero Llama también tiene según se informa ha sido utilizado por al menos un adversario estadounidense para desarrollar un chatbot de defensa.

Al publicar su marco fronterizo de IA, Meta también puede ser apuntar a contrastar su estrategia de IA abierta con la firma de IA china Deepseek’s. Veterano También hace que sus sistemas estén disponibles abiertamente. Pero la IA de la compañía tiene pocas salvaguardas y se puede dirigir fácilmente a generar resultados tóxicos y dañinos.

“[W]e cree que al considerar tanto los beneficios como los riesgos al tomar decisiones sobre cómo desarrollar y desplegar IA avanzada “, escribe Meta en el documento:” Es posible entregar esa tecnología a la sociedad de una manera que preserva los beneficios de esa tecnología a la sociedad. mientras que mantiene un nivel apropiado de riesgo “.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles