32.3 C
Colombia
lunes, julio 7, 2025

El último informe del modelo de inteligencia synthetic de Google carece de detalles clave de seguridad, dicen los expertos


El jueves, semanas después de lanzar su modelo de IA más poderoso hasta ahora, Géminis 2.5 ProfessionalGoogle publicó un informe técnico mostrando los resultados de sus evaluaciones de seguridad internas. Sin embargo, el informe es ligero sobre los detalles, dicen los expertos, lo que dificulta determinar qué riesgos podría representar el modelo.

Los informes técnicos proporcionan útiles, y poco halagadora veces, información que las empresas no siempre anuncian ampliamente sobre su IA. En normal, la comunidad de IA ve estos informes como esfuerzos de buena fe para apoyar la investigación independiente y las evaluaciones de seguridad.

Google adopta un enfoque de informes de seguridad diferentes que algunos de sus rivales de IA, publicando informes técnicos solo una vez que considera que un modelo se ha graduado de la etapa “experimental”. La compañía tampoco incluye hallazgos de todas sus evaluaciones de “capacidad peligrosa” en estos informes; Los reserva para una auditoría separada.

Sin embargo, varios expertos con los que TechCrunch habló todavía estaban decepcionados por la escasez del informe de Gemini 2.5 Professional, que señalaron que no menciona a Google’s Frontier Security Framework (FSF). Google introdujo el FSF el año pasado en lo que describió como un esfuerzo para identificar futuras capacidades de IA que podrían causar un “daño severo”.

“Este [report] es muy escaso, contiene información mínima y salió semanas después de que el modelo ya estuviera disponible para el público “, dijo Peter Wildeford, cofundador del Instituto de Política y Estrategia de AI, dijo a TechCrunch.” Es imposible verificar si Google está a la altura de sus compromisos públicos y, por lo tanto, imposible evaluar la seguridad y la seguridad de sus modelos “.

Thomas Woodside, cofundador del proyecto Safe AI, dijo que si bien se alegra de que Google publicó un informe para Gemini 2.5 Professional, no está convencido del compromiso de la compañía de ofrecer evaluaciones de seguridad complementarias oportunas. Woodside señaló que la última vez que Google publicó los resultados de las pruebas de capacidad peligrosa fue en junio de 2024, para un modelo anunciado en febrero ese mismo año.

No inspirando mucha confianza, Google no ha puesto a disposición un informe para Géminis 2.5 Flashun modelo más pequeño y más eficiente que la compañía anunció la semana pasada. Un portavoz le dijo a TechCrunch un informe para Flash “próximamente”.

“Espero que esta sea una promesa de Google para comenzar a publicar actualizaciones más frecuentes”, dijo Woodside a TechCrunch. “Esas actualizaciones deben incluir los resultados de las evaluaciones para modelos que aún no se han implementado públicamente, ya que esos modelos también podrían plantear riesgos graves”.

Google puede haber sido uno de los primeros laboratorios de IA en proponer informes estandarizados para los modelos, pero no es el único que ha sido acusado de ser un bajo servicio de transparencia últimamente. Meta lanzó un De manera related, una evaluación de seguridad escasa de su nuevo LLAMA 4 Open Fashions, y OpenAi optó por no publicar ningún informe para su Serie GPT-4.1.

La cabeza sobre la cabeza de Google se garantiza que el gigante tecnológico hizo a los reguladores para mantener un alto nivel de pruebas e informes de seguridad de IA. Hace dos años, Google le dijo al gobierno de los Estados Unidos Publicaría informes de seguridad para todos los modelos de IA públicos “significativos” “dentro del alcance”. La empresa Siguió esa promesa con compromisos similares a otros paísescomprometerse a “proporcionar transparencia pública” en torno a los productos de IA.

Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, calificó la tendencia de los informes esporádicos y vagos como una “carrera hacia el fondo” sobre la seguridad de la IA.

“Combinado con informes de que los laboratorios competidores como OpenAI han afeitado su tiempo de prueba de seguridad antes de su lanzamiento de meses a días, esta escasa documentación para el modelo de IA de Google cuenta una historia preocupante de una carrera hacia el fondo en la seguridad y la transparencia de la IA como las compañías apresuran sus modelos al mercado”, dijo a TechCrunch.

Google ha dicho en declaraciones que, aunque no se detallan en sus informes técnicos, realiza pruebas de seguridad y “equipo rojo adversario” para los modelos antes del lanzamiento.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles