33.9 C
Colombia
lunes, julio 7, 2025

Operai puede ‘ajustar’ sus salvaguardas si los rivales lanzan ‘Excessive-scisk’ AI


OpenAi tiene actualizado Su marco de preparación: el sistema interno que utiliza para evaluar la seguridad de los modelos de IA y determinar las salvaguardas necesarias durante el desarrollo y la implementación. En la actualización, OpenAI declaró que puede “ajustar” sus requisitos de seguridad si un laboratorio de IA en competencia libera un sistema de “alto riesgo” sin protecciones similares.

El cambio refleja las crecientes presiones competitivas sobre los desarrolladores comerciales de IA para implementar modelos rápidamente. OpenAi ha sido acusado de reducir los estándares de seguridad a favor de lanzamientos más rápidos y de no cumplir Informes oportunos que detallan sus pruebas de seguridad. La semana pasada, 12 ex empleados de Operai Archivó un breve En el caso de Elon Musk contra Operai, argumentando que la compañía se alentaría a cortar aún más Corners on Security En caso de que full su reestructuración corporativa planificada.

Quizás anticipando las críticas, OpenAi afirma que no haría estos ajustes de políticas a la ligera, y que mantendría sus salvaguardas en “un nivel más protector”.

“Si otro desarrollador de IA frontier lanza un sistema de alto riesgo sin salvaguardas comparables, podemos ajustar nuestros requisitos”, escribió OpenAI en un weblog Publicado el martes por la tarde. “Sin embargo, primero confirmaríamos rigurosamente que el panorama de los riesgos ha cambiado realmente, reconocemos públicamente que estamos haciendo un ajuste, evaluamos que el ajuste no aumenta significativamente el riesgo normal de daño severo y aún mantiene las salvaguardas a un nivel más protector”.

El marco de preparación renovada también deja en claro que OpenAi depende más de las evaluaciones automatizadas para acelerar el desarrollo de productos. La compañía cube que si bien no ha abandonado las pruebas dirigidas por humanos por completo, ha construido “un creciente conjunto de evaluaciones automatizadas” que supuestamente puede “mantenerse al día con [a] más rápido [release] cadencia.”

Algunos informes contradicen esto. Según el Monetary InstancesOpenai dio a los evaluadores menos de una semana por controles de seguridad para un próximo modelo principal, una línea de tiempo comprimida en comparación con las versiones anteriores. Las fuentes de la publicación también alegaron que muchas de las pruebas de seguridad de OpenAI ahora se realizan en versiones anteriores de modelos en lugar de las versiones lanzadas al público.

En las declaraciones, OpenAi ha disputado la noción de que se compromete a la seguridad.

Otros cambios en el marco de OpenAI se refieren a la forma en que la compañía clasifica los modelos de acuerdo con el riesgo, incluidos los modelos que pueden ocultar sus capacidades, evadir salvaguardas, evitar su apagado e incluso autoalfriquar. Operai cube que ahora se centrará en si los modelos cumplen con uno de los dos umbrales: capacidad “alta” o capacidad “crítica”.

La definición de OpenAi del primero es un modelo que podría “amplificar las vías existentes hacia el daño severo”. Estos últimos son modelos que “introducen nuevas vías sin precedentes para daños graves”, según la empresa.

“Los sistemas cubiertos que alcanzan la alta capacidad deben tener salvaguardas que minimicen suficientemente el riesgo asociado de daños severos antes de implementarse”, escribió OpenAI en su publicación de weblog. “Los sistemas que alcanzan la capacidad crítica también requieren salvaguardas que minimicen suficientemente los riesgos asociados durante el desarrollo”.

Las actualizaciones son las primeras OpenAI que ha hecho al marco de preparación desde 2023.



Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles