Las principales empresas de inteligencia synthetic de los Estados Unidos OpenAi, Anthrope y Google han advertido al gobierno federal que el líder tecnológico de Estados Unidos en la IA “no es ancho y está reducido” como modelos chinos como Deepseek R1 demuestra capacidades crecientesde acuerdo con los documentos presentados al gobierno de los Estados Unidos en respuesta a una solicitud de información sobre el desarrollo de un Plan de acción de AI.
Estas presentaciones recientes de marzo de 2025 destacan preocupaciones urgentes sobre los riesgos de seguridad nacional, la competitividad económica y la necesidad de marcos regulatorios estratégicos para mantener el liderazgo de los Estados Unidos en el desarrollo de la IA en medio de la creciente competencia international y el avance subsidiado por el estado de China en el campo. Antrópico y Google presentó sus respuestas el 6 de marzo de 2025, mientras Presentación de Openai seguido el 13 de marzo de 2025.
El China Problem y Deepseek R1
La aparición del modelo Deepseek R1 de China ha provocado una preocupación significativa entre los principales desarrolladores de IA estadounidenses, que lo ven no tan superior a la tecnología estadounidense sino como evidencia convincente de que la brecha tecnológica se está cerrando rápidamente.
Operai advierte explícitamente que “Deepseek muestra que nuestro liderazgo no es amplio y está reducido”, caracterizando el modelo como “simultáneamente subsidiado por el estado, controlado por el estado y disponible libremente”, una combinación que consideran particularmente amenazante para los intereses de los Estados Unidos y el desarrollo international de IA.
Según el análisis de OpenAI, Deepseek plantea riesgos similares a los asociados con el gigante de telecomunicaciones chino Huawei. “Al igual que con Huawei, existe un riesgo significativo en la construcción de modelos sobre Deepseek en infraestructura crítica y otros casos de uso de alto riesgo dado el potencial de que Deepseek podría verse obligado por el PCCh a manipular sus modelos para causar daño”, declaró OpenAI en su presentación.
La compañía planteó preocupaciones sobre la privacidad y la seguridad de los datos, señalando que las regulaciones chinas podrían requerir que Deepseek para compartir los datos de los usuarios con el gobierno. Esto podría permitir al Partido Comunista Chino desarrollar sistemas de IA más avanzados alineados con los intereses estatales al tiempo que compromete la privacidad particular person.
La evaluación de Anthrope se centra en gran medida en las implicaciones de bioseguridad. Su evaluación reveló que Deepseek R1 “cumplió con la respuesta a la mayoría de las preguntas de armas biológicas, incluso cuando se formuló con una intención claramente maliciosa”. Esta voluntad de proporcionar información potencialmente peligrosa Se mantiene en contraste con las medidas de seguridad implementadas por los principales modelos estadounidenses.
“Mientras Estados Unidos mantiene una ventaja en la IA hoy, Deepseek muestra que nuestro liderazgo no es ancho y se está reduciendo”, se hizo eco de Anthrope en su propia sumisión, reforzando el tono urgente de las advertencias.
Ambas compañías enmarcan la competencia en términos ideológicos, con OpenAi que describe un concurso entre la “IA democrática” liderada por los estadounidenses y la “IA autoritaria y autoritaria” liderada por los estadounidenses. Sugieren que la voluntad informada de Deepseek de generar instrucciones para “actividades ilícitas y dañinas como el fraude de identidad y el robo de propiedad intelectual” refleja enfoques éticos fundamentalmente diferentes para el desarrollo de la IA entre las dos naciones.
La aparición de Deepseek R1 es, sin duda, un hito significativo en la carrera international de IA, lo que demuestra las crecientes capacidades de China a pesar de los controles de exportación de los Estados Unidos en semiconductores avanzados y destacando la urgencia de la acción gubernamental coordinada para mantener el liderazgo estadounidense en el campo.
Implicaciones de seguridad nacional
Las presentaciones de las tres compañías enfatizan importantes preocupaciones de seguridad nacional que surgen de los modelos de IA avanzados, aunque abordan estos riesgos desde diferentes ángulos.
Las advertencias de OpenAI se centran en gran medida en el potencial de influencia del PCCh sobre los modelos de IA chinos como Deepseek. La compañía enfatiza que las regulaciones chinas podrían obligar a Deepseek a “comprometer la infraestructura crítica y las aplicaciones confidenciales” y requerir que los datos del usuario se compartan con el gobierno. Este intercambio de datos podría permitir el desarrollo de sistemas de IA más sofisticados alineados con los intereses estatales de China, creando problemas de privacidad inmediatos y amenazas de seguridad a largo plazo.
Las preocupaciones de Anthrope se centran en los riesgos de bioseguridad planteados por las capacidades avanzadas de IA, independientemente de su país de origen. En una divulgación particularmente alarmante, Anthrope reveló que “nuestro sistema más reciente, el soneto de Claude 3.7, demuestra las mejoras sobre su capacidad para apoyar aspectos del desarrollo de armas biológicas”. Esta admisión sincera subraya la naturaleza de doble uso de los sistemas AI avanzados y la necesidad de salvaguardas robustas.
Anthrope también identificó lo que describen como una “brecha regulatoria en las restricciones de chips de los Estados Unidos” relacionadas con Chips H20 de Nvidia. Si bien estos chips cumplen con los requisitos de rendimiento reducidos para la exportación china, “sobresalen en la generación de texto (‘muestreo’), un componente elementary de las metodologías de aprendizaje de refuerzo avanzado críticas para los avances actuales de la capacidad del modelo fronterizo”. Anthrope instó a la “acción regulatoria inmediata” a abordar esta posible vulnerabilidad en los marcos de management de exportación actuales.
Google, aunque reconoce los riesgos de seguridad de la IA, aboga por un enfoque más equilibrado para los controles de exportación. La compañía advierte que las reglas actuales de exportación de IA “pueden socavar los objetivos de competitividad económica … al imponer cargas desproporcionadas a los proveedores de servicios en la nube de los Estados Unidos”. En su lugar, Google recomienda “controles de exportación equilibrados que protejan la seguridad nacional al tiempo que permiten las exportaciones estadounidenses y las operaciones comerciales globales”.
Las tres compañías enfatizan la necesidad de mayores capacidades de evaluación del gobierno. Anthrope requiere específicamente la construcción de “la capacidad del gobierno federal para probar y evaluar modelos de IA poderosos para las capacidades de seguridad nacional” para comprender mejor los posibles usos erróneos por parte de los adversarios. Esto implicaría preservar y fortalecer el Instituto de Seguridad de AI, dirigir a NIST para desarrollar evaluaciones de seguridad y reunir equipos de expertos interdisciplinarios.
Tabla de comparación: Openai, Anthrope, Google
Área de enfoque | Opadai | Antrópico | |
Preocupación principal | Amenazas políticas y económicas de la IA controlada por el estado | Riesgos de bioseguridad de modelos avanzados | Mantener la innovación mientras equilibra la seguridad |
Vista sobre Deepseek R1 | “Subsidiado por el estado, controlado por el estado y disponible libremente” con riesgos similares a Huawei | Dispuesto a responder “preguntas de arma biológica” con intención maliciosa | Un enfoque menos específico en Deepseek, más en una competencia más amplia. |
Prioridad de seguridad nacional | Influencia del PCCh y riesgos de seguridad de datos | Amenazas de bioseguridad y lagunas de exportación de chips | Controles de exportación equilibrados que no cargan a los proveedores estadounidenses |
Enfoque regulatorio | Asociación voluntaria con el gobierno federal; punto de contacto único | Capacidad de prueba gubernamental mejorada; Controles de exportación endurecidos | “Marco federal pro-innovación”; gobernanza específica del sector |
Enfoque de infraestructura | Adopción del gobierno de las herramientas de IA fronteriza | Expansión de energía (50GW para 2027) para el desarrollo de IA | Acción coordinada sobre energía, permitiendo reforma |
Recomendación distintiva | Marco de management de exportación escalonado que promueve la “IA democrática” | Acción regulatoria inmediata sobre los chips NVIDIA H20 exportados a China | Acceso a la industria a datos abiertos para un aprendizaje justo |
Estrategias de competitividad económica
Los requisitos de infraestructura, particularmente las necesidades de energía, surgen como un issue crítico para mantener el liderazgo de IA de los Estados Unidos. Anthrope advirtió que “para 2027, el entrenamiento de un modelo AI de frontera solo requerirá clústeres de computación en purple que dibujen aproximadamente cinco gigavatios de energía”. Propusieron un objetivo nacional ambicioso para construir 50 gigavatios adicionales de energía dedicados específicamente a la industria de IA para 2027, junto con medidas para racionalizar y acelerar las aprobaciones de la línea de transmisión.
Openai una vez más enmarca la competencia como un concurso ideológico entre “IA democrática” y “AI autocrática y autoritaria” construida por el PCCh. Su visión para la “IA democrática” enfatiza “un mercado libre que promueve la competencia libre y justa” y la “libertad para que los desarrolladores y usuarios trabajen y dirigan nuestras herramientas como mejor les parezca”, dentro de las barandillas de seguridad apropiadas.
Las tres compañías ofrecieron recomendaciones detalladas para mantener el liderazgo de los Estados Unidos. Anthrope enfatizó la importancia de “fortalecer la competitividad económica estadounidense” y garantizar que “los beneficios económicos impulsados por la IA se compartan ampliamente en toda la sociedad”. Abogaron por “asegurar y ampliar el suministro de energía estadounidense” como un requisito previo crítico para mantener el desarrollo de la IA dentro de las fronteras estadounidenses, advirtiendo que las limitaciones de energía podrían obligar a los desarrolladores en el extranjero.
Google pidió acciones decisivas para “sobrealimentar el desarrollo de la IA de los Estados Unidos”, centrándose en tres áreas clave: inversión en IA, aceleración de la adopción del gobierno de IA y la promoción de enfoques pro-innovación internacionalmente. La compañía enfatizó la necesidad de “acción coordinada federal, estatal, native y industrial sobre políticas como la transmisión y permitir la reforma para abordar las necesidades de energía en aumento” junto con los “controles de exportación equilibrados” y “financiación continua para la investigación y el desarrollo de la IA elementary”.
La presentación de Google destacó particularmente la necesidad de un “marco federal pro-innovación para la IA” que evitaría un mosaico de regulaciones estatales al tiempo que garantiza el acceso de la industria a los datos abiertamente disponibles para los modelos de capacitación. Su enfoque enfatiza “la gobernanza y los estándares de IA basados en el riesgo, específicos del sector y basados en el riesgo” en lugar de una amplia regulación.
Recomendaciones regulatorias
Un enfoque federal unificado para la regulación de la IA surgió como un tema consistente en todas las presentaciones. Openai advirtió contra el “arbitraje regulatorio creado por estados estadounidenses individuales” y propuso un “enfoque holístico que permite una asociación voluntaria entre el gobierno federal y el sector privado”. Su marco prevé la supervisión del Departamento de Comercio, potencialmente a través de una reinvención Instituto de Seguridad de AI de EE. UU.proporcionando un solo punto de contacto para que las compañías de IA se involucren con el gobierno sobre los riesgos de seguridad.
En los controles de exportación, OpenAI abogó por un marco escalonado diseñado para promover la adopción de IA estadounidense en países alineados con los valores democráticos al tiempo que restringe el acceso para China y sus aliados. Anthrope de manera related solicitó “endurecer los controles de exportación para ampliar el plomo de IA de EE. UU.” Y “mejorar dramáticamente la seguridad de los laboratorios fronterizos de los Estados Unidos” a través de una mayor colaboración con las agencias de inteligencia.
Las consideraciones de derechos de autor y propiedad intelectual presentadas prominentemente en las recomendaciones de Openai y Google. Operai enfatizó la importancia de mantener principios de uso justo para permitir que los modelos de IA aprendan de materials con derechos de autor sin socavar el valor comercial de las obras existentes. Advirtieron que las reglas de derechos de autor excesivamente restrictivas podrían desfavorecer a las empresas de IA de EE. UU. En comparación con los competidores chinos. Google se hizo eco de esta opinión, abogando por “reglas de derechos de autor equilibradas, como el uso justo y las excepciones mineras de texto y datos” que describieron como “críticas para permitir que los sistemas de IA aprendan de los conocimientos previos y los datos disponibles públicamente”.
Las tres compañías enfatizaron la necesidad de la adopción gubernamental acelerada de tecnologías de IA. Operai pidió una “estrategia ambiciosa de adopción del gobierno” para modernizar los procesos federales y implementar las herramientas de IA fronteriza de manera segura. Recomendaron específicamente eliminar obstáculos a la adopción de AI, incluidos procesos de acreditación obsoletos como Fedrampautoridades de prueba restrictivas y vías de adquisición inflexibles. Anthrope abogó de manera related para “promover la adquisición rápida de IA en todo el gobierno federal” para revolucionar las operaciones y mejorar la seguridad nacional.
Google sugirió “optimizar la acreditación anticuada, la autorización y las prácticas de adquisición” dentro del gobierno para acelerar la adopción de IA. Hicieron hincapié en la importancia de las reglas efectivas de contratación pública y una mejor interoperabilidad en las soluciones en la nube del gobierno para facilitar la innovación.
Las presentaciones integrales de estas compañías líderes de IA presentan un mensaje claro: mantener el liderazgo estadounidense en la inteligencia synthetic requiere una acción federal coordinada en múltiples frentes, desde el desarrollo de la infraestructura y los marcos regulatorios hasta las protecciones de seguridad nacional y la modernización del gobierno, particularmente a medida que la competencia de China se intensifica.