PUNTOS IMPORTANTES:
- OpenAI desplegará sus modelos en la red clasificada del Pentágono.
- El acuerdo surge tras el veto de Donald Trump a la firma Anthropic.
- La empresa de Sam Altman asegura haber pactado límites éticos claros.
Sam Altman, el director ejecutivo de OpenAI, informó el viernes por la noche que su firma alcanzó un acuerdo con el Departamento de Defensa para el uso de sus modelos de inteligencia artificial. Este anuncio del directivo ocurrió poco después de que el presidente Donald Trump confirmara que el gobierno dejará de trabajar con su competidor directo, Anthropic.
«Esta noche, llegamos a un pacto con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada».
Altman en una publicación de X.
El directivo resaltó que, durante las negociaciones, las autoridades mostraron un profundo respeto por la seguridad y el deseo de colaborar para obtener el mejor resultado posible para la defensa nacional.
La noticia llega al cierre de una semana sumamente tensa para la industria, la cual ha quedado atrapada en un debate político sobre el uso militar de esta tecnología. Al respecto, el secretario de Defensa, Pete Hegseth, catalogó a Anthropic como un «riesgo para la seguridad nacional», una etiqueta que suele reservarse para adversarios extranjeros.
Esta designación obligará a los contratistas del Departamento de Defensa a certificar que no utilizan los modelos de dicha empresa en sus procesos. Además, el presidente Trump ordenó a todas las agencias federales de los EE. UU. que suspendan de inmediato el uso de cualquier herramienta desarrollada por Anthropic.
Dada esta reconfiguración del mercado tecnológico impulsada por decisiones gubernamentales y vetos regulatorios, la agilidad para gestionar posiciones en empresas de IA resulta fundamental. Quantfury permite operar acciones con exposición a la inteligencia artificial a precios spot reales de las bolsas globales, garantizando una ejecución transparente y libre de comisiones o tarifas de préstamo que optimiza el rendimiento frente a giros políticos inesperados (Mas información click aquí).
Anthropic queda fuera del Pentágono
Cabe recordar que Anthropic fue el primer laboratorio en desplegar sus sistemas en la red clasificada del Pentágono. Sin embargo, las conversaciones colapsaron cuando la empresa exigió garantías de que sus modelos no se usarían en armas autónomas o vigilancia masiva, mientras que el organismo estatal buscaba un uso sin restricciones legales.
Por su parte, Altman envió un comunicado a sus empleados el jueves aclarando que OpenAI comparte las mismas «líneas rojas» que su rival. No obstante, el viernes aseguró que el Departamento de Defensa finalmente aceptó las restricciones impuestas por su compañía para sellar el trato.
«Dos de nuestros principios de seguridad más relevantes son la prohibición de la vigilancia masiva doméstica y la responsabilidad humana en el uso de la fuerza».
Altman.
Según su versión, el Departamento coincide con estos puntos, los cuales quedaron reflejados tanto en la ley como en el acuerdo final firmado por ambas partes.
Aún no se ha esclarecido por qué las autoridades aceptaron las condiciones de OpenAI y rechazaron las de su competidor. De hecho, diversos funcionarios han criticado durante meses a Anthropic, alegando que la empresa mostraba una preocupación excesiva por los protocolos de seguridad que obstaculizaba el avance militar.
Altman adelantó que OpenAI desarrollará protecciones técnicas para asegurar el comportamiento correcto de sus modelos en entornos críticos. Asimismo, la firma desplegará personal especializado para ayudar con la implementación y para garantizar que se respeten los estándares pactados originalmente.
«Estamos solicitando que se ofrezcan estos mismos términos a todas las empresas de IA, algo que en nuestra opinión todos deberían estar dispuestos a aceptar».
Altman.
En este sentido, expresó su fuerte deseo de ver que la situación se desescale y se pase de las acciones gubernamentales a acuerdos razonables.
Finalmente, Anthropic emitió un comunicado manifestando su profunda tristeza por la decisión del Pentágono de vetar su tecnología. La compañía, por tanto, tiene la intención de impugnar la designación de riesgo para la seguridad nacional ante los tribunales correspondientes.
FAQs
El Departamento de Defensa ha vetado a Anthropic por considerarlo un riesgo de seguridad, otorgando simultáneamente a OpenAI un contrato exclusivo para desplegar sus modelos en redes clasificadas.
Mientras Anthropic exigió garantías estrictas contra el uso bélico que el gobierno rechazó, OpenAI logró un acuerdo que integra sus principios de seguridad dentro de los marcos legales del organismo militar.
La compañía planea impugnar legalmente el veto gubernamental ante los tribunales para revertir una etiqueta que prohíbe el uso de su tecnología en todas las agencias federales.
Descargo de responsabilidad: Toda la información encontrada en Bitfinanzas es dada con la mejor intención, esta no representa ninguna recomendación de inversión y es solo para fines informativos. Recuerda hacer siempre tu propia investigación.














