
OpenAI informó un acuerdo para desplegar sus modelos de inteligencia artificial en. redes en la nube clasificadas del llamado Departamento de Guerra de Estados Unidos. El anuncio coloca el debate de IA en una zona de máxima sensibilidad: defensa, seguridad y decisiones de alto impacto. La noticia fue difundida por Sam Altman, quien afirmó que en el proceso encontró énfasis en seguridad por parte de la dependencia. El acuerdo se presenta como un paso tecnológico relevante y políticamente delicado.
También reaviva preguntas sobre límites, supervisión y uso militar de la IA. En la cobertura se reporta que OpenAI defendió que su convenio tiene más guardrails que acuerdos previos para despliegues clasificados. La empresa detalló tres líneas rojas. su tecnología no puede usarse para vigilancia masiva doméstica, para dirigir sistemas de armas autónomas ni para decisiones automatizadas de alto riesgo. Además, explicó que mantiene control sobre su “safety stack”.
que el despliegue será vía nube y que personal acreditado de OpenAI estará “en el loop”. Ese diseño apunta a supervisión humana y barreras contractuales. Aun así, el simple hecho de entrar a infraestructura clasificada cambia el nivel de escrutinio público. El contexto también incluye tensiones entre grandes laboratorios de IA y el Pentágono. La nota añade que el gobierno estadounidense movió fichas contra Anthropic y que, después, OpenAI anunció su propio acuerdo.
#Internacional #IA #Tecnologia #Ciberseguridad #RedPopular
Fuente: REUTERS Y REDACCION










