El Centro de Estándares e Innovación en IA (CAISI) de Estados Unidos anunció nuevos acuerdos de colaboración con Google DeepMind, Microsoft y xAI para fortalecer las evaluaciones de seguridad en modelos avanzados de Inteligencia Artificial.
Estas alianzas permitirán al gobierno estadounidense realizar pruebas y análisis tanto antes como después del lanzamiento público de los modelos, con el objetivo de comprender mejor sus capacidades, riesgos y posibles implicaciones para la seguridad nacional.
CAISI informó que ya ha completado más de 40 evaluaciones, incluso sobre tecnologías que aún no han sido publicadas. Para facilitar los análisis, las empresas desarrolladoras proporcionan versiones de sus modelos con menos restricciones de seguridad, permitiendo a especialistas gubernamentales estudiar su comportamiento de manera más profunda.
El organismo señaló que estos acuerdos también permiten realizar pruebas en entornos clasificados y adaptarse rápidamente a la evolución tecnológica de la IA. Según Chris Fall, director de CAISI, contar con evaluaciones independientes y rigurosas es clave para entender el impacto de la Inteligencia Artificial avanzada y reforzar la seguridad nacional.




