El Departamento de Comercio de Estados Unidos ha firmado acuerdos con Google, Microsoft y xAI para proporcionar al gobierno acceso anticipado a sus modelos de inteligencia artificial (IA). El Centro para Estándares e Innovación en IA (CAISI), el organismo receptor, evaluará los nuevos modelos antes de su lanzamiento público.

Este acuerdo llega un día después de que el New York Times informara de que la administración Trump consideraba endurecer la supervisión del sector de IA. La coincidencia de fechas no parece casual, ya que las tres empresas se anticipan con un gesto voluntario de cooperación justo cuando la presión regulatoria podría materializarse.

Las salvaguardas reducidas permitirán a CAISI explorar capacidades relacionadas con la seguridad nacional que los sistemas normales no exhibirían. El director del CAISI, Chris Fall, describió el acuerdo como esencial para entender la IA de frontera y sus implicaciones para la seguridad nacional.

Las evaluaciones se centrarán en lo que la industria denomina “capacidades de uso dual”: funciones con aplicaciones legítimas pero también potencialmente dañinas. El acceso se dará con salvaguardas reducidas para que los evaluadores puedan explorar el comportamiento real del modelo.

Este acuerdo forma parte de la tendencia de la administración Trump a construir acceso institucionalizado a los modelos de IA más avanzados. La ausencia de Anthropic en el acuerdo es notable, ya que la empresa ha mantenido restricciones en sus contratos con el Departamento de Defensa.

La cuestión a 24 meses no es si CAISI tiene capacidad técnica para evaluar los modelos, sino si el proceso resulta en restricciones reales o en certificados de cooperación que las empresas pueden mostrar a reguladores más estrictos como la UE. La opacidad inevitable del proceso también genera preocupación sobre la transparencia y responsabilidad.