Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft confirmó que mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a realizar pruebas de seguridad mediante la simulación de ataques contra sus propios productos de inteligencia artificial. La práctica, que la empresa atribuye haber pionerizado desde 2021, busca identificar vulnerabilidades antes del lanzamiento de las tecnologías al mercado.
Brad Smith, presidente de Microsoft, destacó la relevancia de contar con principios definidos y publicados que actúen como guardarraíles para el desarrollo tecnológico. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crear guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo.
Smith enfatizó que la aplicación de estos lineamientos no se limita únicamente a determinar cuándo debe utilizarse la tecnología, sino también a establecer cuándo no debe hacerse. Esta distinción resulta crucial en un contexto donde el debate sobre el uso de la inteligencia artificial en ámbitos sensibles, como la guerra, ha generado controversias en la industria.
El reporte periodístico señala que la metodología del ‘red teaming’ tiene sus orígenes en prácticas militares y se ha aplicado en el campo de la ciberseguridad durante décadas. En el caso de Microsoft, este grupo interno tiene la función específica de intentar vulnerar los sistemas de la compañía para fortalecer su robustez y asegurar el cumplimiento de los estándares éticos establecidos.
La existencia de este equipo de seguridad se da en un entorno donde otras empresas del sector han enfrentado desafíos legales y éticos relacionados con contratos gubernamentales. Antecedentes como la demanda de Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el mismo departamento de defensa en 2021 ilustran la complejidad de integrar la IA en aplicaciones de uso dual o militar.
A través de esta estructura de pruebas internas, Microsoft busca garantizar que sus desarrollos de inteligencia artificial operen dentro de los márgenes de seguridad y responsabilidad que la compañía ha establecido públicamente, priorizando la prevención de usos indebidos tanto como la promoción de aplicaciones beneficiosas.