marzo 20, 2026
cd2db880f58744d68fbee622dee1bd8f

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft confirmó que mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la empresa atribuye haber pionero al formar dicho grupo en 2021, busca garantizar la seguridad y el cumplimiento de los estándares éticos establecidos por la corporación.

Brad Smith, presidente de Microsoft, explicó que la estrategia de la compañía se basa en la definición y publicación de principios claros que actúan como guardarraíles. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo.

Smith enfatizó que la gestión de la tecnología no solo implica determinar cuándo debe utilizarse, sino también establecer límites sobre cuándo no debe ser empleada. “No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla”, añadió, señalando la importancia de la autorregulación en el desarrollo de herramientas de IA.

El contexto de estas medidas se da en medio de un debate global sobre el uso de la inteligencia artificial en aplicaciones militares. Antecedentes relevantes incluyen la demanda de la empresa Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el departamento de defensa estadounidense en 2021, lo que refleja la cautela del sector tecnológico ante la integración de sus sistemas en conflictos bélicos.

La metodología del ‘red teaming’, originada en el ámbito militar y aplicada en ciberseguridad desde hace décadas, permite a Microsoft simular ataques reales contra sus sistemas. Aunque la investigación no detalla la composición específica del equipo actual ni los métodos técnicos empleados, la existencia de este grupo interno subraya el enfoque preventivo de la empresa frente a los riesgos emergentes de la inteligencia artificial.

About The Author

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *