Microsoft conmemoró su 50 aniversario destacando innovaciones en Copilot, su asistente de inteligencia artificial, pero enfrenta intensas críticas internas y externas debido al uso militar de esta tecnología en conflictos internacionales.
El pasado 4 de abril de 2025, Microsoft celebró su 50 aniversario en Redmond, Washington, con un evento centrado en los recientes avances de Copilot, su asistente basado en inteligencia artificial (IA) integrado en Office 365. Entre las novedades, Copilot ahora permite automatizar tareas complejas como análisis financieros en Excel, creación automática de informes en Word y optimización visual en presentaciones de PowerPoint. Durante el evento, transmitido en vivo, el CEO Satya Nadella subrayó que Copilot se ha convertido en una herramienta indispensable para más de 300 millones de usuarios activos mensuales, destacando el potencial transformador de la IA para optimizar la productividad laboral.
Sin embargo, la celebración quedó rápidamente ensombrecida por una crisis ética vinculada al uso militar de la tecnología de Microsoft. Poco después del evento, surgieron protestas dentro y fuera de la empresa, impulsadas por la renuncia pública de Nour Aboussad, una ingeniera de software de Microsoft, quien denunció en una carta abierta que su trabajo en Azure AI, base tecnológica de Copilot, estaba siendo utilizado por el ejército israelí para operaciones militares en Gaza. Aboussad afirmó en su comunicado: "No me uní a Microsoft para ayudar a matar civiles", haciendo referencia explícita a contratos confidenciales entre la compañía y entidades militares, incluido el Pentágono y aliados como Israel.
Estas denuncias fueron reforzadas por documentos filtrados por el grupo activista Tech Transparency, revelando un contrato de 1.200 millones de dólares firmado en 2024 entre Microsoft y el Departamento de Defensa de Estados Unidos. Según informes adicionales de The Guardian, parte de esta tecnología habría sido utilizada en operaciones militares israelíes en Gaza, donde recientemente un ataque causó más de 100 muertes civiles.
Microsoft respondió con ambigüedad, asegurando en un comunicado que cumple con las leyes aplicables y supervisa estrictamente sus contratos gubernamentales, pero sin desmentir directamente las acusaciones sobre el uso militar de su IA.
Internamente, más de 200 empleados han exigido transparencia absoluta respecto a los contratos militares. Mientras tanto, protestas externas organizadas por grupos activistas como CodePink y Jewish Voice for Peace bloquearon accesos al campus de Redmond, exigiendo que la empresa corte sus lazos con operaciones militares. La polémica se ha intensificado en redes sociales, con hashtags como #MicrosoftKills y #AICrisisEthics acumulando millones de interacciones, aumentando la presión pública sobre Microsoft para aclarar y reconsiderar su posición en esta crisis ética.