Microsoft, la guerra en Gaza y la ética de la inteligencia artificial: ¿dónde trazamos la línea?

Un análisis del rol de Microsoft y otras grandes tecnológicas en conflictos armados y los riesgos éticos del uso militar de la IA

El inicio de un debate incómodo

La invasión de Gaza por parte del ejército israelí ha dejado un saldo terrible: más de 50,000 muertos —muchos de ellos mujeres y niños— como consecuencia de bombardeos masivos y operaciones de rescate de rehenes que también han acabado con la vida de civiles. En medio de este escenario, una revelación reciente ha generado un intenso debate global sobre el papel de las grandes tecnológicas: Microsoft admitió haber vendido servicios avanzados de inteligencia artificial y computación en la nube al ejército israelí.

La confirmación, contenida en una publicación de blog sin firmar en el sitio corporativo de Microsoft, pone en evidencia una tendencia creciente: la militarización de la inteligencia artificial comercial. ¿Hasta qué punto deben las empresas tecnológicas participar en conflictos armados? ¿Es ético que ayuden a gobiernos a conducir operaciones militares? ¿Y qué salvaguardas reales existen para evitar abusos?

Una colaboración que no nació ayer

Según una investigación publicada tres meses antes por The Associated Press, tras el ataque de Hamas del 7 de octubre de 2023, en el cual murieron unas 1,200 personas en Israel y fueron secuestradas más de 250, el uso militar de productos comerciales de inteligencia artificial se disparó hasta 200 veces en el país.

Microsoft facilitó al ejército israelí herramientas como Azure, su plataforma de computación en la nube, y tecnologías basadas en IA —como traducción de idiomas y análisis de inteligencia—. Incluso admitió haber concedido “acceso especial a nuestras tecnologías más allá de los términos contractuales”, para apoyar operaciones que buscaban rescatar a los rehenes.

La compañía dice haber actuado con “supervisión significativa” y asegura que no posee evidencia de que sus productos hayan sido usados para “dañar a personas en Gaza”. Sin embargo, el simple hecho de que no se pueda rastrear directamente esa responsabilidad no exonera éticamente a la empresa.

¿Puede la IA decidir quién vive y quién muere?

Uno de los elementos más preocupantes en esta historia es el uso de inteligencia artificial en tareas críticas como la identificación de objetivos militares. Grupos de derechos humanos han advertido que los sistemas de IA son propensos a errores y sesgos inherentes, especialmente en contextos sensibles como la guerra.

La escalofriante realidad es que en operaciones como la realizada en junio de 2024 en el campo de refugiados de Nuseirat, donde fueron rescatados cuatro rehenes pero murieron al menos 274 palestinos, es plausible que se hayan tomado decisiones basadas, en parte, en sistemas de IA. Y una tasa de error, incluso mínima, puede traducirse en decenas o centenas de vidas humanas.

Emelia Probasco, experta del Center for Security and Emerging Technology de la Universidad de Georgetown, resumió la inquietud: “Estamos en un momento en el que una empresa, no un gobierno, dicta condiciones de uso a un gobierno activo en un conflicto. Es como si un fabricante de tanques dijera: ‘solo puedes usar nuestros tanques para esto o lo otro’. Esto es un territorio nuevo.”

Microsoft no es la única

Aunque las miradas hoy estén puestas sobre Microsoft, la situación no es aislada. Google, Amazon, Palantir y otras grandes firmas tecnológicas estadounidenses también mantienen contratos y colaboraciones con el gobierno y ejército israelí. Más aún, participan en iniciativas similares en Estados Unidos, Ucrania y otros países aliados.

Palantir, por ejemplo, ha promocionado abiertamente su software de análisis masivo como clave para operaciones militares. Amazon Web Services, uno de los principales proveedores de infraestructura en la nube del mundo, también firmó un contrato conjunto con Google —conocido como Project Nimbus— para ofrecer servicios al gobierno israelí por un valor de 1.2 mil millones de dólares.

La militarización de la infraestructura digital ya no es posibilidad remota, es realidad presente.

¿Qué dice Microsoft?

La declaración de Microsoft parece haber intentado un delicado equilibrio: reconocer su participación sin aceptar culpa y reafirmar que ha respetado sus principios de uso responsable.

“Proporcionamos esta ayuda con supervisión significativa y de forma limitada, incluyendo la aprobación de algunas solicitudes y el rechazo de otras,” señaló la empresa. También recalcó que sus productos están sujetos a una “Política de Uso Aceptable” y un “Código de Conducta de IA” que prohíbe usos ilegales o dañinos.

No obstante, la compañía admitió algo revelador: no tiene visibilidad sobre cómo sus clientes (en este caso, el ejército israelí) usan su software en sus propios servidores. Esto, de facto, implica que Microsoft no puede garantizar ni auditar que sus productos hayan sido usados con fines éticos o legales.

El clamor desde adentro: trabajadores organizados

La presión no solo viene desde fuera. El grupo No Azure for Apartheid, compuesto por empleados actuales y antiguos de Microsoft, ha exigido la publicación completa del informe de auditoría externa encargado por la compañía.

“Es evidente que esta declaración tiene intención de ser un truco publicitario para limpiar su imagen, no de abordar las preocupaciones de sus trabajadores,” denunció Hossam Nasr, ex empleado despedido tras organizar una vigilia no autorizada por las víctimas en Gaza.

Organizaciones como la Electronic Frontier Foundation también han señalado el paso positivo de reconocer esta alianza, pero insisten en que la declaración deja demasiadas preguntas sin respuesta.

Una tendencia global imparable

Esta no es la primera vez que se encienden las alarmas sobre el uso de IA en contextos bélicos. Desde 2018, más de 4,000 empleados de Google protestaron contra el Project Maven, que usaba IA para analizar imágenes de drones en apoyo al Departamento de Defensa de EE.UU. ¿La consecuencia? Google abandonó públicamente el proyecto, aunque más tarde volvió a participar en contratos gubernamentales bajo distintas formas.

En Ucrania, la IA también ha sido usada para reconocimiento facial en registros de cadáveres o identificación de soldados enemigos, con la colaboración de empresas como Clearview AI. Con cada nueva guerra o conflicto, la dependencia de algoritmos y big data se vuelve más profunda.

Y como ha señalado el analista militar Paul Scharre en su libro “Army of None”, la automatización de decisiones militares es inevitable —y peligrosa— porque no siempre funciona como esperamos.

¿Y los derechos humanos?

Amnistía Internacional y Human Rights Watch han exigido mayor transparencia y control democrático sobre el uso de tecnologías militares. Una de sus preocupaciones centrales es que los algoritmos y modelos de lenguaje que sustentan estos sistemas no están diseñados para contextos de vida o muerte y pueden amplificar prejuicios raciales o decisiones equivocadas.

Si una IA malentendiera una grabación, una transcripción defectuosa alimentara un modelo de cruce de datos y esto llevara a seleccionar como blanco un edificio civil, ¿quién es el responsable? ¿El ejército? ¿El desarrollador del software? ¿La empresa que lo entrenó? La cadena de decisiones se vuelve borrosa —pero no menos letal.

¿Regulación a la vista?

Estados Unidos y la Unión Europea han comenzado a trazar marcos regulatorios sobre el uso de IA en ámbitos civiles e incluso militares. La AI Act europea es la primera ley que clasifica riesgos según el uso, y ha categorizado como “alto riesgo” el uso militar de IA.

No obstante, sigue existiendo un enorme vacío ético y legal. Como bien dijo Cindy Cohn, directora de la EFF: “Me alegra que haya un poco de transparencia aquí. Pero es difícil conciliar eso con lo que realmente está ocurriendo en el campo de batalla.”

La nueva frontera moral

Microsoft, Google, Amazon y otras grandes tecnológicas no solo están modelando nuestro futuro económico y social. También están redibujando las líneas éticas de la guerra. En este nuevo paradigma, las decisiones no se toman solo en despachos militares, sino también en salas de juntas y servidores en la nube.

Y nosotros, como sociedad civil, deberíamos preguntarnos más seriamente: ¿hasta qué punto queremos que los algoritmos decidan sobre la vida y la muerte?

Porque en Gaza, los efectos ya son reales y devastadores.

Este artículo fue redactado con información de Associated Press