La justicia a través de los ojos de la inteligencia artificial: ¿innovación o peligro?
El uso de videos generados por IA en salas judiciales estadounidenses abre un intenso debate sobre ética, manipulación y desigualdad
El futuro llegó a los tribunales. Lo que hasta hace poco parecería una escena de película de ciencia ficción, hoy es realidad en las cortes estadounidenses. El 1 de mayo de 2025, un episodio trascendental en una sala del tribunal de Phoenix captó la atención del país: un video generado con inteligencia artificial (IA), que recreaba la imagen y la voz de un hombre asesinado, fue presentado como testimonio durante la sentencia de su homicida. Con lágrimas en los ojos, la hermana de la víctima pidió la pena máxima. Luego, el holograma de su hermano perdonando al acusado apareció en pantalla. El juez, conmovido, aceptó la video-declaración póstuma y dictó la sentencia más alta posible: 10,5 años de prisión.
Un nuevo rostro para el impacto de las víctimas
Este es, según especialistas, el primer caso documentado en Estados Unidos en el que se utiliza una reconstrucción en video mediante IA para introducir una declaración de impacto de la víctima durante una audiencia de sentencia. Stacey Wales, hermana del fallecido Christopher Pelkey, reconoció haber considerado los aspectos éticos y morales antes de escribir el guion y recrear a su hermano virtualmente.
“Era importante para nosotros actuar con ética y no usarlo para decir cosas que Chris no hubiese dicho”, comentó Stacey, quien también explicó que el objetivo era humanizar a Chris y generar empatía en el juez.
El resultado fue innegable: el juez Todd Lang confesó haberse sentido profundamente conmovido por el video. “Amo la belleza de lo que Christopher dijo. Eso dice mucho de la familia: pidieron la máxima sentencia, pero permitieron que Chris hablara desde el corazón”, declaró durante la audiencia.
Controversia judicial y recurso de apelación inmediato
Horas después de la sentencia, el abogado defensor del acusado presentó inmediatamente un aviso de apelación. Aunque no continuará representando al acusado, declaró que un tribunal superior deberá decidir si el juez se apoyó indebidamente en un contenido generado por IA al emitir el fallo.
Y es que esta situación abre una enorme y compleja caja de Pandora en el ámbito judicial: ¿puede un video hecho con inteligencia artificial influir de manera significativa en la decisión de un juez o jurado? Y, si es así, ¿es esto ético o justo para todas las partes?
Un fenómeno en crecimiento
Este no es un caso aislado. En varios puntos de Estados Unidos, la IA va encontrando lentamente su lugar en las salas de justicia. En Florida, un juez utilizó un visor de realidad virtual para colocarse en la posición de un acusado que esgrimía defensa propia tras mostrar un arma cargada en una boda. Finalmente, el juez no aceptó su argumento.
En Nueva York, un ciudadano sin abogado intentó utilizar un avatar generado por IA para presentarse ante el tribunal. El truco duró segundos antes de que los jueces se percataran de que el video no mostraba a una persona real.
Estos ejemplos muestran cómo la tecnología se está infiltrando en espacios hasta ahora regidos por el protocolo, la evidencia física y el testimonio humano. No sin fricciones.
Entre el progreso y el peligro
El uso de IA plantea serias preocupaciones éticas y jurídicas. Según Cynthia Godsoe, profesora de Derecho en Brooklyn Law School y ex defensora pública: “Es una tendencia preocupante, porque podríamos estar ante pruebas falsas que nadie detecta como falsas”.
David Evan Harris, especialista en el impacto de deep fakes en la Universidad de California en Berkeley, opina que estos recursos podrían terminar beneficiando más a quienes tienen mayores recursos. “Imagino que será una forma de evidencia muy disputada, porque podría darle ventaja a quienes pueden costearla”.
Y es que hacer un video con calidad cinematográfica, voz clonada y presencia emocional no está al alcance de cualquier víctima. ¿Qué sucede con quienes no tienen los medios tecnológicos o financieros para replicar algo similar? ¿Estaremos creando una justicia de dos velocidades, basada en la producción audiovisual?
Una moral gris y cambiante
Uno de los aspectos más inquietantes del caso Pelkey es el desequilibrio emocional que puede generar un mensaje póstumo de una víctima “hablando desde el más allá”. La presencia de un rostro querido, con voz reconocible y emociones aparentemente reales, puede tener un fuerte impacto psicológico... incluso para los jueces.
La tradición jurídica establece que las decisiones deben tomarse a partir de pruebas confiables, testimonios directos y argumentos legales. ¿Qué lugar tiene un mensaje construido con siglo XXI, pero sin posibilidad alguna de verificar si realmente representa el pensamiento del fallecido?
Leyes que no alcanzan
El sistema legal estadounidense aún no cuenta con normas específicas para procesar este tipo de contenidos. No existen precedentes asentados sobre cómo manejar videos de IA en etapas clave como sentencias o apelaciones.
La Corte Suprema de Arizona, sin embargo, ha tomado cartas en el asunto. En 2024, antes del caso Pelkey, creó un comité para examinar las mejores prácticas en el uso de inteligencia artificial dentro del sistema judicial estatal.
“Este tipo de tecnología nos obliga a replantear todo lo que conocíamos sobre evidencia judicial, percepción emocional e imparcialidad”, señala otra fuente cercana al comité consultivo. En efecto, como lo expresa el exfiscal y académico Bryan Stevenson: “La justicia debería desechar lo que es emocionalmente atractivo si no es racionalmente legítimo”.
La democratización de la inteligencia artificial no está garantizada
En una era donde las herramientas de IA son lanzadas casi mensualmente y los deep fakes transforman redes sociales y procesos creativos, pensar que los tribunales quedarían al margen es ingenuo. Sin embargo, su introducción acelerada plantea un riesgo: reforzar desequilibrios existentes y afectar la percepción de imparcialidad.
Los fiscales más poderosos podrían presentar pruebas emocionales generadas con IA; los defensores públicos, quizá, no tengan ni siquiera los recursos para contrarrestar esos efectos con una réplica digital. La balanza se inclinaría aún más hacia los prosecutores.
¿Y si se utiliza para mentir?
Una víctima puede querer proyectar perdón, como el caso de Pelkey. Pero otra podría intentar manipular el juicio, exagerando emociones o tergiversando hechos desde un video que el juez podría asumir como un contenido honesto e íntegro. La sofisticación gráfica de estos videos puede dificultar el discernimiento entre lo fabricado y lo genuino.
No solo eso: testigos recreados por IA podrían tener alteraciones involuntarias o maliciosas en altura, tonalidad de piel, vestimenta... datos que inciden en el juicio subjetivo de jurados o magistrados. ¿Una voz más grave impone más respeto? ¿Una apariencia más pulcra genera más credibilidad? Estas son preguntas que apenas comienzan a emerger.
La paradoja emocional
Por un lado, reconstruir a un ser querido para que “hable” en su nombre en un tribunal puede parecer una ventana hacia el consuelo, la catarsis y el cierre emocional. Por otro, podría transformarse en una montaña rusa de emociones, no solo para las familias, sino para el propio sistema judicial.
La emoción no siempre es buena consejera en la prisión de los hechos. Si la finalidad de un juicio es encontrar la verdad y administrar justicia, cabe preguntarse qué sucede cuando se introduce un actor digital con memoria prefabricada al centro del caso.
El futuro ya está en la sala
Todo indica que no será el último caso de este tipo. En un mundo cada vez más conectado, donde la IA se mezcla con los recuerdos, las emociones y la narrativa, los jueces, abogados y ciudadanos deben prepararse para una nueva era en la que los silencios del más allá ya no serán tan silenciosos.
Si bien la intención original de Stacey Wales fue noble, el precedente legal que ha dejado abre un debate que apenas comienza. Y como dijera el juez Lang aquella mañana: “Esto dice mucho de la familia”. Quizás también diga mucho sobre el futuro de nuestra justicia.