La guerra de X contra las leyes anti-deepfakes: ¿libertad de expresión o licencia para desinformar?
Elon Musk y su plataforma X (antes Twitter) desafían la ley de Minnesota que penaliza el uso de deepfakes en campañas electorales. ¿Dónde termina la libertad de expresión y comienza la manipulación peligrosa?
Por qué una ley estatal en Minnesota está encendiendo un conflicto nacional con implicaciones democráticas, tecnológicas y legales.
Deepfakes, elecciones y censura: ¿qué está pasando en Minnesota?
La creciente preocupación por las tecnologías emergentes como los deepfakes —contenidos audiovisuales hiperrealistas generados por inteligencia artificial para hacer parecer que alguien dijo o hizo algo que en realidad no hizo— ha escalado a los tribunales en Estados Unidos. Esta vez, el epicentro del debate es Minnesota. Y al frente de la controversia, se encuentran X Corp. (anteriormente Twitter) y su dueño, Elon Musk.
En 2023, el estado de Minnesota aprobó una ley que penaliza la difusión de deepfakes con intención de dañar a un candidato o influir en los resultados de unas elecciones. Esta legislación prohíbe compartir videos, imágenes o audios falsos dentro de los 90 días previos a una convención partidaria o después del inicio del voto anticipado, si se sabe que son falsos o se difunden con “desprecio temerario” por la verdad.
Sin embargo, X Corporation está desafiando directamente esta ley, alegando que viola la Primera Enmienda de la Constitución de EE.UU., que protege la libertad de expresión. En el corazón del litigio se esconde una pregunta fundamental para la democracia moderna: ¿es posible proteger la integridad electoral sin sofocar la libertad de palabra?
¿Una amenaza real o una sobre reacción estatal?
Según X, la ley de Minnesota es demasiado amplia y vaga, y podría criminalizar discursos políticos inofensivos, sátiras, e incluso memes o contenido humorístico. Alegan que esta legislación convierte a las plataformas digitales en responsables penales por el contenido que sus usuarios publiquen, violando así la sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que históricamente ha ofrecido protección legal a estas empresas tecnológicas.
“Esta ley no defiende la democracia; la erosiona”, expresó la compañía en un comunicado. X argumenta que su sistema de moderación comunitaria, conocido como Community Notes, sumado a herramientas como la política de autenticidad y su inteligencia artificial Grok, son suficientes para contener la desinformación.
El contragolpe de Minnesota: ¿quién defiende la realidad?
Pero los defensores de la ley ven otra cara de la moneda. La senadora estatal Erin Maye Quade, demócrata y autora del proyecto de ley, declaró: “Por supuesto que Musk está molesto; Minnesota impide que difunda deepfakes para influir en las elecciones. Esta demanda es mezquina y una pérdida de tiempo para la fiscalía”.
Desde la oficina del Fiscal General del estado, dirigida por el demócrata Keith Ellison, han señalado que los deepfakes son una amenaza creciente para la confianza ciudadana en los procesos electorales. Defienden la ley como una respuesta limitada, proporcional y constitucional.
Además, la legislación ya era objeto de otra demanda por parte del creador de contenido Christopher Kohls y la representante republicana Mary Franson, quienes alegaban que eran reprimidos al intentar difundir parodias generadas por IA. Aunque la moción para suspender la ley fue rechazada inicialmente, ambos apelaron esa decisión.
El espejo de California y la tendencia nacional
Minnesota no es el único estado que se ha lanzado a regular los deepfakes. En California, la ley estatal contra deepfakes fue bloqueada en los tribunales tras una demanda judicial similar. X también está desafiando esa normativa, lo que indica un intento sistemático de frenar la ola regulatoria que busca poner límites legales al uso de la inteligencia artificial en contextos políticos.
Esto plantea un dilema inquietante: mientras más realistas y accesibles se vuelven los deepfakes, mayor es el incentivo para utilizarlos en campañas de manipulación. Aun así, Musk y otros críticos sostienen que las ideas falsas también forman parte de una sociedad libre, y que la mejor manera de combatirlas es con más información, no con leyes que rocen la censura.
Una guerra legal sobre lo que significa decir la verdad
Desde una perspectiva jurídica, el tema es complejo. El profesor de derecho Alan Rozenshtein, experto en legislación tecnológica en la Universidad de Minnesota, recalcó: “No hay ninguna excepción en la Primera Enmienda para el discurso político falso. Ni siquiera para mentiras.”
Rozenshtein también advirtió que la posibilidad de consecuencias penales da a las plataformas un incentivo para eliminar una gran cantidad de contenido, incluso si no están seguros de si es falso o no: “Terminas censurando en masa para cumplir con la ley.” Aunque reconoce que los deepfakes son peligrosos, cree que hacen falta pruebas más concretas sobre el daño real que causan antes de tomar medidas tan drásticas.
Una crítica común a estas leyes es que se centran sólo en el suministro de desinformación, sin abordar el verdadero problema: la alta demanda de contenido manipulador. “La gente quiere ser engañada, y eso es terrible para la democracia”, dijo Rozenshtein.
El papel de Elon Musk: ¿libertador digital o magnate con intereses?
Este cruce legal no puede analizarse completamente sin considerar el papel de Elon Musk. El hombre más rico del mundo, además de controlar X, financió enormemente la campaña presidencial republicana en 2024 e incluso trató de influir en elecciones estatales, según acusaciones de funcionarios demócratas.
Muchos ven esta demanda como parte del intento de Musk por construir una plataforma absolutamente libre, sin restricciones regulatorias externas. Pero también hay quienes lo acusan de usar esa libertad como escudo para ampliar su influencia política y empresarial.
¿Tiene Musk un interés legítimo en la libertad de expresión? Sí. ¿Pero también busca desmantelar mecanismos de control democrático para proteger sus inversiones políticas? Muy posiblemente.
¿Estamos preparados para una democracia inundada de IA?
La batalla en Minnesota no es una anécdota local: es un conflicto modelo de lo que podría suceder en decenas de estados en los próximos años. A medida que avanza la tecnología de generación de contenidos, también crece la urgencia de establecer marcos legales que protejan los procesos democráticos — sin frenar la libertad de crear, opinar y debatir.
Y aquí es donde el debate se torna filosófico y práctico a la vez. ¿Cómo definimos el “daño” en una democracia basada en ideas? ¿Puede un video falso modificar la intención de voto? Históricamente sí: desde el audio manipulado de Lyndon Johnson contra Barry Goldwater en 1964 hasta los bulos actuales en redes sociales.
En 2020, un estudio del Brookings Institute advertía que los deepfakes podrían influir en un mínimo del 3% de votantes “decididos pero desinformados”, lo cual en estados como Wisconsin o Georgia podría decidir el control del Senado.
Entre la sátira y la manipulación: dónde trazar la línea
Minnesota afirma que su ley contempla excepciones a la parodia y sátira, pero aún así, cracks como Christopher Kohls insisten en que el margen de interpretación sigue siendo demasiado estrecho.
Internet ha nutrido toda una cultura de humor político —desde Saturday Night Live hasta The Onion y miles de creadores independientes— que podrían verse dañados indirectamente por estas regulaciones, especialmente si las plataformas empiezan a prohibir contenido anticipándose a posibles sanciones.
De hecho, según un informe de la Fundación Knight, el 62% de usuarios de redes sociales desconfían automáticamente de cualquier contenido audiovisual político nuevo. Estamos entrando en la era de la posverdad visual.
El dilema del siglo XXI: ¿regular el código o educar al ciudadano?
Prohibir los deepfakes puede parecer una medida razonable, pero también puede terminar siendo un peligroso precedente de censura. Y si las leyes se diseñan con demasiada rigidez, como argumenta Elon Musk, podrían asfixiar la discusión pública antes de evitar ninguna manipulación efectiva.
Pero la alternativa no es alentadora: permitir que cada ciclo electoral esté plagado de clips falsos, rostros que no dijeron lo que ves que dicen, robots que simulan candidatos, y una población simplemente exhortada a “verificar por su cuenta”. ¿Estamos realmente equipados para eso?
En última instancia, esta polémica subraya lo que los ciberfilósofos llevan años advirtiendo: no basta con regular el código; hay que reformar la cultura política y educar al ciudadano para una era de percepción engañosa.