Activistas advierten que el proyecto de ley recién aprobado para combatir los deepfakes causará caos en línea

En materia de derechos y protección digital, el gobierno federal de Estados Unidos, en general, no ha logrado establecer una legislación integral. El lunes, el Congreso pareció avanzar al aprobar casi por unanimidad un proyecto de ley para combatir las imágenes íntimas no consensuadas en línea . Sin embargo, mientras el proyecto de ley se dirige al presidente Trump, quien ya manifestó su intención de firmarlo, los defensores de los derechos digitales advierten que la combinación de lenguaje impreciso y falta de garantías lo hace vulnerable a un uso indebido.
Presentada por los senadores Ted Cruz y Amy Klobuchar en 2024, la Ley de Retirada de Contenido (Take It Down Act ) penaliza la distribución de imágenes íntimas no consensuadas (NCII), que incluye la "pornografía vengativa" y los deepfakes generados por IA. También exige que plataformas específicas establezcan procesos para denunciar NCII y eliminar el contenido ofensivo en un plazo de 48 horas tras la notificación.
El proyecto de ley ha obtenido apoyo bipartidista, incluyendo el de la propia familia de Trump, ya que su esposa, Melania, organizó una mesa redonda en la Casa Blanca al respecto en marzo. Ese mismo mes, Trump declaró ante el Congreso que "espera con interés promulgar ese proyecto de ley" durante su discurso en una sesión conjunta. Añadió: "Voy a usar ese proyecto de ley para mí también, si no les importa, porque nadie recibe un trato peor que yo en línea, nadie".
En febrero, el proyecto de ley fue aprobado por unanimidad en el Senado y la Cámara de Representantes con 409 votos a favor y 2 en contra, lo que Cruz celebró como una "victoria histórica". En un comunicado , Cruz declaró: "Al exigir a las empresas de redes sociales que eliminen rápidamente este contenido abusivo, evitamos que las víctimas sufran traumas repetidos y exigimos responsabilidades a los depredadores".
“Estas imágenes pueden arruinar vidas y reputaciones”, declaró Klobuchar en el mismo comunicado. “Las víctimas ahora podrán exigir que se elimine este material de las redes sociales y las fuerzas del orden podrán exigir responsabilidades a los responsables”.
Aunque la mayoría de los estados tienen leyes que prohíben la pornografía no consentida, estas no protegen adecuadamente a un número creciente de víctimas. En un estudio de 2019, uno de cada doce participantes reportó haber sido víctima de pornografía al menos una vez en su vida, siendo las mujeres las que reportaron tasas más altas. A medida que la IA agrava el problema al generar contenido con adultos y niños, los estados también tienen dificultades para definir y regular los "deepfakes" .
A primera vista, la Ley de Retirada de Contenidos debería celebrarse como un gran avance. Sin embargo, el lunes, la Iniciativa de Derechos Civiles Cibernéticos, que se centra en combatir las imágenes no consensuadas, señaló numerosos problemas, entre ellos que la cláusula de retirada de contenido es "muy susceptible de mal uso y probablemente contraproducente para las víctimas". Por ejemplo, no existen salvaguardas contra denuncias falsas, por lo que es fácil apropiársela indebidamente para eliminar otro contenido.
El CCRI no es el único en sus críticas. En un comunicado , la Electronic Frontier Foundation también criticó la cláusula de retirada, escribiendo: «Los servicios dependerán de filtros automatizados, herramientas infamemente torpes». Dado el ajustado plazo de la ley, es probable que las plataformas opten por evitar el oneroso riesgo legal simplemente despublicando el contenido antes de comprobar si realmente representa un problema.
Estas preocupaciones no son infundadas. Si bien algunos argumentan que la legislación es sólida y no puede ser utilizada indebidamente por personas de mala fe, incluidos funcionarios gubernamentales, existen ejemplos a considerar. Entre junio de 2019 y enero de 2020, la Ley de Derechos de Autor del Milenio Digital recibió más de treinta mil notificaciones falsas , que podrían ser intentos de censurar la libertad de expresión en línea o proteger la reputación de funcionarios públicos . YouTube es famosa por su política de derechos de autor de "primero retiras contenido y luego preguntas".
Dado que se espera que la Ley Take It Down se convierta pronto en ley, otras leyes pendientes, como la Ley DEFIANCE , que permite a las víctimas de deepfakes demandar a quienes los crean, comparten y reciben, podrían ampliar sus protecciones. Sin embargo, en un comunicado , Nick García, asesor principal de políticas de Public Knowledge, declaró: «Esta era una oportunidad para acertar, pero lamentablemente, el Congreso solo acertó a medias, y las leyes a medias pueden causar graves daños».
gizmodo