ST. PAUL, Minnesota, EE.UU. (AP) — Molly Kelley se quedó atónita al descubrir en junio que alguien que conocía había utilizado una tecnología de “nudificación” ampliamente disponible para crear videos e imágenes altamente realistas y sexualmente explícitas de ella, utilizando fotos familiares que se publicaron en redes sociales.
“Mi shock inicial se convirtió en horror cuando supe que la misma persona había atacado a unas 80, 85 mujeres más, la mayoría de las cuales viven en Minnesota, a algunas las conozco personalmente, y todas tenían conexiones de alguna manera con el perpetrador”, dijo Kelley.
Respaldado por su testimonio, Minnesota está considerando una nueva estrategia para combatir la pornografía creada con videos manipulados digitalmente. Un proyecto de ley que cuenta con apoyo bipartidista se enfocaría en las empresas que administran sitios web y aplicaciones que permiten a las personas subir una foto que luego se transformaría en imágenes o videos explícitos.
Los estados de todo el país y el Congreso están considerando estrategias para regular la inteligencia artificial. La mayoría ha prohibido la difusión de videos deepfake sexualmente explícitos o pornografía de venganza, ya sea que se hayan producido con IA o no. La idea que sustenta el proyecto de ley de Minnesota es impedir que el material llegue a crearse, antes de que se difunda en internet.
Los expertos en leyes de IA advierten que la propuesta podría ser inconstitucional por motivos de libertad de expresión.
Por qué los defensores dicen que se necesita el proyecto de ley
La autora principal, la senadora demócrata Erin Maye Quade, dijo que son necesarias restricciones adicionales porque la tecnología de IA ha avanzado muy rápidamente. Su proyecto de ley exigiría a los operadores de sitios y aplicaciones de “nudificación” que los desactivaran para los habitantes de Minnesota o se enfrentarían a sanciones civiles de hasta 500.000 dólares "por cada acceso, descarga o uso ilegal". Los desarrolladores tendrían que encontrar la manera de desactivar la función para los usuarios de Minnesota.
No es solo la difusión lo que es perjudicial para las víctimas, indicó. Es el hecho de que estas imágenes existan en absoluto.
Kelley dijo a los reporteros el mes pasado que cualquiera puede crear rápidamente “imágenes desnudas hiperrealistas o videos pornográficos” en minutos.
Hasta ahora, la atención de las fuerzas del orden se ha centrado principalmente en la distribución y posesión.
El Congreso, los estados y las ciudades también están probando otras estrategias
San Francisco presentó en agosto la primera demanda de este tipo contra varios sitios web de “nudificación” muy visitados, alegando que infringían las leyes estatales contra las prácticas comerciales fraudulentas, la pornografía no consentida y el abuso sexual de menores. El caso sigue abierto.
El Senado de Estados Unidos aprobó el mes pasado un proyecto de ley por la demócrata Amy Klobuchar, de Minnesota, y el republicano Ted Cruz, de Texas, para convertir en un crimen federal la publicación de imágenes sexuales no consensuadas, incluidos los videos deepfake generados por IA. Las plataformas de redes sociales tendrían que eliminarlas dentro de las 48 horas posteriores a la notificación de una víctima. Melania Trump aprovechó el lunes su primera intervención personal desde que se convirtió de nuevo en primera dama para instar a su aprobación por la Cámara de Representantes, controlada por los republicanos, donde está pendiente.
La Cámara de Representantes de Kansas aprobó el mes pasado un proyecto de ley que amplía la definición de explotación sexual ilegal de un niño para incluir la posesión de imágenes generadas con IA si son “indistinguibles de un niño real, transformadas a partir de la imagen de un niño real o generadas sin la participación de un niño real”.
Un proyecto de ley presentado en la Asamblea Legislativa de Florida crea un nuevo delito grave para las personas que utilizan tecnología como la IA para generar imágenes desnudas y criminaliza la posesión de imágenes de abuso sexual infantil generadas con ella. Proyectos de ley ampliamente similares también se han presentado en Illinois, Montana, Nueva Jersey, Nueva York, Dakota del Norte, Oregon, Rhode Island, Carolina del Sur y Texas, según un análisis de The Associated Press utilizando Plural, un software de rastreo de proyectos de ley.
Maye Quade dijo que compartirá su propuesta con legisladores en otros estados porque pocos son conscientes de que la tecnología es tan accesible.
“Si no podemos lograr que el Congreso actúe, entonces tal vez podamos lograr que tantos estados como sea posible tomen medidas”, afirmó Maye Quade.
Las víctimas cuentan sus historias
Sandi Johnson, asesora principal de políticas legislativas del grupo de derechos de las víctimas RAINN —la Red Nacional de Violación, Abuso e Incesto— indicó que el proyecto de ley de Minnesota responsabilizaría a los sitios web.
“Una vez que se crean las imágenes, pueden publicarse de forma anónima o difundirse rápidamente, y se vuelven casi imposibles de eliminar”, indicó recientemente.
Megan Hurley también se horrorizó al enterarse de que alguien había generado imágenes y videos explícitos de ella utilizando un sitio de “nudificación”. Explicó que se siente especialmente humillada porque es terapeuta de masaje, una profesión que ya está sexualizada en algunas mentes.
“Es demasiado fácil para una persona usar su teléfono o computadora y crear imágenes íntimas sintéticas y convincentes de ti, tu familia y amigos, tus hijos, tus nietos”, dijo Hurley. “No entiendo por qué existe esta tecnología y me parece abominable que haya empresas que ganen dinero de esta manera”.
Expertos en IA instan a la precaución
Sin embargo, dos expertos en derecho de la IA —Wayne Unger, de la facultad de Derecho de la Universidad de Quinnipiac, y Riana Pfefferkorn, del Institute for Human-Centered Artificial Intelligence de la Universidad de Stanford— afirmaron que el proyecto de ley de Minnesota es demasiado ambicioso para sobrevivir a un recurso judicial.
Limitar el alcance solo a imágenes de niños reales podría ayudar a que resista un desafío de la Primera Enmienda, ya que generalmente no están protegidas, explicó Pfefferkorn. Pero agregó que aún podría entrar en conflicto con una ley federal que dice que no se puede demandar a los sitios web por el contenido que generan los usuarios.
“Si Minnesota quiere seguir en esta dirección, necesitarán agregar mucha más claridad al proyecto de ley”, indicó Unger. “Y tendrán que precisar lo que quieren decir con nudificar y nudificación”.
Pero Maye Quade dijo que cree que su legislación está en un sólido terreno constitucional porque está regulando la conducta, no la expresión.
“Esto no puede continuar”, afirmó. “Estas empresas tecnológicas no pueden seguir desatando esta tecnología en el mundo sin consecuencias. Es perjudicial por su propia naturaleza”.
___
Los periodistas de The Associated Press Matt O’Brien, John Hanna y Kate Payne contribuyeron a este despacho desde Providence, Rhode Island, Wichita, Kansas, y Tallahassee, Florida, respectivamente.
___
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.