Meta permitió la difusión de deepfakes de Jenna Ortega

Meta permitió la difusión de deepfakes de Jenna Ortega cuando tenía 16 años

  • 0
  • 536 views

Facebook e Instagram permitieron la difusión de imágenes hechas con Inteligencia Artificial de la actriz cuando era adolescente.

Las plataformas de Meta, incluidas Instagram , Facebook y Messenger, presentaron anuncios generados por Inteligencia Artificial (IA), deepfakes, que mostraban a la actriz Jenna Ortega desnuda.

Facebook e Instagram permitieron la difusión de imágenes manipuladas que mostraban a la actriz Jenna Ortega cuando era adolescente. Estas deepfakes se publicaron como anuncios de una aplicación que permite a los usuarios crear imágenes falsas y explícitas de cualquier persona con IA.

Algo similar ocurrió hace poco con Taylor Swift y la estafa a sus fans, como parte de estos engaños y abusos éticos con el uso de la IA,

Alerta por deepfakes

Los anuncios mostraban a la famosa actriz estadounidense Jenna Ortega cuando tenía 16 años.

Según informó NBC News, los anuncios mostraban una imagen borrosa de Ortega de cuando tenía 16 años. El propósito de estas imágenes era mostrar a los usuarios de dichas plataformas sociales cómo podían cambiar la vestimenta de la celebridad, incluida una opción para quitar toda la ropa. 

De acuerdo con la información, las imágenes fueron manipuladas por una aplicación llamada Perky AI, desarrollada por la empresa RichAds. En la App Store de Apple se describe como una plataforma que utiliza IA para “crear personas súper realistas o de fantasía” a partir de indicaciones escritas. Esto incluye imágenes que suelen ser sexualmente explícitas.

Lenta respuesta a las deepfakes

Tras dicha noticia que dio a conocer NBC, Meta suspendió la página de la aplicación Perky AI, pero esto luego de la publicación de 260 anuncios únicos en las plataformas de la compañía desde septiembre. Supuestamente los que presentaban la imagen de Ortega se publicaron durante todo el mes de febrero. Y de los anuncios que circularon en las plataformas de Meta, el medio dice que 30 ya fueron suspendidos por no cumplir con los estándares publicitarios, pero los anuncios en los que aparece la joven actriz no estaban entre ellos.

En una declaración a Mashable, el portavoz de Meta, Ryan Daniels, dijo que su empresa “prohíbe estrictamente la desnudez infantil, el contenido que sexualiza a los niños y los servicios que ofrecen imágenes de desnudos no consensuales generadas por IA”. Y dijo que aunque la aplicación que genera estas imágenes sigue disponible, “eliminaron estos anuncios y las cuentas detrás de ellos”.

Tiempo de engaños y el caso de Swift

Los anuncios de Jenna Ortega son parte de una creciente crisis en Internet, donde las imágenes falsas de jóvenes, principalmente mujeres, se generan como contenido sexual. Y este problema se ha extendido ampliamente gracias a la disponibilidad cada vez mayor de herramientas como la que denunció NBC.

En 2023 se difundieron por Internet más videos deepfake de contenido sexual explícito no consentido que en todos los años anteriores, según una investigación independiente de la analista Genevieve Oh y del movimiento My Image My Choice.

Apenas hace poco también, empezaron a circular imágenes online de Taylor Swift en contextos sexualizados sin su consentimiento. E incluso, diversos anuncios de redes sociales mostraron la cara y voz de Swift para incentivar las compras a una marca de utensilios de cocina.

Descarga la app de Cinépolis y consulta la cartelera, horarios, estrenos, preventas y promociones que tenemos para ti.

Autor

  • Alejandro Rangel Chavez

    Content Manager * Social media - Community Manager * Publicidad digital * UNAM. | Marcas con las que he trabajado: Algarabía, EL UNIVERSAL, INBAL. Lector talachero * Music and bikes

Quiz: Cuéntanos de ti y te recomendamos una película nominada al Oscar
Nota anterior Quiz: Cuéntanos de ti y te recomendamos una película nominada al Oscar
Denis Villeneuve le mostró Duna: Parte 2 a un hombre a punto de morir
Nota siguiente Denis Villeneuve le mostró Duna: Parte 2 a un hombre a punto de morir