barra head

Taylor Swift y la CIA se unen en la lucha contra el terrorismo cibernético

ASÍ COMO LA TECNOLOGÍA ESTÁ CREANDO EL PROBLEMA, TAMBIÉN ES LA SOLUCIÓN OBVIA

Taylor Swift y la CIA se unen en la lucha contra el terrorismo - Nacional | Globalnews.ca

Esta semana circularon por X (antes Twitter) imágenes sexualmente explícitas de Taylor Swift generadas por IA, lo que pone de manifiesto lo difícil que es impedir que se creen y compartan ampliamente deepfakes generados por IA.

Las imágenes falsas de la estrella del pop más famosa del mundo circularon durante casi todo el día del miércoles, acumulando decenas de millones de visitas antes de ser retiradas, informa CNN.

Como la mayoría de las demás plataformas de medios sociales, X tiene políticas que prohíben compartir "medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a la gente y provocar daños".

Sin nombrar explícitamente a Swift, X dijo en un comunicado: "Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas oportunas contra las cuentas responsables de publicarlas

".

Un informe de 404 Media afirma que las imágenes pueden haberse originado en un grupo de Telegram, donde los usuarios comparten imágenes explícitas de mujeres generadas por IA, a menudo hechas con Microsoft Designer. Al parecer, los usuarios del grupo bromearon sobre cómo las imágenes de Swift se hicieron virales en X.

El término "Taylor Swift AI" también fue tendencia en la plataforma en ese momento, promoviendo aún más las imágenes y empujándolas delante de más ojos. Los fans de Swift hicieron todo lo posible por enterrar las imágenes inundando la plataforma con mensajes positivos sobre Swift, utilizando palabras clave relacionadas. La frase "Protege a Taylor Swift" también fue tendencia en ese momento.

Y aunque los Swifties de todo el mundo expresaron su furia y frustración contra X por su lentitud en responder, ha suscitado un amplio debate sobre la proliferación de imágenes no consentidas de personas reales generadas por ordenador.

"Siempre ha habido un trasfondo oscuro en Internet: la pornografía no consentida de diversos tipos", declaró al New York Times Oren Etzioni, profesor de informática de la Universidad de Washington que trabaja en la detección de deepfakes. "Ahora se trata de una nueva cepa especialmente nociva".

Recibe las últimas noticias nacionales. Enviadas a su correo electrónico, todos los días.

"Vamos a ver un tsunami de estas imágenes explícitas generadas por IA. La gente que ha generado esto lo ve como un éxito", afirma Etzioni.

Carrie Goldberg, abogada que ha representado a víctimas de deepfakes y otras formas de material sexual explícito no consentido, declaró a NBC News que las normas sobre deepfakes en las plataformas de redes sociales no son suficientes y que las empresas tienen que mejorar para evitar que se publiquen en primer lugar.

"La mayoría de los seres humanos no tienen millones de fans que salgan en su defensa si han sido víctimas", dijo Goldberg al medio, refiriéndose al apoyo de los fans de Swift. "Incluso aquellas plataformas que sí tienen políticas de deepfake, no son muy buenas a la hora de hacerlas cumplir, o especialmente si el contenido se ha difundido muy rápidamente, se convierte en el típico escenario de whack-a-mole".

Ver imagen en pantalla completaARCHIVO - Taylor Swift actúa durante la gira "The Eras Tour" en Nashville, Tennessee, el 5 de mayo de 2023. George Walker IV / The Associated Press

"Así como la tecnología está creando el problema, también es la solución obvia", continuó.

"La IA de estas plataformas puede identificar estas imágenes y eliminarlas. Si hay una sola imagen que prolifera, esa imagen puede llevar una marca de agua e identificarse también. Así que no hay excusa".

Pero X podría estar enfrentándose a una serie de complicaciones adicionales a la hora de detectar imágenes falsas y perjudiciales e información errónea. Cuando Elon Musk compró el servicio en 2022, puso en marcha una triple serie de decisiones que han sido ampliamente criticadas por permitir que florezca el contenido problemático: no sólo relajó las normas de contenido del sitio, sino que también destripó el equipo de moderación de Twitter y restableció cuentas que habían sido previamente prohibidas por violar las reglas.

Ben Decker, que dirige Memetica, una agencia de investigación digital, dijo a CNN que aunque es desafortunado y erróneo que Swift fuera el objetivo, podría ser el empujón necesario para llevar la conversación sobre los deepfakes de IA a la vanguardia.

"Cuando tienes figuras como Taylor Swift que son tan grandes [objetivo], tal vez esto es lo que impulsa la acción de los legisladores y las empresas de tecnología, porque no pueden permitirse que la novia de América esté en una campaña pública contra ellos", dijo.

"Yo diría que tienen que hacerla sentir mejor porque ella tiene probablemente más influencia que casi cualquier otra persona en Internet".

Y no sólo los ultrafamosos están en el punto de mira de esta forma particular de desinformación insidiosa; mucha gente corriente ha sido objeto de deepfakes, a veces el blanco del "porno de la venganza", cuando alguien crea imágenes explícitas de ellos sin su consentimiento.

En diciembre, el organismo de control de la ciberseguridad de Canadá advirtió de que los votantes debían estar atentos a las imágenes y vídeos generados por IA que "muy probablemente" se utilizarían para intentar socavar la fe de los canadienses en la democracia en las próximas elecciones.

En su nuevo informe, el Communications Security Establishment (CSE) afirma que los deepfakes políticos "serán casi con toda seguridad más difíciles de detectar, lo que hará más difícil que los canadienses confíen en la información en línea sobre políticos o elecciones".

"A pesar de los potenciales beneficios creativos de la IA generativa, su capacidad para contaminar el ecosistema de la información con desinformación amenaza los procesos democráticos en todo el mundo", escribió la agencia.

¿Y tú que opinas?

Nombre:

Categorías:

Noticias relacionadas