jueves 25 de abril de 2024

¡TECNOLOGÍA COMO ARMA PARA EL DELITO! El FBI advierte sobre el uso creciente de deepfakes generados por IA para la ‘sextorsión’

Este lunes, el FBI alertó del creciente uso de la inteligencia artificial para generar videos falsos que se emplean en esquemas de ‘sextorsión’ o extorsión sexual, con el fin de acosar a menores y adultos que no dieron su consentimiento, coaccionarles para que paguen algún rescate por el material o cumplan con otras exigencias.

La ‘sextorsión’ o extorsión sexual existe desde hace décadas. Consiste en que un conocido o desconocido vía online engañe a una persona para que le proporcione un pago, una foto explícita o de temática sexual u otro aliciente, mediante la amenaza de compartir con los demás imágenes comprometedoras que se obtuvieron previamente. En algunos casos, el material en posesión de los estafadores es real y se consiguió de alguien que la víctima conoce, o de una cuenta que fue hackeada. Otras veces, solo aseguran tener material explícito sin aportar ninguna prueba.

Tras convencer a las víctimas de que sus fotos explícitas o comprometedoras están en su poder, los estafadores exigen algún tipo de pago a cambio de no enviar el contenido a familiares, amigos o empleadores. En caso de que les entreguen imágenes sexualmente explícitas como pago, los timadores suelen utilizar el nuevo contenido para mantener la estafa durante el mayor tiempo posible.

Acoso y ‘sextorsión’ impulsados por inteligencia artificial

En los últimos meses, señala el FBI en una alerta publicada el lunes, ha crecido el uso de la inteligencia artificial para generar videos falsos que aparentemente muestran a personas reales participando en actividades sexualmente explícitas.

«El FBI continúa recibiendo informes de víctimas, incluidos menores y adultos que no lo consintieron, cuyas fotos o videos fueron alterados en contenido explícito«, escribieron los agentes. «Después, se difunden públicamente los materiales en las redes sociales o sitios web pornográficos con el propósito de acosar a las víctimas o como parte de esquemas de extorsión sexual«.

Y siguen declarando que:

A partir de abril de 2023, el FBI ha observado un incremento de las víctimas de extorsión sexual que informan del uso de imágenes o videos falsos creados a partir de contenido publicado en sus redes sociales o publicaciones web, proporcionados al actor malicioso mediante solicitud del mismo, o que fue tomado mediante capturas de pantalla durante chats de video. De acuerdo con los informes recientes de las víctimas, los actores maliciosos suelen exigir: 1. Un pago (por ejemplo, dinero, tarjetas regalo) con la amenaza de compartir las imágenes o videos con miembros de la familia o amigos en las redes sociales si no se recibían los fondos; o 2. El envío por parte de la víctima de imágenes o videos reales de temática sexual”.

El software y los servicios basados en la nube para crear los llamados videos deepfake abundan en internet y abarcan desde programas de código abierto disponibles gratuitamente hasta cuentas de suscripción. Con los avances de la inteligencia artificial en los últimos años, la calidad de estas soluciones ha mejorado drásticamente hasta el punto de ser suficiente una sola imagen de la cara de alguien para convertirla en un video falso realista.

La mayoría de las plataformas de deepfake incluyen, por lo menos aparentemente, protecciones diseñadas para evitar los fraudes con este material mediante, por ejemplo, una comprobación integrada que impide que el programa funcione en ‘medios inapropiados’. En la práctica, estas medidas suelen ser fáciles de eludir y hay servicios disponibles en mercados clandestinos que no incluyen estas restricciones.

Los estafadores suelen obtener las fotos de las víctimas de las redes sociales o de otros sitios y las utilizan para crear «imágenes de temática sexual que aparentan ser reales en cuanto a su parecido con la víctima, y después las hacen circular por las redes sociales, foros públicos o sitios web pornográficos«, advirtieron las autoridades del FBI. “Muchas víctimas, entre las que se han incluido menores, no son conscientes de que sus imágenes han sido copiadas, manipuladas y difundidas hasta que alguien les avisa de ello. Las fotos son entonces enviadas directamente a dichas víctimas por actores maliciosos, con fines de extorsión sexual o acoso, o hasta que son descubiertas por ellos mismos en internet. Una vez difundidas, las víctimas pueden enfrentarse a importantes dificultades para impedir que se sigan compartiendo los contenidos manipulados o que se retiren de internet”.

El FBI exhortó a la gente a tomar precauciones para evitar que sus imágenes se utilicen en deepfakes.

«Aunque aparentemente inofensivas cuando se publican o comparten, las imágenes y los videos pueden proporcionar a los actores maliciosos una abundante fuente de contenidos para explotar con fines delictivos«, según declararon las autoridades. “Los avances en la tecnología de creación de contenidos y las imágenes personales accesibles online ofrecen nuevas oportunidades a los agresores para encontrar y atacar a las víctimas. Esto les hace vulnerables a la vergüenza, el acoso, la extorsión, la pérdida financiera o la revictimización continua a largo plazo”.

Las personas que hayan recibido amenazas de ‘sextorsión’ deben conservar todas las pruebas disponibles, en particular capturas de pantalla, textos, grabaciones, emails que documenten nombres de usuario, direcciones de correo electrónico, sitios web o plataformas utilizadas para la comunicación y direcciones IP. Es recomendable que acudan a las autoridades, como la policía cibernética local.

NAM – Ars Technica


Síguenos en nuestras redes sociales para que tengas toda la ¡INFORMACIÓN AL INSTANTE!

Visite nuestro sitio web:
https://noticiaalminuto.com/

Twitter:
https://noticiaalminuto.com/twitter

Instagram:
https://noticiaalminuto.com/instagram

Telegrama:
https://noticiaalminuto.com/telegrama

Grupo de WhatsApp:
https://noticiaalminuto.com/whatsapp