Tenga cuidado con los clones de celebridades de IA que venden ‘dinero gratis’ falso en YouTube

AI photo

Los estafadores en línea están utilizando tecnología de clonación de voz con inteligencia artificial para que parezca que celebridades como Steve Harvey y Taylor Swift están animando a sus fans a caer en estafas de beneficios médicos en YouTube. 404 Los medios informaron por primera vez de la tendencia esta semana. Estos son solo algunos de los ejemplos más recientes de estafadores que utilizan herramientas de IA generativa cada vez más asequibles para atacar a comunidades a menudo económicamente empobrecidas y hacerse pasar por personas famosas para obtener ganancias financieras rápidas.

Un informante se puso en contacto con 404 Media y dirigió la publicación a más de 1.600 vídeos de YouTube en los que aparecen voces falsas de celebridades y de personas no famosas para promover estafas. Según se informa, esos videos, muchos de los cuales permanecen activos al momento de escribir este artículo, han obtenido 195 millones de visitas. Los videos parecen violar varias de las políticas de YouTube, particularmente aquellas relacionadas con la suplantación de identidad, el spam y las prácticas engañosas. YouTube no respondió de inmediato ciencia pop petición de comentario.

¿Cómo funciona la estafa?

Los estafadores intentan engañar a los espectadores utilizando clips recortados de celebridades y grabaciones de voz creadas con herramientas de inteligencia artificial que imitan las voces de las celebridades. Steve Harvey, Oprah, Taylor Swift, el podcaster Joe Rogan y el comediante Kevin Hart tienen versiones profundas de sus voces que parecen promover la estafa. Algunos de los vídeos no utilizan en absoluto deepfakes de celebridades, sino que parecen utilizar actores habituales de personas reales que ofrecen diferentes variaciones de una historia similar. Las cuentas de YouTube suelen publicar vídeos con nombres engañosos como “USReliefGuide”, “ReliefConnection” y “Health Market Navigators”.

«Te he estado diciendo durante meses que pidas estos 6.400 dólares», intentan imitar clones falsos Disputa familiar dice el presentador Steve Harvey. «¡Cualquiera puede conseguir esto incluso si no tiene trabajo!» Sólo ese vídeo, que todavía estaba en YouTube en el momento de escribir este artículo, tuvo más de 18 millones de visitas.

Aunque la redacción exacta de las estafas varía de un vídeo a otro, generalmente siguen un patrón básico. Primero, una celebridad o un actor profundamente falsificado se dirige a la audiencia y les alerta sobre un cheque de estímulo de fin de año de 6.400 dólares proporcionado por el gobierno de Estados Unidos a través de una «tarjeta sanitaria». La voz de la celebridad luego dice que cualquiera puede solicitar el estímulo siempre que no esté inscrito en Medicare o Medicaid. Luego, generalmente se indica a los espectadores que hagan clic en un enlace para registrarse para obtener los beneficios. Como muchas estafas efectivas, el video también inyecta una sensación de urgencia al tratar de convencer a los espectadores de que el trato falso no durará mucho.

En realidad, las víctimas que hacen clic en esos enlaces a menudo son redirigidas a URL con nombres como “secret Savingsusa.com” que en realidad no están afiliadas al gobierno de Estados Unidos. Los reporteros de PolitiFact llamaron al número de registro que figura en una de esas páginas y hablaron con un “agente no identificado” que les preguntó sobre sus ingresos, estado civil para efectos de impuestos y fecha de nacimiento; cualquier información personal confidencial que pueda usarse potencialmente para participar en fraude de identidad. En algunos casos, los estafadores supuestamente también solicitan números de tarjetas de crédito. Esta estafa parece estar utilizando la confusión sobre los créditos fiscales estatales reales como gancho para atraer a las víctimas.

Existen numerosos programas y subsidios gubernamentales para ayudar a las personas necesitadas, pero las afirmaciones genéricas que ofrecen «dinero gratis» del gobierno de Estados Unidos generalmente son señales de alerta. Reducir los costos asociados con la tecnología de inteligencia artificial generativa que puede crear imitaciones algo creíbles de voces de celebridades puede hacer que estas estafas sean aún más creíbles. La Comisión Federal de Comercio (FTC) advirtió sobre esta posibilidad en una publicación de blog el año pasado donde proporcionó ejemplos simples de estafadores que utilizan deepfakes y clones de voz para participar en extorsión y fraude financiero, entre otras actividades ilegales. Un estudio reciente realizado por Más uno El año pasado se descubrió que el audio deepfake ya puede engañar a los oyentes humanos casi el 25% de las veces.

La FTC se negó a comentar sobre esta reciente serie de estafas de celebridades.

La tecnología de inteligencia artificial asequible y fácil de usar ha impulsado el aumento de las estafas a celebridades

Este no es el primer caso de deepfakes de celebridades y es casi seguro que no será el último. La leyenda de Hollywood Tom Hanks se disculpó recientemente con sus fanáticos en Instagram después de que su clon falso fuera descubierto promocionando una estafa de un plan dental. No mucho después, la presentadora de CBS, Gayle King, dijo que los estafadores estaban usando métodos similares de falsificación para que pareciera que ella estaba promocionando un producto para bajar de peso. Más recientemente, los estafadores supuestamente combinaron un clon de inteligencia artificial de la voz de la estrella del pop Taylor Swift con imágenes de la vida real de ella usando utensilios de cocina Le Creuset para tratar de convencer a los espectadores de que se inscribieran en un sorteo de utensilios de cocina. Los fanáticos nunca obtuvieron las ollas y sartenes brillantes.

Los legisladores están luchando por redactar nuevas leyes o aclarar las leyes existentes para tratar de abordar problemas crecientes. Varias leyes propuestas, como la Ley de Responsabilidad de Deepfakes y la Ley Anti-Spoofing, otorgarían a las personas más poder para controlar las representaciones digitales de su imagen. Esta misma semana, un grupo bipartidista de cinco miembros de la Cámara de Representantes presentó la Ley de Fraude de IA que intenta establecer un marco federal para proteger los derechos de las personas a su imagen digital, con énfasis en los artistas e intérpretes. Aún así, no está claro qué probabilidades hay de que se aprueben en medio de la avalancha de nuevos y acelerados proyectos de ley sobre IA que se abren paso en el Congreso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *