Hasta ahora la estafa más común por IA consistía en “clonar” voces. Ahora llega el turno de las videollamadas

Hasta ahora la estafa más común por IA consistía en

Hace unas semanas nos hicimos eco en Xataka de cómo la inteligencia artificial está siendo utilizada para el fraude de diversas formas. En este artículo contamos la historia de Ruth Card, de 73 años, una mujer mayor que recibió una llamada del que parecía ser su nieto Brandon, pero que en realidad era un grupo de estafadores: “Abuela, estoy en la cárcel, sin cartera, sin teléfono. Necesito dinero para la fianza”. El timo se realizó usando un deepfake de audio que imitaba la voz de su nieto mientras se realizaba la llamada.

La cosa no ha quedado ahí. Este tipo de estafas ha evolucionado rápidamente en los últimos meses con la incipiente creación de herramientas de IA y ya se usan clonaciones de voz e incluso de vídeo de una persona para estafar a sus familiares por videollamada.

IA con el objetivo de estafar. Tal y como señala El Mundo en este artículo, un hombre del norte de China recibió una videollamada por WeChat de su mujer. Esta le pidió 3.600 euros porque había tenido un accidente de coche y tenía que solucionar la situación con el otro conductor. Claro está, no era su mujer. Y aunque le llamó desde otra cuenta, el hombre cayó en la trampa ya que la cara que aparecía en la videollamada gesticulando y hablando con su mismo tono de voz era la de su mujer. Aunque se trataba de otra imitación con IA.

Al parecer, los estafadores habían estado vigilando al matrimonio y conocían sus hábitos, además de que la mujer tenía un canal de cocina bastante popular en una red social y de ahí sacaron las capturas de su rostro y voz para hacer el deepfake.

Una tendencia global. Una nueva oleada de estafas usando voces generadas por IA está creciendo en todo el mundo. The Washington Post reúne varios casos recientes y advierten de que, según datos de la FTC, en 2022 este tipo de fraudes en los que alguien suplanta la identidad de otra persona fueron los segundos más frecuentes, con más de 36.000 denuncias de gente que fue engañada (o casi) por otros que simulaban ser amigos o familiares. En 2021, una persona logró robar 35 millones de dólares a un banco usando esta tecnología.

¿Cómo funciona? Los avances en inteligencia artificial ya permiten replicar una voz con una muestra de audio de solo unas pocas frases (algo muy fácilmente accesible en las redes sociales de la persona). El software de generación de voz analiza lo que hace que la voz de una persona sea única (edad, género o acento), y busca en una amplia base de datos de voces para encontrar voces similares y predecir patrones. Luego puede recrear el tono, el timbre y los sonidos individuales de la voz de una persona para crear un efecto similar. A partir de ahí, el estafador puede decir lo que quiera con esa voz.

En la mayoría de ocasiones es casi imposible distinguirla, y mucho menos cuando quien realiza la llamada lo hace con cierto tono de urgencia. Y más complicado es aún que una persona mayor y que desconoce estas tecnologías se de cuenta del peligro. Empresas como ElevenLabs, una startup de síntesis de voz con IA, transforman una breve muestra vocal en una voz generada sintéticamente por un módico precio que va desde los 5 euros a los 300 al mes, dependiendo del límite de audios.

Preocupaciones en China. En el país asiático este fenómeno ya es motivo de preocupación por parte de las autoridades, que han comenzado a aconsejar el público mediante publicaciones en Weibo, el twitter chino, que “sean cauteloso al dar información biométrica y que se abstenga de compartir videos y otras imágenes de sí mismos en Internet”. Se están dando casos muy dispares. Uno ha creado cierta polémica en la industria del e-commerce porque algunos usuarios están utilizando esta tecnología para clonar los rostros de los streamers famosos y vender sus productos.

Otro caso sonado fue el arresto de un hombre que había utilizado ChatGPT para crear un artículo falso sobre un accidente de tren con nueve muertos. No sólo eso, había conseguido posicionarlo en los primeros puestos del buscador Baidu.

La legislación. Es el obstáculo más grande para frenar esta lacra. Los expertos dicen que los reguladores, las fuerzas del orden público y los tribunales no tienen suficientes recursos para frenar este fenómeno creciente. Primero, porque es muy complicado identificar al estafador o rastrear llamadas, que están localizadas alrededor del mundo y no siempre la jurisdicción de un país llega a todas partes. Y segundo, porque se trata de una tecnología nueva y no existe suficiente jurisprudencia para que los tribunales responsabilicen a las empresas por esto.

En China van a la cabeza en la batalla contra este tipo de fraude. En el país asiático se ha aprobado una nueva ley que regula las tecnologías de IA generativas de texto, imágenes y vídeos. Esta ley, lanzada por la Administración del Ciberespacio, que se ocupa del campo de Internet en China, se aprobó poco después de que se lanzara ChatGPT, el chatbot de OpenAI, que también está censurado en el país, aunque mucho hayan accedido a él ilegalmente.

Imagen:

En Xataka | Diferenciar al Chicote real del Chicote deepfake generado por IA ya es casi imposible (y es un problema)


La noticia

Hasta ahora la estafa más común por IA consistía en “clonar” voces. Ahora llega el turno de las videollamadas

fue publicada originalmente en

Xataka

por
Albert Sanchis

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *