Escucha Nuestro Podcast El Cabildo

Es tendencia

cerrar

Tecnología y Redes

22 de mayo de 2023

Cómo los estafadores pueden suplantar la voz de nuestros conocidos con IA

Suplantar la voz con IA

A medida que la inteligencia artificial continúa avanzando, es crucial estar informado sobre las posibles amenazas que pueden surgir. La suplantación de voz basada en IA es solo una de las muchas formas en que los estafadores intentan acceder a información sensible.

Por

Los estafadores están encontrando formas cada vez más sofisticadas para engañar a las personas. Uno de los últimos peligros es el uso de la inteligencia artificial (IA) para suplantar la voz de nuestros conocidos. En esta nota te contamos cómo lo hacen y las precauciones que debes tener.

Con la IA, el «cuento del tío» se ha sofisticado. Gracias a esta tecnología, ahora los estafadores pueden imitar la voz de un amigo, familiar o colega, con el objetivo de engañar a sus víctimas y obtener datos o dinero.

«Hay algoritmo que se están desarrollando, donde tú hablas unos minutos y capta tu voz. Después inventas un texto y lo reproduce como fueras «, señala Pedro Huichalaf, experto en nuevas tecnologías y ex Subsecretario de Telecomunicaciones.

Cómo los estafadores pueden suplantar la voz de nuestros conocidos con IA

La suplantación de voz basada en IA no es algo nuevo, en internet hay muchas páginas que permiten clonar la voz de un personaje, artista o famoso. 

Estas funciona mediante el entrenamiento de algoritmos avanzados con muestras de voz de la persona a suplantar.

Estos algoritmos pueden analizar y replicar las sutilezas del habla, el tono, la entonación y los patrones vocales únicos de cada individuo.

El resultado es una voz sintética que puede parecer indistinguible de la voz real de la persona a la que intentan suplantar.

¿Cómo funciona?

Las muestras de voz se pueden obtener a través de grabaciones públicas disponibles en redes sociales o a través la técnica de phishing con voz.

Luego, ingresan la muestra al algoritmo de IA para crear una réplica convincente de la voz. Posteriormente, utilizan esta voz sintética para hacer llamadas telefónicas engañosas o enviar mensajes de voz manipulados.

«Es una simulación que se obtiene por grabación o por descargar un video de redes sociales de la persona hablando. Luego reproducen un texto específico en base a esa voz», explica Huichalaf.

¿Cómo identificar una suplantación de voz? 

Según el experto, los métodos de suplantación de voz basados en IA son preocupantes debido a la confianza que tenemos en las voces de las personas que conocemos.

Cuando alguien nos llama o nos deja un mensaje de voz, a menudo asumimos que es genuino y confiamos en la información que nos proporciona.

«Es difícil para una persona reconocer cuando está interactuando con una IA, porque no tienes conciencia que una máquina contestó. Es complejo y muy difícil de identificar«, comenta el ex subsecretario.

¿Qué debes hacer?

Para protegerse de esta amenaza, es importante ser consciente de la posibilidad de la suplantación de voz y mantener una actitud de cautela. Aquí hay algunas medidas que se pueden tomar:

  1. Verificación adicional:

    Siempre dudar si recibes un mensaje, audio, llamada de alguien supuestamente de un cercano que le está pidiendo auxilio, un favor, ayuda con una transacción o pidiendo dinero. «Casi el 90%  de la veces, que usan esa forma para llegar a la persona, es una estafa», asegura Huichalaf.

    Por lo mismo, es importante verificar la identidad mediante una llamada o mensaje  a un número conocido.

  2. Educación y conciencia:

    Familiarícese con las técnicas de suplantación de voz basadas en IA. «Hay que entender que la tecnología está evolucionando de tal forma que está incluso en lo que escuchamos y vemos», menciona Huichalaf.

  3. Mantenga su información personal segura:

    Evite compartir datos personales sensibles a través de llamadas telefónicas o mensajes de voz, especialmente si la solicitud parece sospechosa o inusual.

  4. Implemente medidas de seguridad adicionales:

    Considere la posibilidad de utilizar autenticación de dos factores (2FA) o contraseñas seguras para proteger su información y cuentas.

 

Newsletter

Únete a la lucha contra la desinformación.
Ingresa tus datos para recibir nuestro newsletter.