La tecnología avanza de manera asombrosa, de repente nos enteramos de alguna nueva aplicación, de algún nuevo invento y de a poco nos vamos acercando a una era totalmente automatizada, como ya sucede en países como Japón o China, donde ya todo es controlado por máquinas o por vía digital.
Las herramientas digitales son creadas, principalmente, con la finalidad de hacer más fácil la vida de las personas, de concentrar todo, por ejemplo, en un centro de mando como puede ser nuestro teléfono celular y desde ahí poder activar cualquier dispositivo dentro de la casa o la oficina, ya depende de cada persona el uso que decida hacer de todos estos avances.
Es el caso del manejo de la Inteligencia Artificial, y el uso que le da a cada usuario un sinfín de posibilidades y aplicaciones que muchas veces desconocemos y es así como hay ciertas personas que están usando esa tecnología, pero con fines delictivos, ya que están engañando gente, haciéndoles creer que son un familiar, pero esta vez con mensajes de audio, clonando la voz de dicha persona.
Lee también: Robo de identidad y fraudes, principales riesgos de las compras en línea
Entonces, gente que desconoce de esta nueva forma de crear voz a partir de un software y de alguna grabación que logran obtener por redes sociales o por WhatsApp y de ahí consiguen reproducir la voz de cualquier persona, entonces mandan un mensaje de voz y la persona que recibe reconoce la voz de su familiar y ya hay quienes han caído en el engaño.
Con su madre presente
“Mi’jo, me acabo de meter en un gran problema y necesito de tu ayuda, te estoy marque y marque y no me contestas, te estoy mandando mensajes porque te necesito, por favor contestame, hijo necesito que me mandes 3 mil pesos, no te preocupes yo ahorita llegando a la casa te explico y sabes que tengo el dinero, te lo voy a devolver, solo deposítamelo, ahorita mismo, porque sí me urge”, dice el mensaje de voz.
Así lo expuso en redes sociales un joven de Coahuila, quien recibió un mensaje de voz, supuestamente de su madre, pero para su buena fortuna ella estaba en casa y de inmediato concluyó que se trataba de un intento de estafa, por lo que decidió compartirlo en sus redes para advertir a sus contactos de esta nueva modalidad del crimen cibernético.
“Este mensaje me lo acaba de mandar mi mamá, lo curioso es que mi mamá está aquí presente, el detalle aquí es cómo están utilizando la inteligencia artificial, yo se que hay muchos casos de estos y me acaba de pasar”, explica el joven en el video.
Cómo funciona la clonación
Para conseguir clonar la voz de una persona solo hace falta ingresar un archivo, lo más claro posible de una persona hablando, ya sea de audio o de video y con tan solo con pocos segundos de grabación de esa voz es posible generar audio para suplantar el mismo tono de una persona.
¡Suscríbete a nuestro Newsletter y recibe las noticias directo a tu correo electrónico
La fidelidad es sorprendente, ya que gente de su propia familia puede caer fácilmente en el engaño y una forma muy recurrente es realizando una o varias llamadas a su potencial víctima en las que hay respuesta, no les acaban contestando con el fin de obtener una grabación lo más limpia posible de la persona hablando.
Es por eso que las recomendaciones son antes que nada o de caer en pánico o en un intento de estafa, es contactar a la persona que está siendo suplantada y comprobar que se encuentre bien, además de seguir los protocolos de seguridad de nuestras cuentas de redes sociales, para evitar que sean hackeadas e intenten obtener un beneficio a costa de algún incauto.
¿Ya nos sigues en WhatsApp? Regístrate con un solo clic en nuestro canal