/ lunes 11 de noviembre de 2024

'Casi caemos en la trampa': La peligrosa realidad de las estafas con voz clonada

Por medio de la Inteligencia Artificial un joven recibió un mensaje de voz de su madre, quien le pedía dinero, la voz sonaba idéntica y se alarma por el uso de esta tecnología

La tecnología avanza de manera asombrosa, de repente nos enteramos de alguna nueva aplicación, de algún nuevo invento y de a poco nos vamos acercando a una era totalmente automatizada, como ya sucede en países como Japón o China, donde ya todo es controlado por máquinas o por vía digital.

Las herramientas digitales son creadas, principalmente, con la finalidad de hacer más fácil la vida de las personas, de concentrar todo, por ejemplo, en un centro de mando como puede ser nuestro teléfono celular y desde ahí poder activar cualquier dispositivo dentro de la casa o la oficina, ya depende de cada persona el uso que decida hacer de todos estos avances.

Es el caso del manejo de la Inteligencia Artificial, y el uso que le da a cada usuario un sinfín de posibilidades y aplicaciones que muchas veces desconocemos y es así como hay ciertas personas que están usando esa tecnología, pero con fines delictivos, ya que están engañando gente, haciéndoles creer que son un familiar, pero esta vez con mensajes de audio, clonando la voz de dicha persona.

@info7mty

Usuario de redes sociales muestra cómo los delincuentes están usando la inteligencia artificial para clonar la voz de tus familiares. #info7 #inteligenciaartificial

♬ sonido original - INFO7MTY

Lee también: Robo de identidad y fraudes, principales riesgos de las compras en línea

Entonces, gente que desconoce de esta nueva forma de crear voz a partir de un software y de alguna grabación que logran obtener por redes sociales o por WhatsApp y de ahí consiguen reproducir la voz de cualquier persona, entonces mandan un mensaje de voz y la persona que recibe reconoce la voz de su familiar y ya hay quienes han caído en el engaño.

Con su madre presente

“Mi’jo, me acabo de meter en un gran problema y necesito de tu ayuda, te estoy marque y marque y no me contestas, te estoy mandando mensajes porque te necesito, por favor contestame, hijo necesito que me mandes 3 mil pesos, no te preocupes yo ahorita llegando a la casa te explico y sabes que tengo el dinero, te lo voy a devolver, solo deposítamelo, ahorita mismo, porque sí me urge”, dice el mensaje de voz.

Así lo expuso en redes sociales un joven de Coahuila, quien recibió un mensaje de voz, supuestamente de su madre, pero para su buena fortuna ella estaba en casa y de inmediato concluyó que se trataba de un intento de estafa, por lo que decidió compartirlo en sus redes para advertir a sus contactos de esta nueva modalidad del crimen cibernético.

Las compras en línea se duplicaron, pero los fraudes digitales crecieron cuatro veces en 2020 / Foto: Cecilia Saijas | El Sol de Hermosillo

“Este mensaje me lo acaba de mandar mi mamá, lo curioso es que mi mamá está aquí presente, el detalle aquí es cómo están utilizando la inteligencia artificial, yo se que hay muchos casos de estos y me acaba de pasar”, explica el joven en el video.

Cómo funciona la clonación

Para conseguir clonar la voz de una persona solo hace falta ingresar un archivo, lo más claro posible de una persona hablando, ya sea de audio o de video y con tan solo con pocos segundos de grabación de esa voz es posible generar audio para suplantar el mismo tono de una persona.

¡Suscríbete a nuestro Newsletter y recibe las noticias directo a tu correo electrónico

La fidelidad es sorprendente, ya que gente de su propia familia puede caer fácilmente en el engaño y una forma muy recurrente es realizando una o varias llamadas a su potencial víctima en las que hay respuesta, no les acaban contestando con el fin de obtener una grabación lo más limpia posible de la persona hablando.

Es por eso que las recomendaciones son antes que nada o de caer en pánico o en un intento de estafa, es contactar a la persona que está siendo suplantada y comprobar que se encuentre bien, además de seguir los protocolos de seguridad de nuestras cuentas de redes sociales, para evitar que sean hackeadas e intenten obtener un beneficio a costa de algún incauto.

¿Ya nos sigues en WhatsApp? Regístrate con un solo clic en nuestro canal

La tecnología avanza de manera asombrosa, de repente nos enteramos de alguna nueva aplicación, de algún nuevo invento y de a poco nos vamos acercando a una era totalmente automatizada, como ya sucede en países como Japón o China, donde ya todo es controlado por máquinas o por vía digital.

Las herramientas digitales son creadas, principalmente, con la finalidad de hacer más fácil la vida de las personas, de concentrar todo, por ejemplo, en un centro de mando como puede ser nuestro teléfono celular y desde ahí poder activar cualquier dispositivo dentro de la casa o la oficina, ya depende de cada persona el uso que decida hacer de todos estos avances.

Es el caso del manejo de la Inteligencia Artificial, y el uso que le da a cada usuario un sinfín de posibilidades y aplicaciones que muchas veces desconocemos y es así como hay ciertas personas que están usando esa tecnología, pero con fines delictivos, ya que están engañando gente, haciéndoles creer que son un familiar, pero esta vez con mensajes de audio, clonando la voz de dicha persona.

@info7mty

Usuario de redes sociales muestra cómo los delincuentes están usando la inteligencia artificial para clonar la voz de tus familiares. #info7 #inteligenciaartificial

♬ sonido original - INFO7MTY

Lee también: Robo de identidad y fraudes, principales riesgos de las compras en línea

Entonces, gente que desconoce de esta nueva forma de crear voz a partir de un software y de alguna grabación que logran obtener por redes sociales o por WhatsApp y de ahí consiguen reproducir la voz de cualquier persona, entonces mandan un mensaje de voz y la persona que recibe reconoce la voz de su familiar y ya hay quienes han caído en el engaño.

Con su madre presente

“Mi’jo, me acabo de meter en un gran problema y necesito de tu ayuda, te estoy marque y marque y no me contestas, te estoy mandando mensajes porque te necesito, por favor contestame, hijo necesito que me mandes 3 mil pesos, no te preocupes yo ahorita llegando a la casa te explico y sabes que tengo el dinero, te lo voy a devolver, solo deposítamelo, ahorita mismo, porque sí me urge”, dice el mensaje de voz.

Así lo expuso en redes sociales un joven de Coahuila, quien recibió un mensaje de voz, supuestamente de su madre, pero para su buena fortuna ella estaba en casa y de inmediato concluyó que se trataba de un intento de estafa, por lo que decidió compartirlo en sus redes para advertir a sus contactos de esta nueva modalidad del crimen cibernético.

Las compras en línea se duplicaron, pero los fraudes digitales crecieron cuatro veces en 2020 / Foto: Cecilia Saijas | El Sol de Hermosillo

“Este mensaje me lo acaba de mandar mi mamá, lo curioso es que mi mamá está aquí presente, el detalle aquí es cómo están utilizando la inteligencia artificial, yo se que hay muchos casos de estos y me acaba de pasar”, explica el joven en el video.

Cómo funciona la clonación

Para conseguir clonar la voz de una persona solo hace falta ingresar un archivo, lo más claro posible de una persona hablando, ya sea de audio o de video y con tan solo con pocos segundos de grabación de esa voz es posible generar audio para suplantar el mismo tono de una persona.

¡Suscríbete a nuestro Newsletter y recibe las noticias directo a tu correo electrónico

La fidelidad es sorprendente, ya que gente de su propia familia puede caer fácilmente en el engaño y una forma muy recurrente es realizando una o varias llamadas a su potencial víctima en las que hay respuesta, no les acaban contestando con el fin de obtener una grabación lo más limpia posible de la persona hablando.

Es por eso que las recomendaciones son antes que nada o de caer en pánico o en un intento de estafa, es contactar a la persona que está siendo suplantada y comprobar que se encuentre bien, además de seguir los protocolos de seguridad de nuestras cuentas de redes sociales, para evitar que sean hackeadas e intenten obtener un beneficio a costa de algún incauto.

¿Ya nos sigues en WhatsApp? Regístrate con un solo clic en nuestro canal

Policiaca

Niegan suspensión condicional del proceso por cohecho a Natanael "N"

El juez de control decidió rechazar la suspensión condicional del proceso, esto tras escuchar los argumentos

Policiaca

¡Alerta vial! Muertes y lesiones en aumento: ¿Qué está pasando?

En lo que va de 2024, hasta el pasado 10 de noviembre se tiene un registro de mil 639 accidentes de tránsito en Hermosillo

Doble Vía

Guardia de seguridad nocturno, un trabajo para estar siempre alerta

Hay áreas que son muy aburridas y se tiene cierta libertad para hacer otras cosas, pero hay otras donde siempre se debe estar alerta, como los puntos de acceso

Local

Deja Festival de Pueblos Mágicos en Ures derrama de 8.4 MDP

Durante este festival, los visitantes disfrutaron de eventos y actividades populares, como obras de teatro, presentaciones de destino y bailes populares

Policiaca

Invitan a denunciar agresión a guardia de seguridad en Monterosa Residencial

El incidente ocurrió el 8 de noviembre a las 23:33 horas, cuando un residente del fraccionamiento reclamó al guardia sobre el permitirle el acceso a un vehículo

Cultura

Fondo Editorial Unison enriquece su catálogo literario con Enrique Vila-Matas y Mario Bellatin

El escritor barcelonés y el novelista mexicano concedieron parte de su obra para su publicación en la colección “Microgramas”