Tu Voz En Libertad
Cobertura Rumbo a Elecciones 2024
Cobertura Corredor Interoceanico
Lo mas viral

La nueva estafa de WhatsApp, así pueden imitar a un familiar con la ayuda de la IA

A pesar de los avances en la seguridad de WhatsApp, cualquier persona puede ser víctima de los ciberdelincuentes.

| 2024-10-29 | Julia Castro
La nueva estafa de WhatsApp, así pueden imitar a un familiar con la ayuda de la IA
Diario del IstmoDiario del Istmo

WhatsApp se ha colocado como una de las plataformas de mensajería favoritas de los mexicanos, y más de 2 mil millones de usuarios activos mensuales, que utilizan la app cada día para comunicarse con sus amigos, familiares e incluso en el trabajo. 

Tal es su uso, que las estafas y los fraudes también están a la orden del día en esta app. Y la estafa más reciente la ha dado a conocer un joven a través de redes sociales, en donde muestra cómo 'su mamá' le envía una serie de audios, solicitándole dinero. 

Así funcia la IA en esta nueva estafa de WhatsApp

En este audio viral de la supuesta 'mamá' está detrás la inteligencia artificial (IA), ya que copia la voz de ella para hacerle creer a su hijo que está en una situación en la que necesita el dinero lo más rápido posible, algo que también es posible al robo de cuentas en la aplicación.

Esta modalidad de fraude se conoce como visihing, en la que se usa la IA para clonar la voz de una persona para suplantar su identidad, en el video publicado, el joven muestra el chat de WhatsApp que tiene con su mamá  y allí aparecen una serie de audios.

@karolortiz777

? sonido original - Karol salinas

El joven le responde a su supuesta mamá que ya mismo le hace la transferencia a la cuenta de siempre. Sin embargo, desde los audios le insisten que no lo haga porque no tiene la tarjeta para retirar el dinero de esa cuenta habitual, así que mejor es transferirle por otra cuenta. 

En esta estafa, los ciberdelincuentes capturan el audio de la víctima a través de redes sociales, videos públicos o incluso realizando una llamada falsa para grabar la voz. Una vez que se tiene una muestra de audio, los estafadores utilizan esta tecnología para generar palabras o frases que la persona original nunca pronunció.

Por esto, para que no seas la siguiente víctima de esta estafa en WhatsApp, lo que puedes hacer es:

  • Limitar el uso de grabaciones de voz en redes sociales 
  • Configurar palabras claves familiares que permitan confirmar la identidad en situaciones de emergencia. 
  • Evitar compartir códigos de verificación de WhatsApp
  • Mantener los dispositivos actualizados y seguros. 
  • Lo último
  • Lo más leído
Diario del Istmo
Imagen de Veracruz
Imagen del golfo

SÍGUENOS EN REDES

 

Nosotros | Publicidad | Suscripciones | Contacto | Aviso de Privacidad

 

Reservados todos los derechos 2024