Diario Textual
  • INICIO
  • POLITICA
  • SOCIEDAD
  • ECONOMIA
  • MUNDO
  • TECNO
  • CULTURA
  • DEPORTES

Diario Textual

  • INICIO
  • POLITICA
  • SOCIEDAD
  • ECONOMIA
  • MUNDO
  • TECNO
  • CULTURA
  • DEPORTES
Vaque


Alertan por estafas en Santa Rosa: clonan la voz de familiares con Inteligencia Artificial para robar dinero

6 de noviembre de 2024
Alertan por estafas en Santa Rosa: clonan la voz de familiares con Inteligencia Artificial para robar dinero

La Policía alertó sobre una una nueva modalidad de estafa en Santa Rosa: mediante la utilización de Inteligencia Artificial clonan la voz de familiares cercanos y solicitan dinero de forma urgente a través de WhatsApp. El engaño, conocido como “vishing”, emplea algoritmos de IA para crear audios que imitan el tono y timbre de una persona, logrando así una suplantación casi perfecta que hace difícil detectar el fraude.

¿Cómo funciona esta modalidad de estafa? Llaman varias veces a una persona y graban la voz. Luego, mediante la Inteligencia Artificial la replican y llaman a familiares pidiendo dinero o que les abran la puerta porque se olvidaron las llaves. Así logran roban dinero o terminan ingresando a las viviendas.





Agroenergia




La estrategia de los ciberdelincuentes se basa en conseguir fragmentos de voz no solo con llamadas, sino también en redes sociales o videos. Con solo unos segundos de audio de una persona generan una réplica casi perfecta. Posteriormente, al robar cuentas de WhatsApp, los estafadores utilizan la voz clonada para enviar mensajes de texto y audios, creando una situación de emergencia que apela al vínculo familiar para solicitar ayuda económica.

Cómo prevenirse de estas estafas

Para evitar caer en estos engaños hay que implementar ciertas medidas de seguridad:





-Limitar el uso de grabaciones de voz en redes sociales: cuanto menos contenido de voz haya disponible en plataformas públicas, más difícil será para los delincuentes clonar la voz.

-Establecer palabras clave familiares para verificar la identidad: crear preguntas de validación personal, como “¿cuál es el plato preferido de la abuela?”, puede ayudar a confirmar la autenticidad de la persona en situaciones sospechosas.

-No compartir códigos de verificación de WhatsApp: WhatsApp nunca solicita este tipo de códigos por mensaje. Si se recibe un pedido de código de verificación, es muy probable que se trate de un intento de estafa.

-Configurar autenticación en dos pasos en WhatsApp: activar esta función añade una capa extra de seguridad, haciendo más difícil que alguien acceda a la cuenta sin permiso.

-Mantener dispositivos y aplicaciones actualizados: las actualizaciones de software y de seguridad en los dispositivos ayudan a corregir vulnerabilidades que los delincuentes podrían aprovechar.

-Utilizar contraseñas seguras y únicas: una contraseña robusta disminuye el riesgo de que se adivine o se crackee fácilmente, lo que protege la cuenta de WhatsApp y otros servicios.

-Desconfiar de solicitudes de dinero urgentes: ante mensajes que piden transferencias inmediatas, lo mejor es verificar por otros medios la autenticidad de la situación antes de realizar cualquier acción.






  • Facebook
  • Twitter
  • Instagram

Copyright 2009 | DiarioTextual.com | Todos los derechos reservados | Santa Rosa – La Pampa – Argentina Dirección: Sergio Romano Contacto: [email protected] Contacto publicitario: 02954 -15377691 (Vanesa Cavallotto)

DISEÑO Y DESARROLLO WEB - www.generarweb.com