Advierten sobre el incremento de estafas mediante clonación de voz impulsadas por IA
Este engaño no solo está en crecimiento, sino que es cada vez más realista gracias a las nuevas tecnologías.

Estafa con mensajes de voz
En los últimos años, las estafas que utilizan clonación de voz han crecido exponencialmente gracias al uso de la Inteligencia Artificial (IA).
Revisa también

Los ciberdelincuentes han aprovechado esta tecnología para crear ataques de ingeniería social cada vez más sofisticados y realistas.
Mediante pequeños fragmentos de grabaciones de voz obtenidas de redes sociales como Instagram o TikTok, los atacantes generan conversaciones falsas para engañar a sus víctimas, solicitando información privada o dinero.
Para dimensionar cuál es su impacto, la Comisión Federal de Comercio de los Estados Unidos informó que solo en 2023 ese país perdió 2.700 millones de dólares solo por estafas. En esa línea, Starling Bank (banco británico que opera de manera online) alertó sobre la preponderancia de este tipo de estafas en el Reino Unido.
La encuesta realizada a más de 3.000 personas reveló que más de una cuarta parte de los adultos afirma haber sido víctima de una estafa de clonación de voz mediante inteligencia artificial al menos una vez al año. Además, el 46% de los encuestados mencionó que no sabía que existían tales estafas.
Desde ESET, compañía líder en detección proactiva de amenazas, advierten que ante este tipo de estafas que involucran la ingeniería social, el primer consejo es mantenerse bien alerta.
Esto quiere decir, prestar especial atención a aquellos mensajes inesperados que llegan con la urgencia de solicitar dinero o credenciales de ciertas cuentas. Y en esa misma línea, devolver la llamada al familiar o amigo en cuestión a un número de teléfono conocido.
Otra de las medidas sugeridas, es tener una “frase segura”, que sea acordada previamente entre familiares y amigos, con el objetivo de comprobar si la persona que está hablando del otro lado es quien realmente dice ser.