Sociedad

Estafan con clonación de voces por Inteligencia Artificial: ¿Cómo evitar que te vacíen las cuentas?

Martes, 11 de Junio de 2024

Especialistas en ciberseguridad brindaron detalles del flamante ciberdelito. Conocé cómo los delincuentes utilizan voces de seres queridos y se aprovechan de la inmediatez de WhatsApp. Recomendaciones para no caer en el engaño

La Inteligencia Artificial (IA) es un campo de la informática abocada a crear sistemas que pueden realizar tareas que normalmente requieren acciones humanas, como el aprendizaje, el razonamiento y la percepción.

En 1943 los científicos estadounidenses Warren McCulloch y Walter Pitts sentaron las bases de esta revolucionaria tecnología: su modelo de neuronas artificiales. En la década de 1990, los avances informáticos y la disponibilidad de grandes cantidades de datos permitieron a los investigadores potenciar algoritmos de aprendizaje y consolidar a la IA.

Pero, tal como la conocemos ahora, lleva una década con cambios informáticos a nivel mundial, modificando hábitos de los usuarios digitales. Las aplicaciones de IA incluyen el reconocimiento de imágenes y voz, además del procesamiento del lenguaje natural y los sistemas autónomos.

Ya existen chatbots que preguntan a los pacientes por sus síntomas para realizar un diagnóstico a partir de patrones, que adelantan trabajo a los médicos que verifican luego esas operaciones informáticas.

La tecnología inteligente, asimismo, permite evaluar riesgos y oportunidades, mejorando de esa manera la toma de decisiones en inversiones y préstamos, al proporcionar asesoramiento financiero personalizado a través de asistentes virtuales.

Además, existen plataformas educativas que emplean la IA para adaptar el contenido de aprendizaje según las necesidades individuales de los estudiantes. Y los beneficios siguen en otros campos: agricultura, energía, logística, transporte y comercio, entre otros.

Pero los delincuentes también tomaron nota de los múltiples alcances de la IA. Y en las últimas horas trascendió un nuevo ciberdelito al respecto.

Bandas internacionales, con impacto a nivel local, piden una transferencia bancaria, tras engañar a personas desprevenidas con audios de WhatsApp generados con clonación de voces de familiares y conocidos. Las víctimas reciben una urgente solicitud de dinero producto de una falsa situación de emergencia.

Se trata de una novedosa estafa derivada de la práctica fraudulenta denominada “vishing”, término en inglés derivado de “voice” (voz) y “phishing” (suplantación de identidad).

Detalles sobre la nueva modalidad delictiva

El especialista en ciberseguridad Rodrigo Iglesias, en diálogo con el portal crónica.com.ar, manifestó este lunes que, “anteriormente, el ‘vishing’ era cuando se recibía un llamado telefónico y el receptor era sometido al famoso ‘Cuento del Tío’”.

Ahora, cuando se implementa Inteligencia Artificial para clonar voces, es mucho más difícil darse cuenta de que se está frente a una maniobra de estafa”, puntualizó el experto.

Por su parte, su colega Emiliano Piscitelli coincidió y explicó que, “en este caso, lo que tiene adicional es que, al popularizarse el uso de la Inteligencia Artificial, hay plataformas que por 20 dólares mensuales, por ejemplo, se pueden usar y, pasando unos minutos de audio de una voz de alguien, luego se puede reproducir lo que se quiera”.

Lo que están haciendo básicamente es mandar mensajes de voz por WhatsApp, suplantando identidad para pedir dinero”, dijo en contacto con el diario Crónica.

Recomendaciones de especialistas en ciberseguridad para no caer en la trampa

Iglesias detalló que muchos de los casos registrados en el país fueron concretados por contactos impulsados desde el exterior. “Hay que ser precavidos si uno recibe la llamada de un número desconocido. Puede ser de la India, de Australia, de China, de Estados Unidos y demás”, alertó.

Iglesias, al momento de brindar un consejo para no caer en la trampa, resaltó: Lo que hay que tener en cuenta siempre es que nosotros no recibimos habitualmente llamadas de algún familiar o algún conocido desde un número de otro país”.

Entonces, si sabemos que no está en ese país la persona de nuestro entorno, se puede estar frente a un intento de estafa”, remarcó el especialista en ciberseguridad.

A su turno, su colega Luis Lubeck confirmó que esta nueva estafa es un modo avanzado del “vishing“, que consistía en “el típico llamado telefónico con el que se hacían pasar por la ANSES, un banco o inclusive en su momento el Ministerio de Salud de la Nación a través de el engaño de un turno para vacunación”.

Lo que está pasando ahora es que se están empezando a clonar voces con Inteligencia Artificial para que se simule a un conocido, a un jefe, a un familiar u otra persona cercana para tener mayor éxito en el resultado del ataque”, especificó.

Lubeck, en tren de brindar una recomendación para no caer en un engaño mediante esta modalidad, expresó que “el mejor consejo para evitar este tipo de estafas es verificar de una segunda manera si el llamado es correcto”.

Si a mí me están llamando y sospecho que se hacen pasar por un familiar, lo ideal es en un núcleo íntimo tener una palabra clave o dato que la Inteligencia Artificial no va a poder clonar”, indicó.

Piscitelli, en esa línea, recomendó cortar la comunicación sospechosa y llamar a la persona que supuestamente generó el contacto para quitar dudas. “Llamo a mi familiar o conocido al celular directamente, ni siquiera por WhatsApp”, resaltó. “O incluso espero a verlo. Busco alguna forma de verificar si la persona que me mandó el audio es quien dice ser”, finalizó el especialista.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba