HOY DIARIO DEL MAGDALENA
Líder en la región

¿Pueden suplantar tu voz? ¡Cuidado con esta modalidad nueva de robo!

Recientemente se han dado casos de estafas que utilizan suplantación de audio, así como tal cual suena, es literalmente alguien que le envía un audio de un allegado o familiar suyo, pidiéndole cosas de manera alarmante, de tal manera que se le hace casi imposible identificar si es falso o no, por lo que es muy susceptible a hacer lo que el audio le sugiere.

 

¿Nueva tendencia? ¿Tiene nombre técnico?

Esta suplantación de audio tiene un nombre, su nombre son Deep fakes de audio, también llamado Deep Voices, son un tipo de inteligencia artificial que convierte el algoritmo la voz de una persona por lo que luego puede emularse con el texto que el criminal desee, dando se la sensación 100% de que la persona a quien suplanta este diciendo cosas que, en realidad, nunca dijo.

Hoy en día, ya es común que los ciberdelincuentes cuenten con este tipo de herramientas que se encuentran en algún tipo de mercado a la venta, logrando así hacerle creer a la victima que un familiar o un amigo le esta pidiendo un favor importante y es ahí cuando empiezan a pedirte cosas para robarte.

 

¿Se conoce algún caso en la actualidad?

Si, Lamentablemente claro que sí, The Washington Post ha hablado sobre este tema que azota en el área digital, y expuso el caso de una mujer de 73 años que aparentemente la llamó su nieto, que por alguna razón de la vida terminó en la cárcel sin teléfono ni tarjeta y que necesitaba un monto de dinero para poder salir de allí.

Sin lugar a duda esta señora, corrió inmediatamente con su esposo a retirar el monto solicitado que fue aproximadamente 3.000 dólares canadienses. Luego de del retiro, se dirigían hacia otra oficina para enviarle el dinero a la cuenta del criminal.

Afortunadamente el directo de la entidad con todo este revuelo se dio cuenta de lo que estaba pasando por lo que les avisó que estaban siendo victimas del nuevo método de suplantación de identidad “Deep Fake” de audio y que otros clientes también lo habían sido recientemente. La señora tuvo la suerte de salvarse del fraude, pero esta más que claro que cualquiera es susceptible a caer en esto, por lo que no siempre ocurre así.

 

Sabemos que la inteligencia artificial nos ha traído diversas mejoras en nuestra vida, pero ¿Es esta también una entrada para aumentar la ciberdelincuencia?

Muchas estafas están relacionadas con el uso de la Inteligencia artificial, como lo son esta modalidad de la que actualmente hablamos que son los deepfakes de audio, se estima que desde la llegada de la inteligencia artificial se han logrado robar hasta 35 millones de dólares, ya que son técnicas que llevan hasta el máximo el realismo.

Pero debemos tener en cuenta que siempre y cuando tengamos los cuidados necesarios ningún robo digital que involucre ingeniería social debería suceder, y más bien cabe resaltar lo los importantes beneficios que la inteligencia artificial y el Machine Learning nos ha traído, como lo son la automatización de procesos, el aporte de precisión, la reducción del error humano que claramente se ve en el ejemplo de un trabajador en el Area de compras de alguna empresa productiva, en el cual los pronósticos no están concuerdan con la demanda real, ahí es donde la inteligencia artificial mide, y estima estas incertidumbres de una manera muy  precisa, evitando tener a un encargado en el área y haciéndolo de manera automática.

 

¿Cómo evitar estos Deep Fakes de audio, o audios que son idénticos a las voces de tus familiares?

Tal vez los consejos que listemos a continuación sean clásicos y los hayas visto o escuchado en algún otro sitio, pero tal cual son los pasos que debes seguir y lo más seguro es que no caeras en ningún robo de este tipo, los cuales son los siguientes:

1)Tan pronto se recibe el audio de voz de su familiar o amigo que intentan suplantar, debe principalmente mantener la calma, llamar al familiar o afectado muchas veces, contactarlo por todos los medios posibles.

2)Intente escuchar la nota de voz en busca de algún fallo o interferencia o incoherencia, la inteligencia artificial puede ser muy precisa, pero todavía está en desarrollo, si notas alguna interferencia sospecha en el audio lo más seguro es que te están engañando

3)Intente hacer conversación con la persona, engáñalo diciéndole que porque terminó pasándole lo que le pasó si estaba por ejemplo donde su abuela, cuando en realidad no era así, pero de esta manera, el criminal va a querer generar más audios aumentando la probabilidad de encontrar fallos, y también si te sigue la corriente, es porque es totalmente falso

 

Siguiendo estos consejos lo mas seguro es que no caerás en estas estafas, lo principal es mantener la calma para poder actuar con sabiduría y no caer en el desespero que los cibercriminales buscan, No queda más que concientizar y compartir esta información y nueva tendencia de robos para evitar que alguna otra persona sea estafada.

Este sitio web utiliza cookies para mejorar su experiencia. Asumiremos que está de acuerdo con esto, pero puede optar por no participar si lo desea. Aceptar Leer más