Delincuentes usan la IA para crear audios fake: extorsionan a amigos y familiares

Delincuentes usan la IA para crear audios fake: extorsionan a amigos y familiares

Este tipo de crímenes van aumentando en el país, conforme las tecnologías se desarrollan y sin que haya leyes encargadas de penalizar estas acciones

La Inteligencia Artificial (IA) evoluciona a pasos de gigantes cada día, presentándose como una herramienta creada para facilitar la vida de sus usuarios. Sin embargo, la falta de leyes en torno al uso de estas nuevas tecnologías ha dado cabida a que los criminales la utilicen para cometer delitos que ya existen fuera del mundo digital.

En este sentido, ha surgido una nueva problemática, en la que los delincuentes utilizan IA para imitar las voces de personas, fingiendo que están en una situación de riesgo, y así extorsionar a sus familiares o seres queridos. Cabe mencionar que en países como México, se trata de una práctica que cada vez se vuelve más popular y los casos van aumentando conforme las tecnologías se desarrollan, sin que haya leyes encargadas de penalizar estas acciones.

«Necesito que deposites el dinero», se oyó decir a un joven. Natalia rápidamente reconoció que se trataba de su pareja, Alexis, quien un día antes había viajado a Morelos en compañía de sus amigos; la mujer escuchó la nota de voz, que recibió por WhatsApp, más de cinco veces, para corroborar que era un mensaje de su novio pidiéndole que realizara una transferencia para que él pudiera solucionar un problema económico en el que supuestamente estaba involucrado.

Natalia recuerda que el pánico se apoderó de su cuerpo, ya que el número de teléfono -donde recibió el mensaje de audio- no era el de su pareja, sin embargo la voz era idéntica. «Me mandaron el mensaje (de voz) de un número que yo no tenía agregado. Se oía a él pidiéndome que hiciera un depósito que porque había tenido un problema y se había quedado sin nada (de dinero)», reveló la mujer en entrevista con El Heraldo Digital. Asustada por lo que podría estar viviendo Alexis, Natalia realizó una transferencia de tan solo 300 pesos: «no tenía más dinero y le dije ‘solo te puedo mandar 300, dile a tus amigos que te presten y les pago aquí’ (en Ciudad de México)», añadió.

La joven educadora confesó que sí desconfió del audio, porque fue enviado de un número que no conocía, pero temiendo que su pareja estuviera en problemas realizó el pago. «Sí dudé, pero en el mensaje (de voz) me decía que según había perdido el celular y que le urgía. Por no investigar le hice caso y es que sí era su voz, era él», sentenció Natalia. No obstante, tras realizar el depósito, el contacto de WhatsApp que envió el audio la bloqueó y eliminó los mensajes enviados, ahí ella sospecho que algo no estaba bien.

«Me bloquean, me borran la conversación y me asusté. Empecé a llamar a sus amigos y no contestaban. Ya después de un rato uno me respondió y le preguntó por él y me dice que está bien, que no le robaron nada», narró Natalia a este medio. Añadió que cuando finalmente pudo hablar con su pareja, Alexis, él le confirmó que había sido víctima de una extorsión, puesto que nunca estuvo en peligro y no había perdido su teléfono celular: «me dijo que no era verdad, que estaba bien, que tal vez había sido una estafa. No me importó mucho, solo le di 300 pesos, algo dentro de mi me decía ‘no lo hagas, no es verdad’ y por suerte no hice la transferencia con los 5 mil pesos que pedían».

Al respecto, la ingeniera en Tecnologías de la Información, Nancy Salazar, explicó que cada vez es más común que los criminales se muden al espacio digital y cometan sus delitos utilizando herramientas como la Inteligencia Artificial (IA). La fundadora de Tekis.services aseguró, en entrevista con El Heraldo Digital, que crear audios o imágenes falsas es una práctica que se ha popularizado en redes sociales hasta llegar a los ciber delincuentes, quienes con más frecuencia crean audios, fotografías y hasta videos falsos, con el objetivo de extorsionar a sus víctimas.

De acuerdo con la experta, este tipo de delitos son relativamente «fáciles» de cometer, ya que en la actualidad en internet hay una gran cantidad de herramientas de IA que facilitan a los usuarios la creación de audios, imágenes o videos falsos. «Parte de la invención y el lanzamiento de este tipo de herramientas es que son súper sencillas de utilizar, su experiencia de usuario es muy sencilla. En el caso de la clonación de voz hay plataformas en las que tu únicamente tienes que recabar audios de la voz que quieres replicar y estos softwares analizan el audio, los patrones de la voz, el tono, el ritmo y con esto genera la clonación. Si sabes subir adjuntar un archivo por correo electrónico, fácilmente puedes usar este tipo de herramientas».

Para poder realizar la clonación de voces, a los criminales les basta con un video o una fotografía de la persona interesada y una vez que tienen el fragmento de audio, la Inteligencia Artificial se encarga del resto. «Estos audios se recuperan de los videos que tu subes a tus redes sociales como TikTok, Facebook, Instagram y demás. Cualquier cosa que tenga tu voz es una herramienta para de ahí extraer tu audio y con eso hacer estas replicas. También pueden clonar tu imagen en sí, tus movimientos corporales, tus facciones, la forma en la que te mueves para hacer contenido que aparente que eres tu», advirtió Nancy.

Nancy enfatizó que no es un problema nuevo, sino que estos riesgos nacieron a la par del desarrollo de la IA; la ingeniera recordó que las primeras víctimas fueron políticos y celebridades como el expresidente de Estados Unidos, Barack Obama, cuya imagen y voz fue utilizada para generar y difundir un video falso donde daba un discurso que él jamás mencionó. En este sentido, la especialista lamentó que las regulaciones de IA son muy lentas en comparación del avance de las nuevas tecnologías: «hay que darle velocidad a ese tipo de regulaciones, que se implementen a la de ya. Podrían incluirse leyes que penalicen el uso malintencionado de la Inteligencia Artificial, creación de contenido falso; y hacer regulaciones de transparencia, como ejemplo que se etiqueten o que quede visible que el contenido que tu creaste fue hecho con Inteligencia Artificial», dijo la fundadora de Tekis.services.

Con el objetivo de que menos personas sean víctimas de los ciber delincuentes, Nancy compartió una serie de recomendaciones para las personas que reciban mensajes de voz, imágenes o videos de sus seres queridos en situaciones de alarma. Estos consejos ayudarán a evitar una extorsión o estafa

En el caso de imágenes o videos, los ojos de las personas tienen una mirada bastante fija y pocas veces parpadean.
Bordes anormales en el rostro, principalmente en las orejas, nariz y ojos.
Inconsistencias en la iluminación o sombras extrañas.
En audios se recomienda prestar atención a los tonos de la voz, así como a patrones de habla pocos naturales o comunes.
Si te piden dinero o te ponen en una situación de alarma se recomienda llamar de manera directa a la persona que supuestamente es la víctima, para revalidar la información.

Con información de: El Heraldo de México

administrator

Related Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *