domingo 19 de mayo de 2024

El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro

Les farsantes utilizaron la IA para fingir la voz de una joven en Estados Unidos y chantajear a su madre. Su objetivo fue pedir dinero a cambio de la liberación de la adolescente.
El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro 1
El VALL-E es una IA desarrollada por Microsoft que permite imitar la voz al tomar como referencia una grabación de tan sólo 3 segundos. Créditos: Urgente24.com.

Hace algunos días, la Inteligencia Artificial (IA) permitió que estafadores imitaran la voz de Briana DeStefano, una adolescente estadounidense, para simular su secuestro. Les delincuentes intentaron estafar a su madre, Jennifer, con una suma cercana al millón de dólares. Sin embargo, certificó que su hija estaba a salvo y evitó este engaño consumado en Arizona, Estados Unidos.

Mientras la joven esquiaba junto a su padre en las afueras de la ciudad, su mamá recibió una llamada. Una voz de una joven que gritó “mamá, me equivoqué” y resultó muy similar a la de su pequeña de 15 años. En consecuencia, Jennifer protagonizó un intento de extorsión por el supuesto secuestro de Briana.

El registro de llamadas exhibió un número desconocido, que primero exigió 1 millón de dólares por su rescate, pero luego redujo la cifra. Unos minutos más tarde, el estafador solicitó sólo 50 mil dólares. Ahora bien, la madre de la joven no cayó en la extorsión pese a que estaba convencida de que era la voz de su hija.

La presencia de otras mujeres ayudó a desbaratar el chantaje porque lograron comunicarse con el padre de la adolescente y constatar que estaba a salvo. Asimismo, avisaron a la policía. Por este motivo, el FBI investigó el caso y constató que utilizaron IA para simular la expresión de Briana.

La Inteligencia Artificial suplanta identidades

Este no es el primer caso porque, según la Comisión Federal de Comercio, el país registró 36 mil en 2022. No obstante, no es el único ejemplo de uso de la dicción de una persona porque artistas en todo el mundo viven esta situación. A nivel internacional, Nicki Minaj y Eminem sufren la imitación de su voz.

A su vez, en Argentina sucedió algo muy similar con Duki y Paulo Londra. Por esta razón la suplantación de identidades se tornó común. En este escenario, Jennifer DeStefano jamás dudó que era su hija la que estaba al otro lado del teléfono. 

El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro 2
“Nunca dudé que fuera ella (Briana)”, esgrimió su madre.
Créditos: latercera.com.

“Era completamente su voz. Era su inflexión. Era la forma en que ella habría llorado”, explicó al medio local Arizona ‘s Family. Además, ratificó: “nunca dudé ni por un segundo que era ella. Esa es la parte extraña que realmente me conmovió”. Ahora bien, su hija ya estaba de regreso en su casa tras patinar con su padre.

Por ello, la mujer detalló que “ella (Briana) estaba arriba en su habitación diciendo ¿qué? ¿qué está pasando?”. De esta manera, su madre cortó el teléfono tras asegurarse que la adolescente estaba fuera de peligro y la llamada fue una estafa.

La IA al servicio de la delincuencia

El FBI lideró la investigación, pero aún no logró confirmar la identidad de los falsos secuestradores. De todos modos, brindaron algunas recomendaciones para sobreponerse o incluso evitar ser víctima de este tipo de delitos. Ante esta situación, las autoridades recomendaron estar alerta por posible “phishing”.

La suplantación de identidad implicó un nuevo caso de extorsión. Por este motivo, el FBI sugirió estar atentos ante llamados con códigos de área extraños o internacionales. También señaló realizar algunas preguntas puntuales sobre el pasado de la víctima para constatar su verdadera identidad.

El peligro de la Inteligencia Artificial: estafadores imitaron una voz para simular un secuestro 3
“Escucha aquí. Tengo a tu hija. Llama a la policía, llama a cualquiera, la voy a drogar”, aseguró el estafador.
Créditos: Pexels – ph: Sora Shimazaki.

Por último, las autoridades remarcaron la importancia de ser cuidadosos con el contenido difundido en redes sociales. Los estafadores entrenan herramientas de IA con la información disponible en línea para simular voces. Aún así, resulta complejo evitar caer en estos engaños por el perfeccionamiento de la tecnología.

En consecuencia, la escala que significa el uso de la Inteligencia Artificial y sus potenciales riesgos obliga a librar una batalla por su regulación. No obstante, esto no sucede y la única salida es mantener la calma, no brindar detalles y comunicarse con el familiar para desbaratar la estafa.

Compartir:

Nota al Pie es un joven medio alternativo y autogestivo. Precisamos tu aporte para sostener el día a día de un periodismo popular que encuentra cada día más dificultades para mantenerse independiente. Con tu suscripción mensual nos ayudás muchísimo. Podés cancelarla cuando quieras. Por mail te iremos informando de los beneficios de ser parte de Nota al Pie.
¡Muchas Gracias!

Notas Relacionadas

Seguir Leyendo

Arrierians llega a la Argentina con su rock de las montañas 

La banda colombiana dará dos shows en CABA, donde prometen conquistar al público con su repertorio que fusiona la tradición con lo moderno. Para conocer más detalles de su presentación, Nota al Pie dialogó con el cantante José Villegas.

La violencia obstétrica y su impacto psicológico 

En el marco de la Semana del Parto Respetado, celebrada del 16 al 22 de mayo, Nota al Pie dialogó con Lorena Laserre, especialista en salud mental, quien explicó cómo afecta a las mujeres el incumplimiento de sus derechos durante el embarazo.

La realidad de la comunidad trans en Jujuy

Las Históricas Argentinas están presentes en la organización del 37° Encuentro Plurinacional de Mujeres y Diversidades. Nota al Pie dialogó con Dana Liz Aramayo, representante provincial de la agrupación, para conocer sus principales reivindicaciones.

Ultimas Noticias

Más del autor

Nota al Pie | Noticias en contexto