Hace algunos dรญas, la Inteligencia Artificial (IA) permitiรณ que estafadores imitaran la voz de Briana DeStefano, una adolescente estadounidense, para simular su secuestro. Les delincuentes intentaron estafar a su madre, Jennifer, con una suma cercana al millรณn de dรณlares. Sin embargo, certificรณ que su hija estaba a salvo y evitรณ este engaรฑo consumado en Arizona, Estados Unidos.
Mientras la joven esquiaba junto a su padre en las afueras de la ciudad, su mamรก recibiรณ una llamada. Una voz de una joven que gritรณ โmamรก, me equivoquรฉโ y resultรณ muy similar a la de su pequeรฑa de 15 aรฑos. En consecuencia, Jennifer protagonizรณ un intento de extorsiรณn por el supuesto secuestro de Briana.
El registro de llamadas exhibiรณ un nรบmero desconocido, que primero exigiรณ 1 millรณn de dรณlares por su rescate, pero luego redujo la cifra. Unos minutos mรกs tarde, el estafador solicitรณ sรณlo 50 mil dรณlares. Ahora bien, la madre de la joven no cayรณ en la extorsiรณn pese a que estaba convencida de que era la voz de su hija.
La presencia de otras mujeres ayudรณ a desbaratar el chantaje porque lograron comunicarse con el padre de la adolescente y constatar que estaba a salvo. Asimismo, avisaron a la policรญa. Por este motivo, el FBI investigรณ el caso y constatรณ que utilizaron IA para simular la expresiรณn de Briana.
La Inteligencia Artificial suplanta identidades
Este no es el primer caso porque, segรบn la Comisiรณn Federal de Comercio, el paรญs registrรณ 36 mil en 2022. No obstante, no es el รบnico ejemplo de uso de la dicciรณn de una persona porque artistas en todo el mundo viven esta situaciรณn. A nivel internacional, Nicki Minaj y Eminem sufren la imitaciรณn de su voz.
A su vez, en Argentina sucediรณ algo muy similar con Duki y Paulo Londra. Por esta razรณn la suplantaciรณn de identidades se tornรณ comรบn. En este escenario, Jennifer DeStefano jamรกs dudรณ que era su hija la que estaba al otro lado del telรฉfono.
Crรฉditos: latercera.com.
โEra completamente su voz. Era su inflexiรณn. Era la forma en que ella habrรญa lloradoโ, explicรณ al medio local Arizona ‘s Family. Ademรกs, ratificรณ: โnunca dudรฉ ni por un segundo que era ella. Esa es la parte extraรฑa que realmente me conmoviรณโ. Ahora bien, su hija ya estaba de regreso en su casa tras patinar con su padre.
Por ello, la mujer detallรณ que โella (Briana) estaba arriba en su habitaciรณn diciendo ยฟquรฉ? ยฟquรฉ estรก pasando?โ. De esta manera, su madre cortรณ el telรฉfono tras asegurarse que la adolescente estaba fuera de peligro y la llamada fue una estafa.
La IA al servicio de la delincuencia
El FBI liderรณ la investigaciรณn, pero aรบn no logrรณ confirmar la identidad de los falsos secuestradores. De todos modos, brindaron algunas recomendaciones para sobreponerse o incluso evitar ser vรญctima de este tipo de delitos. Ante esta situaciรณn, las autoridades recomendaron estar alerta por posible โphishingโ.
La suplantaciรณn de identidad implicรณ un nuevo caso de extorsiรณn. Por este motivo, el FBI sugiriรณ estar atentos ante llamados con cรณdigos de รกrea extraรฑos o internacionales. Tambiรฉn seรฑalรณ realizar algunas preguntas puntuales sobre el pasado de la vรญctima para constatar su verdadera identidad.
Crรฉditos: Pexels – ph: Sora Shimazaki.
Por รบltimo, las autoridades remarcaron la importancia de ser cuidadosos con el contenido difundido en redes sociales. Los estafadores entrenan herramientas de IA con la informaciรณn disponible en lรญnea para simular voces. Aรบn asรญ, resulta complejo evitar caer en estos engaรฑos por el perfeccionamiento de la tecnologรญa.
En consecuencia, la escala que significa el uso de la Inteligencia Artificial y sus potenciales riesgos obliga a librar una batalla por su regulaciรณn. No obstante, esto no sucede y la รบnica salida es mantener la calma, no brindar detalles y comunicarse con el familiar para desbaratar la estafa.