Una mujer denunció que recrearon la voz de su hermano con inteligencia artificial para pedirle dinero por un copamiento que nunca existió
Según informó subrayado, la denunciante detalló que estaban en su casa y sobre la noche recibieron una llamada en la que se escuchó la voz de su hermano diciendo que le habían copado la casa y sus hijos estaban encañonados
Los estafadores pedían la mayor cantidad de dinero posible y que no fueran al lugar en el que estaban los menores
"Lo que nos estaban diciendo es que se iban a llevar a los chiquilines y que necesitaban dinero", dijo la víctima.
Pese a la advertencia del estafador, la mujer fue hasta la casa de su hermano y cuando llegó se dio cuenta que estaba todo bien y que la persona con la que habló no fue su hermano
Con este hecho arriba de la mesa, en Las Cosas en su Sitio quisimos analizar este tema y ver cómo es que ocurren este tipo de estafas en las que se utiliza la Inteligencia Artificial
Al respecto hablamos con la abogada y docente de la Universidad de Montevideo Agustina Pérez Comenale quien detalló cómo se puede dar este tipo de estafas y enfatizó que puede darse a través de audios, imágenes o videos.
Agregó que esta práctica no es nueva pero hoy tiene un nivel más fino de elaboración, lo que hace que sea más difícil de percibir.
Escuchá el informe de Las Cosas en su Sitio: