En los últimos tiempos, se ha detectado una alarmante tendencia de las voces clonadas ante el uso de inteligencia artificial para la creación de videos falsos con el fin de estafar a personas. Esta modalidad de fraude aprovecha la voz de reconocidos personajes peruanos como Mavila Huertas, José Luis Pérez Albela, Elmer Huerta y hasta la propia Magaly Medina, generando preocupación entre los expertos en ciberseguridad y la población en general.
Roger Menéndez, especialista en ciberseguridad, ha advertido sobre el peligroso uso de inteligencias artificiales que, a partir de fragmentos de voz o grabaciones previas, pueden generar audios que imitan a la perfección el timbre y entonación de estas personalidades. Menéndez destaca que estas tecnologías no solo clonan la voz, sino que también permiten editar videos de manera convincente, creando montajes en los cuales pareciera que estas figuras públicas están promoviendo productos o solicitando acciones específicas.
“Estas tecnologías permiten no solo clonar la voz, sino también editar videos de manera convincente, creando así montajes en los cuales pareciera que estas figuras públicas están promoviendo productos o solicitando acciones específicas, como hacer clic en enlaces maliciosos”, mencionó Menéndez.
La técnica de los ciberdelincuentes
La técnica empleada por los ciberdelincuentes consiste en primer lugar en crear audios falsos utilizando inteligencia artificial. Luego, editan videos utilizando imágenes previamente grabadas y, finalmente, los combinan para generar contenido engañoso y polémico. Esta manipulación tiene como objetivo incitar a las personas a realizar acciones como clics en sitios fraudulentos, descargas de software malicioso o transferencias de dinero.
Todos podemos ser víctimas del mal uso de la inteligencia artificial
Menéndez menciona también que cualquier persona, sin importar si es una figura pública o no, puede ser víctima de este tipo de estafas. Advierte que los delincuentes pueden obtener fragmentos de voz de las redes sociales y utilizarlos para crear audios falsos que, por ejemplo, soliciten dinero a familiares o amigos.
Es crucial destacar que los estafadores hacen uso de las redes sociales para segmentar estos videos de estafa, enfocándose, por ejemplo, en personas mayores, quienes son más vulnerables a este tipo de engaños.
¿Cómo evitar caer en estos engaños?
Ante esta situación, Menéndez recomienda tomar varias medidas preventivas. “Lo primero que yo recomiendo es difundir esta información. Hablar con amigos, familiares, y especialmente con personas mayores, para que estén al tanto de que hoy en día los delincuentes están utilizando la inteligencia artificial para clonar voces, crear videos falsos, y clonar páginas web. Es esencial que desconfíen cada vez que reciben un mensaje o ven un aviso que les exige hacer un depósito, una transferencia, o dejar datos personales”, subrayó.
Además, menciona que es importante revisar las páginas oficiales de las personas o entidades que supuestamente están difundiendo la información para verificar su autenticidad. “Otra recomendación es revisar las páginas oficiales de quienes están difundiendo la noticia falsa. Esto puede ayudar a confirmar si la información es verídica o no”, añadió Menéndez.
La inteligencia artificial ha abierto nuevas puertas para la creación de contenido, pero también ha facilitado nuevas modalidades de estafa. Es fundamental estar informados y tomar precauciones para no caer en estas trampas digitales. La educación y la vigilancia constante son herramientas esenciales para protegernos a nosotros mismos y a nuestros seres queridos de estos engaños cada vez más sofisticados.
Te puede interesar:
El ambicioso proyecto de trasplante de cabezas humanas con robots e IA