La clonación de voz con inteligencia artificial se ha convertido en una amenaza creciente para la seguridad digital. Un reciente caso ocurrido en Florida pone en evidencia cómo esta tecnología, cuando cae en manos equivocadas, puede facilitar fraudes altamente sofisticados.
La víctima creyó hablar con su hija
Sharon Brightwell, residente del condado de Hillsborough, en Florida, recibió una llamada el pasado 9 de julio. La voz al otro lado del teléfono, entre sollozos, afirmaba haber atropellado a una mujer embarazada. Ella, convencida de que se trataba de su hija April Munroe, creyó sin dudar cada palabra. La voz, incluso el llanto, sonaban idénticos.
Los estafadores habían utilizado clonación de voz con inteligencia artificial para generar una réplica auditiva extremadamente realista. Según sospecha Brightwell, tomaron grabaciones de su hija disponibles en redes sociales para entrenar un modelo de IA.
Fraude emocional con IA generativa
Acto seguido, un supuesto abogado se comunicó con Sharon para exigir el pago de una fianza. La urgencia emocional, unida a la fidelidad de la voz clonada, la llevó a entregar 15 mil dólares en efectivo a un “representante legal”. Momentos después, recibió otra llamada solicitando 30 mil dólares más, bajo la amenaza de una demanda.
Afortunadamente, una amiga cercana logró contactar a la verdadera April. Solo entonces Sharon comprendió que había sido víctima de una estafa basada en la clonación de voz con inteligencia artificial.

Una técnica cada vez más accesible
La clonación de voz con inteligencia artificial ya no requiere equipos especializados. Con solo unos segundos de audio, un ciberdelincuente puede replicar voces de manera precisa y convincente. Esta técnica explota la confianza emocional de los familiares, quienes, bajo presión, no tienen tiempo para verificar.
Los expertos en ciberseguridad alertan sobre este tipo de fraudes que evolucionan con el desarrollo de herramientas de IA generativa. Se trata de estafas que, por su realismo, son casi imposibles de detectar sin una verificación previa.
Recomendaciones para prevenir fraudes con voz clonada
Ante esta experiencia, la familia Brightwell recomienda establecer una palabra clave familiar que funcione como código de verificación en emergencias. Esta medida, aunque sencilla, puede salvar a muchos de caer en engaños.
Además, han iniciado una campaña en GoFundMe para mitigar las pérdidas económicas. Las autoridades locales indican que recuperar el dinero es poco probable, ya que los ciberdelincuentes actúan con métodos difíciles de rastrear.
Este caso demuestra cómo la clonación de voz con inteligencia artificial no es ciencia ficción, sino una herramienta al servicio del crimen. La tecnología, si bien tiene beneficios, debe usarse con responsabilidad y bajo regulación adecuada.
Fuente:
Más noticias:
Descubre Los Órganos con lujo accesible y experiencias únicas