32.9 C
Maracay
lunes 20, mayo 2024

VIVE LA NOTICIA A TRAVÉS DEL DIARIO LÍDER DEL ESTADO ARAGUA Y LA REGIÓN CENTRAL DEL PAÍS

PELIGRO: Así pueden falsear tu voz con inteligencia artificial y cometer delitos

La inteligencia artificial para imitar la voz, también conocida como síntesis de voz basada en IA, ha evolucionado para generar voces muy realistas, que convencen a más de uno, aunque sea falso.

Esta tecnología se basa en algoritmos de aprendizaje profundo que pueden imitar la voz humana de manera precisa y con un alto grado de naturalidad.

Sin embargo, el uso de voces con IA también plantea algunos riesgos para las personas.

Por ejemplo, puede ser utilizada para generar mensajes de voz falsos o manipulados que engañen a los usuarios.

Esto puede tener graves consecuencias, debido a que se puede utilizar para difundir información falsa o engañar a las personas para que realicen acciones perjudiciales.

Además, muchas de las víctimas de robo de identidad no están enteradas de que su voz fue clonada con IA.

Voz con IA

En el mundo se han reportado diversos casos donde una persona denuncia que su voz fue editada para dar testimonios falsos o estafar.

El especialista informático, Josué Machado, explica que actualmente existen muchas aplicaciones que pueden editar, clonar y hasta crear voces, por lo que están “a fácil alcance”.

“Hay paginas webs y aplicaciones que hacen este trabajo tanto gratis como pago”, expresó.

Ahora existen varias tecnologías para determinar si se trata de una voz generada por IA.

Una de ellas es el análisis espectral, el cual consiste en analizar la frecuencia y el tono de la voz para detectar cualquier señal de manipulación.

“Usualmente suena como si fuera alguien que esta leyendo, sin emociones, con pausas muy señalas y como de memoria”, señaló Machado.

Las voces con IA las usan para estafar y poner en peligro a otras personas.

Las toman de nota de voz o videos

Antonio Ferreira, analista de sistemas, explica que para ello toman un audio de la persona y con una aplicación procesan lo que quieren decir.

Editan el audio para engañar pidiendo dinero o incluso amenazando.

También se reportan situaciones que han llevado a la ruptura de relaciones, matrimonios y parejas.

No obstante, obtener el audio no están sencillo, a menos de que la víctima le envíe directamente una nota de voz a la persona detrás de la voz manipulada, o esta robe el audio de algún video en las redes sociales del afectado.

Ferreira resalta que se necesitan al menos cinco minutos de audio para clonar la voz.

Las aplicaciones toman el audio y lo procesan, para luego imitar como sonaría esa persona si dijera cierta oración.

En Venezuela, el uso de voces con IA para cometer fraudes, extorsiones u otros delitos puede ser considerado un delito de robo de identidad o estafa.

Las penas por estos delitos rondan entre los dos y ocho años.

 

Con información 2001

- Advertisement -spot_img

ARTÍCULOS RECIENTES

error: Content is protected !!