ATB RADIO

EN VIVO

ATB Digital
Tecnología

IA es capaz de engañar tambien con las voces

IA es capaz de engañar tambien con las voces

EEUU, 04 de ago, 2023 (ATB Digital).

Según un estudio en el que participaron más de 500 personas, a los participantes les costaba identificar correctamente las voces falsas de los verdaderas, pese a estar entrenados para ello
Los investigadores sugieren mejorar los detectores automáticos para lidiar con la situación, que irá a peor en un futuro

Hace unos meses, en mitad de una sesión, el DJ David Guetta hizo una colaboración inesperada para el público: comenzó a sonar junto a su melodía la voz de Eminem. O como dijo el artista francés, «Em-AI-nem». Dio igual si el rapero estaba allí en carne y hueso o no, lo importante es que su voz cantó con su estilo característico y la gente bailó con fuerzas redobladas por el chute de adrenalina. La jugada salió perfecta. Solo que era una trampa, no era Eminem, sino un ‘deepfake’ generado a través de una inteligencia artificial (IA).

Los ‘deepfake’ de vídeo o imagen son desde hace tiempo un problema para los medios, autoridades y famosos, por su enorme potencial para difundir noticias falsas. Entre estas, todos recordamos las imágenes virales en marzo donde supuestamente detenían a Donald Trump, las fotos del Papa Francisco con un abrigo acolchado y unas zapatillas a la moda o los vídeos en los que el presidente Zelenski animaba a las tropas ucranianas a rendirse. Sin embargo, hay otra clase de ‘deepfakes’ que están pasando desapercibidos, pese a contar con la misma capacidad para destruir reputaciones, provocar ciberataques o vulnerar los derechos de autor: los ‘deepfakes’ de audio.

Estas falsificaciones se generan a través de muestras de audio filtradas por modelos de aprendizaje automáticos, y pueden imitar el habla de una persona real o incluso generar voces únicas. Las herramientas para crear imitaciones de voz han mejorado a un ritmo vertiginoso, al igual que los generadores de texto como ChatGPT, lo que suscita preocupación por el uso delictivo que se puede dar con esta tecnología. Por ejemplo, ya se ha utilizado para engañar a banqueros y hacer que autoricen transferencias de dinero fraudulentas. En 2020, un ciberdelincuente estafó 35 millones de dólares al director de un banco de Emiratos Árabes Unidos, haciéndose pasar por un cliente durante una llamada telefónica usando un ‘deepfake’.

ABC Tecnología

Noticias relacionadas

Aumenta a 24 el número de muertos por inundaciones en Afganistán

Claudia Cuarite

El papa Francisco canonizó a ‘Mama Antula’, la primera santa de Argentina

Ana Luisa Mamani Condori

Las baterías cuánticas están más cerca de la realidad

ATB Usuario