En la actualidad, la Inteligencia Artificial mejora el rendimiento y la productividad de la empresa mediante la automatización de procesos o tareas que antes requerían el esfuerzo de las personas, como, por ejemplo, la comunicación en línea con los clientes, entre otras actividades,
Lamentablemente esta tecnología, que permite crear audios falsos, se está utilizando también para estafar, a través de llamadas en las que imitan las voces de personas conocidas, solicitando algún tipo de ayuda.
No solo con llamadas, también nos estafan con imágenes y videos de personajes conocidos, como es el caso de la actriz británica Emma Watson, que aparece en una serie de anuncios sugerentes en Facebook e Instagram. O el caso del presidente ucraniano Volodymyr Zelensky, que salió en un video dando un mensaje a los ucranianos para que depusieran las armas. Este tipo de falsificaciones se llaman los deepfakes, (falsificaciones profundas).
¿Pero cómo hacen para copiar la voz? Para esta copia es necesario tener muchas grabaciones para que se pueda entrenar al algoritmo.
¿Dónde encuentran esas voces? Muchos de nosotros compartimos, a través del internet, las redes sociales, nuestras fotos, audios y otros detalles de nuestra vida cotidiana. Estos datos pueden ser utilizados para crear una copia realista de la voz.
Cualquiera que posea los datos puede utilizar el algoritmo de deepfake y puede hacer que tú digas lo que quieran.
El mal uso de esta tecnología puede ocasionar muchos problemas, puede desinformarnos, puede influir a la opinión pública nacional o internacional, como el caso del presidente ucraniano. Cómo, pues, saber si el que nos llama para pedir alguna información es la voz de un amigo o un pariente cercano.
El avance de esta tecnología no se puede parar, cada vez será más difícil diferenciar la realidad con la ficción, solo no queda tomar precauciones y ser más cautelosos,
Este artículo fue publicado el 12 de julio del 2023 por The Conversation.
Si desea mayor información, entrar al siguiente enlace.