El carismático actor británico Stephen Fry, conocido por su voz icónica, ha sido víctima de un audaz robo digital. Su distintiva entonación, que resonó en las grabaciones de los audiolibros de Harry Potter, fue secuestrada por la inteligencia artificial (IA) y utilizada para narrar documentales.

La voz de Stephen Fry: robo, IA y la amenaza de los Deepfakes

Fry reveló este asombroso incidente durante el CogX Festival de Londres, cuando la voz que todos reconocían como la suya se emitió como la narradora en un extracto de un documental. Sin embargo, Fry afirmó rotundamente que él no había participado en ninguna grabación de ese tipo. Este inusual episodio pone de relieve una amenaza potencial de la IA: la capacidad de robar y recrear voces humanas.

La voz de Stephen Fry: robo, IA y la amenaza de los Deepfakes.

El propio Stephen Fry aprovechó la oportunidad para arrojar luz sobre este tipo de tecnología. Afirmó que lo que las personas estaban escuchando no se debía a una mezcla de grabaciones, sino a una IA con una voz artificial flexible, capaz de modular las palabras para que encajen en el contexto de cada frase.

Fry expresó su preocupación, ya que su voz podría ser utilizada para cualquier propósito, desde llamadas telefónicas para atacar el parlamento hasta la creación de contenido explícito sin su conocimiento ni consentimiento.

Lo sorprendente es que Fry y su equipo no estaban al tanto de la capacidad de esta tecnología. Incluso sus agentes, en ambos lados del Atlántico, no tenían idea de que algo así fuera posible. Fry tomó medidas inmediatas después de descubrirlo y compartió la noticia con sus representantes. Esta falta de conciencia subraya lo incipiente que aún es esta tecnología y cómo puede atrapar desprevenidos incluso a profesionales experimentados.

La evolución inminente de Deepfakes

El problema no se limita a las voces. Fry advirtió que, después de los deepfakes de voz, vendrán deepfakes de vídeo aún más convincentes. Comparó el estado actual de esta tecnología con los primeros automóviles: impresionantes pero lejos de ser el producto final. Esto sugiere que lo que estamos viendo hoy es solo el principio de una ola de deepfakes más convincentes y potencialmente peligrosos.

Lo que le sucedió a Stephen Fry podría aplicarse a muchas otras personas cuyas voces puedan ser recopiladas, descargadas y utilizadas para entrenar sistemas de IA asombrosos.

En un futuro cercano, podríamos enfrentarnos a un dilema en el que no podemos creer en lo que oímos o vemos, por precaución. La proliferación de deepfakes, tanto de voz como de vídeo, plantea preocupaciones sobre su uso fraudulento y la necesidad de medidas de seguridad efectivas.

El caso de Stephen Fry ilustra vívidamente los desafíos emergentes relacionados con la tecnología de deepfake y cómo la IA puede utilizarse para imitar y recrear voces humanas de manera convincente. A medida que esta tecnología evoluciona, es fundamental concienciar sobre sus riesgos y desarrollar salvaguardias para proteger la autenticidad y la privacidad en un mundo cada vez más digital y automatizado.