La voz de Darth Vader seguirá ‘viva’ gracias a la inteligencia artificial

/ 20 enero, 2023

Por Pablo Vinuesa

El mítico actor James Earl Jones, conocido entre otros históricos papeles por el de Darth Vader, ha anunciado que se retira de la actuación a los 91 años. Sin embargo, su imponente voz seguirá ‘viva’, ya que ha firmado un acuerdo para que la podamos seguir escuchando en ‘Star Wars’ con técnicas de inteligencia artificial (IA). 

No es la primera vez que la conocida franquicia creada por George Lucas hace uso de la tecnología para revivir o rejuvenecer a sus personajes clásicos, pero la técnica ha alimentado algunas polémicas. Con casos como los de Anthony Bourdain y Bruce Willis en mente, ¿qué puede suponer para el futuro del audiovisual?

¿Sabes quién es ‘Andor’? Descubre todo sobre la nueva historia de ‘Star Wars’

Leer artículo relacionado

La voz de Darth Vader nunca se apagará

Los cinéfilos experimentados recordarán el rostro de James Earl Jones como el antagonista de Arnold Schwarzenegger en su primer ‘taquillazo’, ‘Conan el bárbaro’. Sin embargo, su profunda y personal voz ya había cautivado al público con uno de los grandes villanos del cine, Darth Vader, aunque la ‘percha’ tras la máscara fuera la de David Prowse y en español escucháramos a Constantino Romero.
Sus cuerdas vocales también dieron vida a otro personaje clásico, el Mufasa de ‘El rey león’. Una carrera prolífica que acaba de finalizar tras anunciar su retirada a la edad de 91 años. Durante ese tiempo ha participado en incontables títulos de la saga de ciencia-ficción, abarcando más de cuatro décadas, desde ‘La guerra de las galaxias’ a ‘Star Wars: el ascenso de Skywalker’.

Eso no significa que no vayamos a seguir escuchando a Darth Vader tal y como lo recordamos. El actor y Disney han suscrito un acuerdo que permite a la compañía replicar su voz en digital gracias a innovadoras técnicas de IA. La firma, de hecho, llegó a tiempo para su uso en la plataforma de streaming, en la serie ‘Obi-Wan Kenobi’.

La magia vocal de Respeecher

Aunque a día de hoy ya hay varias soluciones parecidas, en mayor o menor grado de complejidad informática, el software usado por Disney para revivir voces es Respeecher. La tecnología de este programa, creado por una compañía ucraniana, se basa en procesos conocidos como speech-to-speech o voz-a-voz.

¿Cómo funciona? Lo que hace, explicado de manera simplificada, es acceder a una librería de archivos con audios del actor y aplicar a ese contenido técnicas de deep learning (aprendizaje profundo). Su ‘magia’ algorítmica genera un modelo de voz superrealista al que se le pueden introducir nuevos textos para interpretar.

Hay más alternativas a Respeecher, no solo en el mismo campo del ‘voz-a-voz’, también en otros como el ‘texto-a-voz’ y las voces sintéticas. El gran interés que provoca en el sector hace intuir a los analistas que, de aquí a final de década, se superará una impresionante cifra de negocio: cinco mil millones de dólares (unos 4,87 millones de euros).

Nuevas técnicas, nuevos debates

Disney ya ha introducido en su rentable saga varias tecnologías para actualizar sus personajes principales. Ya ocurrió con el sorprendente rejuvenecimiento de la princesa Leia, interpretada en la trilogía original por la añorada Carrie Fisher, en ‘Rogue One: una historia de Star Wars’. Película de la cual, por cierto, es precuela la reciente ‘Andor’ que protagoniza Diego Luna.

Pidiendo disculpas de antemano por el posible espóiler, hemos visto más ejemplos significativos en otras propuestas de Disney+. Como la aparición del jovencísimo Luke Skywalker en capítulos de ‘The Mandalorian’ y ‘El libro de Boba Fett’, las series protagonizadas por los más carismáticos cazarrecompensas de la galaxia. Se trata de un Mark Hamill virtual superpuesto.

Lo interesante de estos casos de ‘maquillaje’ digital de última generación es que, a pesar de contar con presupuestos desorbitados, tampoco andan demasiado lejos de lo que ya pueden conseguir usuarios aficionados con vídeos ‘deepfake’. Por supuesto, la normalización de estas tecnologías también abre interesantes debates, con ramificaciones sociales y hasta políticas.

¿Será virtual el futuro del cine?

Entre ellos, si es ético o no ‘resucitar’ a las personas. Lo puso de relieve el estreno de un documental sobre Anthony Bourdain, quien se suicidó en 2018. El director Morgan Neville quiso rendirle homenaje y consideró útil revivir su voz para la pieza, una decisión que resultó muy controvertida para amigos y familiares del famoso chef y presentador.
El acuerdo legal entre James Earl Jones y Disney, como es obvio, no plantea ningún problema en cuanto a derechos. Tampoco lo hizo la primera incursión de Bruce Willis en el mundo ‘deepfake’, con un spot publicitario donde replican su cara y gestos. La familia ha negado que, de momento, hayan vendido su imagen digital tras retirarse de la actuación por una grave enfermedad.

Al igual que los generadores de arte basados en IA podrían hacer peligrar el trabajo de los ilustradores, las herramientas que ‘clonan’ voces y caras sopondrían un punto de inflexión para la industria. No se puede negar su utilidad, por ejemplo, para ajustar el movimiento de los labios a los distintos doblajes locales. Sin embargo, el futuro inquieta a tecnólogos y, por supuesto, a los sindicatos de actores y actrices.

Imágenes | Portada, fotografía de R. D. Smith en Unsplash; interiores, comparación entre técnicas por Shamook y ‘deepfake’ de Tom Cruise por VFXChris Ume

/ /
Subir