La evolución de la captura de movimiento fusiona la ingeniería biomecánica con la magia del espectáculo. Aunque hoy la asociamos a entornos digitales complejos, sus cimientos se remontan a 1915, cuando Max Fleischer inventó el rotoscopio. Esta técnica permitía a los animadores dibujar sobre fotogramas de acción real para lograr movimientos que parecían humanos. Un ejemplo fue Blancanieves y los siete enanitos (1938) de Disney, donde la danza y los gestos de la protagonista fueron calcados de una actriz real (Marge Champion).
A medida de que la tecnología avanzó, el interés por replicar el movimiento pasó de los tableros de dibujo a los sensores. En sus inicios, estos sistemas fueron desarrollados por ingenieros para estudios médicos de marcha y movimiento, pero el cine no tardó en ver su potencial. Intentos pioneros se vieron en los años 90: Batman Forever (1995) utilizó "dobles digitales" para Val Kilmer y James Cameron pobló las escenas de Titanic y su hundimiento con figuras capturadas. Incluso en 1999, Jar Jar Binks en Star Wars marcó un hito al ser un personaje de CGI basado en la presencia física de un actor en el set, aunque el procesamiento final aún ocurría lejos de las cámaras.
El cambio de paradigma definitivo llegó en 2002 con El Señor de los Anillos: Las Dos Torres. Gracias al trabajo de WETA y la interpretación de Andy Serkis, Gollum dejó de ser un simple efecto visual para convertirse en un ser vivo con alma. Esta producción fue la primera en utilizar captura de rendimiento en tiempo real, permitiendo que Serkis, vestido con un hoy icónico traje de lycra y puntos reflectantes, interactuara directamente con los otros actores en escenarios naturales. Esta técnica eliminó las barreras entre lo digital y lo físico, logrando una espontaneidad actoral que la animación tradicional no podía replicar.
Paralelamente, la industria del videojuego fue un motor fundamental para el perfeccionamiento de estos sistemas. Títulos pioneros como Virtua Fighter 2 o Soul Blade integraron esta tecnología, incluso recurriendo a microchips derivados de simuladores de combate militar tras el fin de la Guerra Fría. Lo que comenzó como un recurso técnico para juegos de fútbol (como el Actua Soccer) o lucha, terminó por estandarizar el uso de texturas y movimientos fluidos que luego retroalimentarían las herramientas utilizadas en las grandes producciones de Hollywood.

La ambición creció y los desafíos también. En 2004, El Expreso Polar intentó crear una película íntegramente capturada, aunque fue criticada por la "mirada vacía" de sus personajes. Años después, producciones como Watchmen subieron la apuesta: Billy Crudup utilizó 165 puntos faciales para dar vida al Doctor Manhattan, un récord, que permitió capturar hasta el más mínimo tic. El summum de esta era llegó con Avatar (2009), donde James Cameron pudo ver en sus monitores a los personajes de CGI habitando Pandora en vivo mientras dirigía a los actores, logrando una inmersión total.
A pesar de estos logros, persiste un debate intenso sobre el reconocimiento artístico de estas actuaciones. Figuras como Andy Serkis (por su papel de César en El planeta de los simios) o Zoe Saldaña (Neytiri en Avatar) han entregado interpretaciones aclamadas por la crítica, pero sistemáticamente ignoradas por los Premios Oscar. La Academia tiende a premiar los efectos visuales, separando la técnica del trabajo actoral, a pesar de que directores como Peter Jackson sostienen que el CGI es simplemente un "maquillaje digital" y que la esencia del personaje nace puramente del talento humano frente al sensor.
Hoy, la tecnología ha llegado a extremos fascinantes, como ver a Benedict Cumberbatch gateando para capturar los movimientos de un dragón o el uso de estas técnicas en piezas recientes como Better Man. La captura de movimiento ya no busca solo replicar el esqueleto humano (un reto que incluso le fue esquivo a Schwarzenegger en una escena fallida de El Vengador del Futuro, cuando Paul Verhoeven intentó usar una muy joven motion capture sin éxito) sino capturar la esencia de la interpretación.