Madonna se reinventou e nos trouxe um espetáculo no “BBMAs“. Os avatares (e não hologramas), deram um espetáculo a parte ao lado da Rainha do Pop e Maluma, durante a apresentação de “Medellín“.

https://www.youtube.com/watch?v=P2vt4YvwOQg

Jamie King, amigo e diretor criativo de longa data de Madonna, disse que estava procurando algo inovador e diferente para a primeira apresentação de “Madame X“.

“Depois de encontrar com o empresário de Madonna, Guy Oseary, decidimos incorporar a realidade aumentada à performance”, disse ele ao Engadget. “Eu queria explorar uma maneira de envolver as personas de Madame X na apresentação, bem como a possibilidade da verdadeira Madonna realmente ser capaz de tocar com eles.”

Para que isso acontecesse, Jamie King procurou a empresa Sequin, que trabalha com realidade aumentada, e o projeto foi desenvolvido para a Rainha do Pop.

Jones, que supervisiona o desenvolvimento criativo, de produção e tecnologia da Sequin, acredita que foi a primeira vez que houve um desempenho de realidade aumentada de transmissão usando a captura volumétrica, que ele chamou de “a próxima revolução” da realidade aumentada.

“O que é novo sobre isso é que é uma apresentação completamente coreografada, onde Madonna e Maluma estão dançando com quatro versões digitais de Madonna em coreografia perfeita”, disse ele ao Engadget em uma entrevista.

A apresentação foi assunto global, endo um dos assuntos mais comentados na mídia naquele dia. O brilho da mesma deu à equipe uma grande felicidade e estima pelo êxito!

A coisa interessante sobre os efeitos visuais em tempo real na transmissão de realidade aumentada é que uma grande parte do trabalho está acontecendo na pré-produção”, disse Jones. “Toda a criação dos ativos, toda a animação, a maior parte da iluminação é feita antes do tempo”.

Um aspecto crítico de fazer apresentações como este trabalho é o rastreamento da câmera em tempo real. Jones e sua equipe usam uma ferramenta chamada “Brainstorm“, espalhando objetos de transmissão, incluindo gráficos em movimento, geração de caracteres e dados em tempo real, em cima do “Unreal Engine“. Jones explicou que o “Brainstorm” alimenta dados das câmeras físicas no “Unreal Engine” para que tudo, desde o conjunto real, se alinhe com uma replicação digital, garantindo que os renderizadores de realidade aumentada estejam no lugar certo, na hora certa.

Esta matéria foi adaptada do Engadget, e você pode conferi-la na íntegra aqui!