Notícias Corporativas

Arie Halpern: a tecnologia nas telas, do chroma key ao CGI

DINO
Escrito por DINO
Arie Halpern: a tecnologia nas telas, do chroma key ao CGI
Junte-se a mais de 3.000 pessoas

Entre para nossa lista e receba conteúdos exclusivos sobre Data Science

A evolução de hardwares e softwares para a indústria cinematográfica mostra como um setor que demanda desenvolvimento de tecnologia acaba impulsionando a criação de equipamentos que, em algum momento, farão parte do cotidiano.

O exemplo de “Toy Story” é cristalino. Em 1995, o volume de dados (1 Terabytes) para processar e entregar a história da turma do xerife Woody para os cinemas impressionou especialistas da área: foram necessárias 800 mil horas para concluir a renderização das imagens. Atualmente, um quarto de século depois, há modelos de computadores de uso doméstico capazes de processar esse volume de dados e de renderizar um filme de 120 minutos em menos de uma hora.

Por outro lado, a produção de conteúdo para o cinema está mais sofisticada e essa indústria demanda profissionais cada vez mais capacitados. E as eventuais falhas desses times não são perdoadas pelo público. A cada novo filme ou série da franquia Marvel, por exemplo, erros de computer-generated imagery (CGI) são apontados pelos fãs.

Mas foi a concorrente DC Comics que ofereceu o último deslize notável. Enquanto gravava as cenas do longa-metragem “Liga da Justiça” (2017), o ator Henry Cavill também trabalhava em outro filme (“Missão Impossível”) em que o personagem usava bigode. A equipe de efeitos especiais do filme da DC Comics acreditou que seria capaz de remover o bigode com pós-produção, em CGI. O resultado foi ruim, e o público passou semanas produzindo memes e brincadeiras com a hashtag #supermanmustache (bigode do Super Homem).

Tecnologias disruptivas são sempre bem-vindas, mas devem estar a serviço de um projeto; há casos em que a simplicidade pode ser mais interessante. Um bom controle de agendas e mais cuidado na caracterização do personagem poderia ter resolvido a questão.

DNA de inovação

Inovação sempre foi um diferencial no universo do audiovisual – afinal, a própria existência do cinema e da televisão devem-se a técnicas e equipamentos que revolucionaram a comunicação. O seriado televisivo “Batman”, estrelado por Adam West, foi uma das primeiras produções em cores a chegar aos lares americanos, nos anos 1960. Duas décadas depois, o seriado “Hulk”, com o ator Bill Bixby interpretando o cientista David Banner e o fisioculturista Lou Ferrigno dando vida ao super-herói verde, foi outro marco dos efeitos especiais, nos anos 1980.

Após esse período, no final da década de 1990, o uso de chroma-key e as técnicas de maquiagem e maquinário cada vez mais sofisticados foram essenciais para sucessos como “Aliens”, de James Cameron. Mas o salto de tecnologia disruptiva ficou evidente com a computação gráfica: os efeitos especiais romperem uma barreira evolutiva. Exemplo disso são os blockbusters “Exterminador do Futuro 2” (1991), “Jurassic Park” (1993), “Toy Story” (1995), “Titanic” (1997) e “Star Wars – Ameaça fantasma” (1999).

A história do desenvolvimento de tecnologias dialoga com inúmeras áreas. Avanços para produção cinematográfica transpuseram a indústria do entretenimento, chegando ao dia a dia, como em tecnologias de processamento de imagem com finalidades clínicas.

Precisão na tecnologia de imagens

A despeito de a Lucasfilm ser vinculada à franquia Star Wars, as produções cinematográficas de Marvel e DC Comics devem agradecimentos ao trabalho ao núcleo de tecnologia da empresa. A primeira câmera controlada por computador foi criada pelo time de George Lucas, o que trouxe o motion-control para as produções.

A maior precisão no controle de captação de imagens foi decisiva para que os resultados da computação gráfica que, após a década de 1990, passou por saltos evolutivos em sequência impulsionada pelo desenvolvimento de computadores com hardware e software cada vez mais capazes e precisos.

A segunda era do computer-generated imagery (CGI) trouxe avanços que eram inimagináveis em 1973, quando filme “Westworld” estreou o uso do processamento digital de imagem. Ou seja, da inovação de pixelizar a imagem para simular o ponto de vista android, as obras futuras com CGI passaram a criar personagens, objetos, cenários e até mesmo filmes inteiros.

Em 1995, “Toy Story” inaugurou o mercado de longas produzidos completamente em CGI. E a franquia é um verdadeiro museu da evolução das máquinas de computação gráfica: basta comparar o resultado de imagem da pelugem do cachorro presente no primeiro filme com o que foi obtido no quarto episódio para um gato, em 2019.

Licença de uso do conteúdo.

O conteúdo do Portal ABRACD.org foi escrito sob a licença Creative Commons BY-SA 3.0. Você pode usar e compartilhar este conteúdo desde que credite o autor e veículo original do mesmo.