Clicky

Uma espiada no futuro da Adobe no Sneaks 2018

Uma espiada no futuro da Adobe no Sneaks 2018

Empresa apresentou provas de conceito durante seu evento anual para criativos em Los Angeles

por Cris Dias

Um dos meus lemas é “daora viver no futuro”. Quando eu era criança, a ficção me prometia carros voadores e empregadas domésticas robotizadas. Isso ainda não chegou mas, sinceramente, quase todo dia vejo tecnólogos pelo mundo tornando realidade coisas que se eu tiver que explicar por conta própria só podem ser descritas como bruxaria pesada.

Causar essa sensação em mim e nas 14.000 pessoas que estavam hoje no Los Angeles Convention Center para o Adobe MAX, evento anual organizado pela Adobe para o mercado criativo — e para o qual a Adobe me convidou a cobrir este ano para o B9 — é o objetivo da já famosa (e aguardada pelos veteranos de MAX) sessão MAX Sneaks. Durante mais ou menos 1 hora e meia engenheiros e engenheiras da Adobe mostram para a platéia, ao vivaço, pequenos experimentos e provas de conceito que desenvolveram, enquanto um dos gerentes da empresa e uma celebridade convidada fazem o papel de animadores de torcida.

Foi em Sneaks que vimos pela primeira vez a tecnologia de simulação de pintura a óleo que esse ano apareceu no Project Gemini, o app de desenho e pintura para iPad que a Adobe demonstrou nesse MAX e que vai ser lançado em 2019.

Foram apresentados 10 conceitos tecnológicos, que foram do áudio ao design de embalagens. A maioria, como era de se esperar, se aproveita da plataforma de inteligência artificial da Adobe, o Sensei. Esse ano a apresentação ficou por conta de Paul Trani, evangelista da Adobe (que é definitivamente o tipo que cargo que eu gostaria de ter) e Tiffany Haddish, atriz que ficou conhecida pelo grande público americano por conta do filme “Girls Trip”.

Se a tecnologia apresentada nos Sneaks fizer sucesso com o público e o mercado, além de se provar tecnicamente viável, pode vir a integrar produtos Adobe no futuro, como é o caso das funcionalidades de animação de personagens animados que hoje está no Character Animator. Já outras se encaixam mais no papel de mostrar para nós do lado de cá o poder e possibilidades tecnológicas… ou simplesmente que é daora viver no futuro.

Estes foram os projetos:

Brush Bounty: faça chover com uma tuitada

Um grande tema não só do Sneaks como de todo o Adobe MAX esse ano foi mostrar funcionalidades que eliminam tarefas repetitivas e simplesmente maçantes no workflow de quem cria imagens ou vídeos. O Brush Bounty é um desses casos.

Voltado para quem faz animações online, seja em motion comics ou qualquer tipo de história interativa, o Brush Bounty é uma série de “pincéis inteligentes” para animação, que no protótipo animava chuva, cabelo ou esferas mágicas de poder. Esses pincéis inteligentes podem ser controlados externamente pelo animador ou até por fatores externos, como a esfera de poder crescer dependendo de quantas tuitadas acontecerem em uma hashtag ou quantas curtidas um foto receber.

Smooth Operator: mude de vídeo horizontal para vertical sem enlouquecer

Uma das grandes batalhas acontecendo neste momento no mundo do audiovisual é entre o vídeo horizontal e vertical. Nem tanto como preferência em si, mas pelo fato de que quem produz vídeo hoje em dia provavelmente precisa gerar histórias nos dois formatos no fim do processo, gerando conteúdo para a TV e para celulares. A solução mais popular hoje em dia é colocar marcadores nas câmeras (muitas vezes com fita crepe mesmo) para lembrar ao diretor de fotografia que mesmo que a câmera esteja com a imagem deitada ele só tem um pequeno espaço para capturar a ação, seja no formato completamente vertical 9:16 ou no mais quadrado, 1:1.

Na prática isso acaba levando os diretores a colocar as câmeras mais afastadas do que está sendo capturada, pra que qualquer movimento de câmera feito fora dessa margem possa ser corrigido na hora de editar. O resultado final pode facilmente ser um enquadramento que não é bom nem na horizontal nem na vertical. Ou você pode simplesmente capturar tudo da maneira que sempre fez, na horizontal, e depois ir dolorosamente movendo o ponto de vista na edição, tentando manter o máximo de ação na visão do espectador. De novo, uma tarefa maçante e até enlouquecedora às vezes.

O Smooth Operator usa a tecnologia Sensei para entender qual a parte importante de um vídeo originalmente horizontal e reenquadrar automaticamente no formato que você precisar no momento, trazendo, quem sabe, paz para a guerra do vídeo vertical.

Fantastic Fold: os origamis nunca mais serão os mesmos

Eu nunca pensei que design de embalagens pudesse ser um trabalho tão ingrato até ver a ideia da engenheira Amanda Ghassaei. Porque, veja só, embalagens são folhas de diferentes tipos de papel que são dobradas para gerar uma embalagem que funciona de maneira parece que foram projetadas já fechadinhas e dobradas em pequenos detalhes. Só que na verdade alguém desenhou tudo aquilo em uma folha plana, num app como Adobe Illustrator, e essa pessoa teve que pensar em cada dobra e intersecção que vai acontecer na prática. Um processo normal é desenhar, imprimir, dobrar, ver como ficou e voltar ao desenho. Mais uma tarefa que faz com que o designer passe menos tempo sendo criativo e mais tempo fazendo processos repetitivos.

O Fantastic Fold permite que você já trabalhe no produto final, dobrado, na tela do computador, mesmo que o “lado da caixa” seja formado por pedaços diferentes da folha plana. A parte mais impressionante foi quando Amanda aplicou em poucos segundos uma ilustração de esqueleto em um tradicional origami de garça.

Pela reação de uma galera no fundão do auditório esse projeto pode salvar algumas noites de trabalho.

Project Waltz: uma ideia da cabeça e uma câmera virtual na mão

Ver a tecnologia inventada por James Cameron para fazer “Avatar” foi um desses momentos onde eu pensei “daora viver no futuro”. Cameron inventou, entre outras tantas coisas, uma câmera que projetava para o operador de câmera uma prévia dos objetos virtuais que só entrariam na cena muito depois, pelas mãos da equipe de efeitos visuais, o primeiro uso de realidade aumentada que lembro ter visto — e provavelmente o único realmente útil que consigo lembrar até hoje.

O Project Waltz transforma seu celular numa câmera “cameronesca”, só que para realidade 100% virtual, para cenários e objetos criados completamente dentro do computador, sem interagir com o mundo lá fora. A ferramenta vem ajudar quem cria objetos e mundos virtuais a se movimentar pelo ambiente 3D sem usar controles como mouse e trackpad, que não são naturalmente feitos para movimento em 3 dimensões. Com o celular, o artista pode enquadrar mais naturalmente e até fazer movimentos de câmera com o celular que já tem no bolso.

Fontphoria: qualquer fonte do mundo a uma foto de distância

Tipografia e caligrafia no papel: artístico e relaxante. Tipografia no computador: uma série de vetores arrastados pra cá e pra lá. O Phontphoria deve ter sido a apresentação que mais arrancou gritos de alegria da platéia, porque coloca a inteligência artificial para entender e criar fontes tipográficas a partir de imagens do mundo real. Quem nunca viu uma fonte interessante numa imagem e teve que usar sites e ferramentas para descobrir qual fonte era aquela e depois sair buscando onde essa fonte está disponível para uso.

Com o Phontphoria você só precisa tirar uma foto de um texto e a inteligência artificial gera uma fonte não só com as letras que você fotografou, mas todo o alfabeto. Não importa se a fonte tem mais de uma cor ou detalhes orgânicos, tudo é trazido para sua nova fonte (de maneira vetorial, não fotográfica, então detalhes poderão ser perdidos).

O Phontphoria é uma daquelas tecnologias apresentadas em um Sneak que são tão disruptivas que podem acabar nem vindo para o mundo real justamente por causa disso, como a tecnologia de alterar a fala das pessoas usando um simples editor de texto apresentada alguns anos atrás. O mercado de tipografia movimenta muito dinheiro pelo mundo e é protegido por direitos autorais. Mesmo com o Adobe Fonts (novo nome do Typekit) colocando as fontes no mundo da assinatura de preço fixo, o que vai acontecer quando eu simplesmente puder tirar uma foto de um texto feito por um calígrafo profissional e trazer para o meu projeto? É maravilhoso artisticamente mas provavelmente bad for business. Vamos ver quem ganha essa batalha.

Project Fast Mask: não adianta se esconder, gatinho

Rotoscopia e máscaras em vídeos — o trabalho de manualmente marcar, frame a frame, um objeto na tela pra que você possa alterar o fundo sem mexer no objeto mascarado — é uma tarefa tão maçante que normalmente é colocada na mão dos iniciantes nos estúdios de pós produção. Eu lembro de um projeto que fizemos na produtora onde eu trabalhava em 2009… 2010, onde foram filmados ratinhos de laboratório na frente de uma tela verde e o coitado do assistente tinha que marcar na tela cada bigodinho dos bichinhos. Frame. A. Frame. Não à toa o apelido dele era Jesus.

O Project Fast Mask é uma tecnologia tão impressionante que nem o apresentador e adobista Paul Trani (que trabalha em uma empresa de tecnologia) acreditou que o engenheiro estava marcando uma pessoa na tela com apenas 3 ou 4 pontos. A partir daí, em poucos segundos, a inteligência artificial acompanha o movimento da pessoa pela tela e gera máscaras automáticas. O ponto explodidor de cabeças veio quando um gatinho foi marcado na tela e continuou sendo rastreado mesmo quando passou por trás de outro objeto.

No protótipo essas máscaras não eram 100% perfeitas, é claro, mas juntando essa tecnologia com outras já existentes de remoção de fundo do Photoshop, por exemplo, a quantidade de horas economizadas nas ilhas de pós-produção vai ser imensa. Talvez o Jesus possa voltar a ver sua família, finalmente.

Project Model Morph: Power Rangers, hora de morfar… objetos 3D de maneira fácil!

Quando eu era um garoto juvenil sonhei que um dia seria um famoso animador 3D e melhor amigo do George Lucas. Arrumei minha cópia do 3D Studio… por aí e comecei a criar meus objetos. Minutos depois eu já tinha desistido (tenho baixa tolerância à dor física e psicológica) porque manipular objetos 3D não é a mesma coisa que brincar de massinha. Você precisa mover vértice por vértice na direção desejada e, mesmo que você selecione mais de um ponto ao mesmo tempo a máquina não sabe que aqueles pontos formam a asa traseira de um caça estelar Iridian 5000.

O Project Model Morph usa mais uma vez o poder do Sensei para agilizar o processo de alteração de objetos 3D, porque o Sensei é capaz de entender que aqueles pontos fazem parte do contexto de um objeto e precisam andar juntos, mantendo proporções e simetrias.

Moving Stills: não é porque você é uma foto que vai precisar ficar aí paradona

Era uma vez um jovem cineasta americano que foi convidado para fazer uma série documental para a TV sobre a guerra civil americana. A história era fascinante, os cenários incríveis, mas havia um grave problema: não existiam câmeras de cinema e TV nas cidades e campos de batalha do fim do século 19. Foi possível coletar muitas fotografias sobre o conflito, mas para a dinâmica TV de 1990 mostrar fotos ia ser bem monótono. Foi então que nosso herói resolveu filmar as fotos e fazer movimentos de câmera sobre elas. O nome deste cineasta é Ken Burns, que dá nome ao essa técnica que se popularizou nos programas de edição de vídeo da Apple, como o iMovie.

O “efeito Ken Burns” já é tão clichê (e fácil de fazer com as ferramentas atuais) que a onda agora é dar um efeito de paralax às imagens, o que na prática significa recortar diferentes objetos do vídeo para que partes diferentes da imagem possam se mover independentemente das demais, cada uma com seu próprio Ken Burns, por assim dizer. Só que isso, claro, precisa ser feito manualmente, frame a frame. Chamem o Jesus.

O Moving Stills faz o que o nome promete: adiciona “movimento de câmera” a fotos estáticas, como zoom e pan, com literalmente o clique de um botão, usando não só tecnologia de identificação de objetos, mas provavelmente coisas como o a mágica por trás do “content aware fill”. Além da qualidade e realismo dos movimentos me impressionou principalmente a velocidade com que o reconhecimento dos vários objetos eram feitos e a renderização que vinha a seguir. A ideia dos Sneaks é que todas as demonstrações aconteçam ao vivo — se alguma coisa foi pré processada para não tornar a apresentação uma longa espera por uma barra de progresso o público precisa ser avisado — então aquilo ali estava acontecendo realmente ao vivo, em segundos.

as-fotos-da-fotos-da-festa-ficaram-ótimas.exe nunca mais serão as mesmas.

Project Kazoo: o Kenny G da flauta doce

A criação e apresentação do Project Kazoo ficou por conta de Zeyu Jin, que no Sneak de 2016 desgraçou nossas cabeças com o Project VoCo, aquela tecnologia que aprende como uma pessoa fala e consegue literalmente colocar palavras na boca de pessoas.

Dessa vez ele veio com algo mais… inofensivo em tempos de fake news, uma tecnologia que torna realidade um antigo sonho meu de infância. É que eu não sou lá muito bom em tocar instrumentos como piano e não entendo nada de escrever partituras, então pensei “por que eu não posso simplesmente cantarolar a melodia pro computador e ele transforma tudo em notas musicais”? Aparentemente essa é uma tarefa muito mais complexa do que parece e precisaram chamar o Zeyu Jin para resolver. Obrigado, Zeyu Jin!

Project Good Bones: sacudindo o esqueleto

Para fechar a noite os engenheiros da Adobe mandaram pro espaço mais uma tarefa mega repetitiva, dessa vez no Illustrator: mover partes de ilustrações de personagens, de pessoas, robôs ou até animais. Um desenho na tela é na realidade composto de várias curvas vetoriais separadas. Você pode, claro, agrupar todas as formas, por exemplo, de um rosto, para conseguir mover o rosto todo de uma vez só. Mas ainda assim mover todo o corpo, com ângulos e conexões é mais um exemplo de tarefa que faz com que o designer seja menos criativo e mais aquela pessoa que só fica repetindo tarefas idiotas.

E se conectássemos todas as partes dos nossos personagens numa espécie de esqueleto digital, você deve estar se perguntando? Não? Bom, essa foi a solução trazida pelo Project Good Bones, que não só permite a movimentação de grupos de objetos de maneira natural — retorcendo o que precisa ser retorcido e esticando o que precisa ser esticado — como também cria o esqueleto em si de maneira automática.

Quando vi a apresentação do protótipo pensei que ele seria muito útil para animações, do estilo que a gente via em Flash quando a internet era tudo mato. O Good Bones ainda não chegou lá, mas já consegue exportar GIFs rudimentares com os diferentes estágios dos movimentos feitos no Illustrator.

Compartilhe: