23 de setembro de 2021 , 15h06

Podemos ganhar uma comissão se você fizer uma compra usando os links desta página.

Durante o lançamento do iPhone 13, a Apple transmitiu um curta-metragem intitulado Whod unnit, apresentando uma das maiores atualizações de câmera que qualquer carro-chefe do iPhone já viu: Modo Cinematográfico.

Este novo modo de vídeo permite que os usuários mudem continuamente o foco ao gravar vídeos 1080p a 30fps, mantendo o assunto em foco ou mudando para um assunto diferente, mesmo enquanto a câmera está rolando (entre recursos adicionais).

Não é preciso dizer que isso requer uma grande quantidade de poder de computação e não é algo que qualquer uma das gerações anteriores de iPhones pudesse lidar em termos de hardware. No entanto, é um trabalho adequado para a nova casa de força A15 Bionic de um SoC da família carro-chefe. No entanto, mesmo com esse monstro alimentando os dispositivos, a Apple diz que descobrir como fazer o Modo Cinematográfico funcionar foi um sério desafio.

A Apple fala sobre o processo de criação do Modo Cinematográfico

VP da Apple, Kaiann Drance, junto com o da Apple, Kaiann Drance Johnnie Manzari, designer da Human Interface Team, sintonizou em uma entrevista com TechCrunch para compartilhar mais alguns detalhes sobre como o Modo Cinematográfico do iPhone 13 surgiu.

Não tínhamos uma ideia [para o modo cinematográfico]. Estávamos apenas curiosos-o que há de atemporal no cinema? E isso meio que leva a um caminho interessante e então começamos a aprender mais e conversar mais… com pessoas em toda a empresa que podem nos ajudar a resolver esses problemas.

É preciso muito poder de processamento para sermos capazes de ser capaz de rastrear um assunto e mudar o foco e a abertura da câmera em tempo real, bem como aplicar desfoque de lente e estabilização de imagem, mesmo enquanto calcula de forma inteligente quando e onde é apropriado mudar ativamente o foco (como quando alguém está virar a cabeça ou entrar em uma sala, por exemplo).

Por causa disso, o aumento de potência do chip A15 junto com seus 5 núcleos de GPU e o poderoso mecanismo neural serão acelerados ao máximo ao usar o Modo Cinematográfico.

Sabíamos disso. trazer uma profundidade de campo de alta qualidade para o vídeo seria magnitudes mais desafiadoras [do que o modo Retrato]. Ao contrário das fotos, o vídeo é projetado para se mover conforme a pessoa filma, incluindo um aperto de mão. E isso significava que precisaríamos de dados de profundidade de qualidade ainda mais alta para que o Modo Cinematográfico pudesse funcionar em assuntos, pessoas, animais de estimação e objetos, e precisávamos desses dados de profundidade continuamente para acompanhar cada quadro. Renderizar essas alterações de foco automático em tempo real é uma carga de trabalho computacional pesada.

Manzari continua que a equipe de design da Apple começou com uma”profunda reverência e respeito pela imagem e pelo cinema ao longo da história”. Eles se perguntaram questões centrais, como”quais princípios de imagem e cinema são atemporais? Que arte perdurou culturalmente e por quê?”, e que nós, como uma equipe multifuncional, precisávamos entender precisamente como e quando eles foram usados. ”

Embora a filmagem de vídeos cinematográficos seja algo geralmente associado a profissionais de alto nível, já que é uma arte séria e difícil para aprender a fazer bem, Manzari explica que a Apple se esforçou para usar seu hardware para torná-lo simples e acessível ao público, dando até mesmo aos fotógrafos amadores de smartphones a capacidade de se envolver com algo desse calibre.

Sentimos vontade este é o tipo de coisa que a Apple aborda melhor. Pegar em algo difícil e convencionalmente difícil de aprender e, em seguida, transformá-lo em algo automático e simples.

Para quem perdeu a impressionante produção cinematográfica da Apple n exibindo o Modo Cinematográfico, totalmente filmado no iPhone 13 , aqui está:

Categories: IT Info