Uma entrevista com um vários vice-presidentes da Apple envolvidos com a engenharia do sistema de câmera do iPhone 13 foram publicados, provando mais informações sobre as decisões por trás das melhorias para os lançamentos de 2021.

Publicado na segunda-feira, o episódio de”iPhone 13: Conversando com os engenheiros de câmera”o Stalman Podcast apresenta um trio de representantes da Apple. O grupo é liderado por Kaiann Drance, VP de Marketing Mundial de Produtos para iPhone, juntamente com o VP de Engenharia de Software de Câmera Jon McCormack e VP de Engenharia de Hardware de Câmera Graham Townsend.

Para o iPhone 13, a Apple trouxe seu Sensor Shift OIS, bem como melhorias para fotografia com pouca luz, estilos fotográficos e modo cinematográfico. Nos modelos Pro, há um novo modo Macro, junto com suporte para vídeo ProRes.

O podcast de meia hora começa com Townsend discutindo os benefícios de a Apple projetar o hardware de sua câmera, incluindo como a equipe de hardware pode trabalhar em estreita colaboração com suas contrapartes de software”desde uma fase inicial de design”. A lente, o sensor e outro hardware são”projetados especificamente para complementar o firmware e o processamento de software”do dispositivo.

“Como possuímos toda a pilha, de fótons a jpeg, se preferir, podemos escolher o local ideal no pipeline para oferecer benefícios específicos”, acrescenta Townsend. Por exemplo, o Sensor Shift é poderoso o suficiente para estabilizar um único segundo de vídeo, ajudando a fornecer os dados de imagem brutos e precisos que a equipe de software pode expandir.

O novo Macro no iPhone 13 Pro é parcialmente habilitado a partir do sistema de foco automático que a Apple usa, Townsend confirmou, caso contrário,”você terá uma câmera macro dedicada”sem ele.”Isso, para nós, não é tão eficiente quanto poder usar a mesma câmera para esses dois propósitos separados, mas de alguma forma ligados.”

O aprendizado de máquina progrediu consideravelmente, especialmente com a quantidade de poder de processamento que o A15 fornece agora, de acordo com McCormack. “Isso realmente mostra a quantidade de poder de processamento no iPhone e, de fato, temos tanto poder de processamento agora que podemos pegar essas mesmas técnicas de fotografia computacional e introduzi-las no mundo do vídeo para trazer a videografia computacional.”

“Na verdade, agora estamos aplicando ao vídeo toda a mágica do aprendizado de máquina que aprendemos nas fotos.”McCormack diz que o iPhone agora”segmenta cada quadro em tempo real e processamos o céu, a pele e a folhagem individualmente, e isso pega nosso vídeo já líder da indústria e o torna ainda melhor, dando-nos melhor clareza e mais detalhes em diferentes partes da imagem.

Categories: IT Info