Escolha uma Página

galaxy s5

É inevitável que um ciclo de upgrade tão curto quanto os da Apple e da Samsung deixem algumas pessoas decepcionadas depois de semanas de especulação. Afinal, os desejos humanos sempre se movem mais rápido que os avanços tecnológicos. No entanto, assim como o iPhone 5s introduziu avanços consideráveis que acabaram sendo subestimados pela frustração do hype que envolvia aquele aparelho, o Galaxy S5 também tem novidades importantes que vêm sendo ignoradas. O novo hardware de câmera é um grande exemplo disso, porque ele parece marcar uma mudança de estratégia por parte da Samsung.

Sim, a resolução do sensor do Galaxy S5 aumentou de 13 MP para 16 MP, mas isso é apenas parte da história. A Samsung está utilizando um CMOS maior que o anterior, o que manteve o tamanho dos pixels individuais em 1,12 microns, o mesmo tamanho dos pixels do Galaxy S4. Esse é um ponto importante.

Até bem pouco tempo atrás os fabricantes de smartphones pareciam estar envolvidos em uma corrida por mais resolução, independentemente dos efeitos adversos que uma densidade maior de pixels causa. Aparentemente, o HTC One e o Lumia 1020 fizeram com que a indústria repensasse suas prioridades e agora todo mundo está falando no tamanho dos pixels. Embora esse aspecto do sensor não tenha um apelo de marketing tão excitante, o fato é que ele influencia tanto o nível de ruído da imagem quanto a amplitude da sua gama dinâmica, características essenciais para uma foto de boa qualidade. Também é curioso notar como o sensor de proporção 16:9 introduzido por esses dois aparelhos está agora sendo adotado pela Samsung.

Mas a novidade mais importante do CMOS usado no Galaxy S5 é que ele faz autofoco por detecção de fase. Resumindo, a detecção de fase consiste na separação da cena fotografadas em duas fases que são captadas por sensores independentes. Se a imagem que é registrada por um desses sensores for idêntica à registrada no outro, isso quer dizer que a cena está em foco.

Esse tipo de sistema de autofoco é uma parte fundamental das câmeras DSLR e, tradicionalmente, os sensores responsáveis por seu funcionamento eram completamente separados do sensor de imagem em si. No últimos anos, contudo, empresas como a Sony e a Canon investiram em métodos para realizar essa separação de fase no CMOS principal da câmera. A abordagem mais comum, que creio ser a mesma utilizada no Galaxy S5, é cobrir metade de uma série de pixels localizados em pontos estratégicos do sensor, de modo que esses pixels especiais leiam apenas uma das fases da imagem. A Samsung é a primeira fabricante a implementar esse sistema em um sensor de smartphone.

A detecção de fase introduz muitas vantagens. Durante a apresentação do aparelho, a Samsung se concentrou em vender a velocidade de focagem, mas imagino que essa escolha se deva apenas ao fato de que é mais fácil dizer que câmera demora apenas 0,3 segundo para focar. Na verdade, a utilidade da detecção de fase se deve à maneira como ela é capaz de deduzir a distância entre os objetos e o plano de foco. Simplificando, um sistema de foco por detecção de fase sabe se um objeto está próximo demais ou distante demais para estar em foco. Ao extrapolar essa informação ao longo do tempo, ele pode calcular a velocidade com que o objeto se move através do quadro, fazendo ajustes para que ele esteja sempre em foco. É esse tipo de capacidade que diferencia as câmeras profissionais usadas para fotografar esportes, por exemplo.

É claro nada disso quer dizer que os jornais vão começar a usar o Galaxy S5 para fotografar partidas de futebol. A detecção de fase no sensor ainda é uma técnica imatura e a Samsung não é exatamente um grande nome no mundo da fotografia profissional. Como deve ter ficado implícito quando descrevi o sistema acima, essa abordagem também tem uma limitação física incontornável. Cobrir metade de um pixel significa desistir de metade da sua sensibilidade à luz. Naturalmente, esse fato restringe o número de pontos de foco que a Samsung pode implementar, especialmente em um sensor pequeno como o de um celular. Ainda assim, o simples fato de que alguém está tentando usar detecção de fase em um smartphone já é uma pequena revolução.

Outro ponto da câmera do Galaxy S5 que merecia um pouco mais de atenção é o modo de captura com HDR em tempo real. Na fotografia digital tradicional, imagens com ampla gama dinâmica (High Dynamic Range) são construídas artificialmente a partir de fotos tiradas com valores diferentes de exposição. Em geral, o fotógrafo usa um recurso chamado exposure bracketing, que tira três fotos consecutivas dentro de um limite de exposição. A combinação das imagens é normalmente feita mais tarde em um computador. Isso deve lhe dar uma ideia de quão complexo e intensivo esse tipo de atividade é.

Smartphones com HDR fazem exatamente a mesma coisa, mas sem a ajuda de um PC independente. Como era de se esperar, o hardware limitado de um celular só é capaz de produzir resultados igualmente limitados. As fotos também demoram bem mais que o normal para aparecerem na tela do usuário. Mas o Galaxy S5 promete fazer tudo isso em tempo real. Como? Ainda não se sabe em detalhes, mas eu tenho algumas ideias.

Embora o processo que eu descrevi acima seja o mais comum, existem outros e a pesquisa na área não pára de avançar. Falando em termos de hardware, por exemplo, existem várias opções. Um sensor maior naturalmente teria uma gama dinâmica mais ampla, por exemplo, mas essa não é uma alternativa viável. Outra possibilidade ainda mais peculiar seria usar um sensor com oversampling binário, mas considerando que ninguém implementou um sistema desses em uma câmera comercial até agora, acho que podemos eliminar essa alternativa.

No campo do software também existem algumas opções. O sensor EXR da Fujifilm, por exemplo, é capaz de combinar os dados de mais de um pixel para trocar resolução espacial por mais gama dinâmica. A Toshiba também tem uma solução parecida. Mas de todas as alternativas, creio que a mais provável seja algo similar ao que a Nvidia faz com o Tegra 4. Em vez de alterar o sensor diretamente, a Nvidia reformulou o pipeline gráfico do processador para que ele pudesse combinar fotos com mais velocidade. Tradicionalmente, fotos são processadas de maneira serial, passando do sensor para o ISP (image signal processor), do ISP para a CPU e da CPU para a memória. No caso do Tegra 4, a Nvidia usa os recursos de GPGPU do SoC para virtualizar esse processo e renderizar as fotos paralelamente.

Em outras palavras, creio que o sistema de HDR do Galaxy S5 não mude nada de fundamental no sensor, mas ao reorganizar a maneira como as fotos são processadas, ele pode dar a ilusão de algo que está ocorrendo em tempo real. Não por acaso, a Samsung fez questão de mencionar que o DSP (digital signal processor) do novo celular é mais rápido. Estamos falando do Hexagon, um componente do SoC Snapdragon 801 que teve seu clock aumentado de 320 MHz para 465 MHz .

Por fim, a câmera do Galaxy S5 é a primeira da empresa a utilizar o método de fabricação ISOCELL. Essencialmente, essa tecnologia se refere a uma melhor separação entre os pixels individuais. Isso reduz a possibilidade de crosstalk, no qual o sinal de um pixel interfere no sinal dos pixels adjacentes.

Embora nenhum desses avanços seja uma novidade completa (exceto, talvez, o ISOCELL), é evidente que o Galaxy S5 não é apenas um Galaxy S4 com furos na traseira, pelo menos no que diz respeito à câmera. As tecnologias que esse aparelho contém têm sim o potencial de trazer melhorias palpáveis para a experiência do usuário. Resta saber como ele se comporta na prática.