pentax-k-3

Esse título pode soar estranho mas a habilidade de “embaçar” ou não imagens é algo tão importante para fotógrafos profissionais que alguns fabricantes laçam duas versões da mesma câmera simplesmente para oferecer as duas opções (é o caso da Nikon D800 e da D800E, por exemplo). A Pentax K-3 que a Ricoh anunciou ontem é a primeira DSLR capaz de “embaçar” apenas as imagens que o fotógrafo deseja, eliminando a necessidade de oferecer dois modelos de câmera. Quer saber como esse recurso funciona e porque ele é importante? A resposta tem a ver com amostragem de sinais de alta frequência, cientistas suecos, aliasing e camisas xadrez. Ainda está interessado? Então continue lendo.

Quando uma câmera tira uma foto, o que ela está fazendo na verdade é realizar uma amostragem do campo de luz de uma cena. Obturador de abre e deixa os raios passarem pela abertura da lente e atingirem os fotodiodos no interior da máquina. Esse instante, que frequentemente dura apenas uma fração de segundo, é a única oportunidade que o sensor tem para deduzir como a cena deve ser a partir da frequência das ondas e do número de fótons que colidiram com os pixels. Como toda amostragem é, por definição, uma descrição parcial de um fenômeno, imperfeições são inevitáveis se o objetivo é reproduzi-lo.

No caso da fotografia, a reprodução não poderia estar mais longe da realidade. Com uma matriz composta por apenas alguns milhões de pixels, as câmeras tentam recriar objetos compostos por trilhões de moléculas. Felizmente, o olho humano não é muito melhor nessa tarefa e por isso muitas vezes esquecemos que uma foto tirada com a melhor DSLR não passa de uma representação tosca da coisa real. De qualquer maneira, a questão da amostragem permanece.

Na primeira metade do século passado, Harry Nyquist do lendário Bell Labs determinou que o número de pulsos discretos que podem passar a um só tempo por uma linha de telégrafo é limitado pelo dobro da banda desse mesmo canal. Essa descoberta levou a um teorema que descreve um método de reconstrução de um sinal a partir de uma amostragem. O que nos interessa nessa história é que esse teorema determina que um sinal limitado pode ser reconstruído sem imperfeições desde que a taxa de amostragem do mesmo seja o dobro de sua frequência máxima. Quando a taxa de amostragem é insuficiente, dois sinais diferentes podem se confundir durante seu processamento, produzindo defeitos: é o que chamamos de aliasing porque um sinal torna-se o “alias” (pseudônimo) do outro.

Note que as ideias de Nyquist se desenvolveram a partir de um fenômeno temporal (o pulso passando pela linha de telégrafo), mas parte do conceito pode ser aplicado a objetos espaciais. Não por acaso, uma certa empresa finlandesa faria exatamente isso com a câmera de dois de seus smartphones, mas essa é uma história para outro momento. Se cada ponto/pixel de uma foto constitui uma amostra da imagem total, a resolução do sensor (a área da matriz de pixels) é a taxa de amostragem de uma cena.

A partir daí podemos deduzir que quanto maior a resolução de uma câmera, mais fiel ela será à cena, certo? Não exatamente. No mundo da fotografia existem outras questões que limitam o número de pixels que um fabricante pode amontoar em um sensor de área limitada. Esse problema é mais complexo do que pode parecer (a densidade de pixels também afeta a gama dinâmica da imagem, por exemplo), mas por hora digamos que pixels maiores recebem uma “amostra” maior de fótons em um mesmo tempo de exposição e, portanto, seu sinal também é mais forte.

Existe, portanto, um jogo de balanceamento na construção de uma câmera que limita sua resolução. Se considerarmos que o sinal que a câmera procura processar é o conjunto de raios de luz refletidos pelos objetos da cena, o que acontece quando ele tem uma frequência, ou seja, quando ele tem mais detalhes do que a taxa de amostragem (a resolução) é capaz de reproduzir? Um caso especial de aliasing que também é chamado de efeito moiré. Esse defeito de imagem é particularmente visível em padrões visuais que se repetem com frequência, como a texturas de um tecido.

aliasing 1

Minha camisa não é xadrez, como eu havia prometido, mas é possível notar um sutil efeito moiré nessa foto tirada com o HTC One

O moiré é um caso particular de aliasing, mas existem outros que são mais próximos do cotidiano de quem não é fotógrafo. Como comentamos acima o aliasing é o que acontece quando o processador é incapaz de discernir um sinal do outro. Em um situação extrema, a confusão entre sinais seria tamanho que o processador ignoraria todas as sutilezas de gradação de cor, produzindo uma imagem na qual a transição se dá de maneira brusca com curvas recortadas: é o que às vezes chamamos informalmente de “pixelização”. O exemplo mais simples desse efeito é o que acontece quando aumentamos uma imagem no Paint. O que estamos fazendo na verdade é produzir uma imagem a partir de uma amostragem insuficiente, como no exemplo a seguir.

Kuroneko_profile

Kuroneko_upscale

Um dos grandes diferenciais de um media player com um rederer avançado são os algoritmos de upscaling que ele oferece para amenizar o aliasing. Isso é particularmente importante para quem quer assistir a um show originalmente codificado em 720p em uma tela de resolução 1080p, o que explica a popularidade do MPC-HC+MadVR em comunidades como a dos fãs de anime.

Mas, afinal, como nos livramos do aliasing? Existem muitas técnicas para disfarçar os efeitos do aliasing. No contexto da computação gráfica, uma das mais comuns é o mipmapping. Toda vez que alternamos entre opções como “Trilinear Filtering” ou “Anisotropic Filtering” dentro de um jogo, estamos escolhendo o método de antialiasing que a engine vai utilizar para as texturas do game. Quem gosta de jogos de PC já deve ter percebido que esse é um dos recursos gráficos que mais ocupam o hardware, mas essa também é uma história para outro artigo.

O game The Witcher 2 usa um recurso de antialiasing avançado chamado Ubersampling. Sim, ele é bem mais pesado que Crysis.

O game The Witcher 2 usa um recurso de antialiasing avançado chamado Ubersampling. Sim, ele é bem mais pesado que Crysis.

E no caso da fotografia, onde não podemos contar com truques de software? Até agora, os fabricantes recorram a uma solução bem simples: um componente posicionado entre a lente o sensor que filtra os sinais de alta frequência (lembre-se: quanto maior a frequência do sinal, maior deve ser a amostragem para evitar defeitos). Na prática, o que ele faz é “embaçar” a imagem para eliminar os detalhes mais finos. Essa abordagem implica uma desvantagem óbvia, por isso vários fabricantes preferem aceitar o risco e lançam câmeras sem esse filtro.

Com a Pentax K-3, os japoneses engenhosos da Ricoh parecem ter resolvido esse dilema da fotografia digital. Em vez de concentrar seus esforços em uma maneira de colocar ou retirar o filtro, eles focaram no sensor. Há tempos as câmeras digitais usam um método de estabilização de imagem independente da lente chamado de “sensor shift”. Essencialmente, ele é uma moldura flutuante que envolve o sensor e permite que ele se mova com algum grau de independência em relação ao resto da câmera para evitar que o movimento das mãos interfira na captura das imagens. A Ricoh ajustou esse sistema para fazer o oposto: mover sutilmente o sensor no momento da foto. Teoricamente, isso causa o mesmo embaçamento provocado pelo filtro antialiasing, eliminando os detalhes mais finos que poderiam cause moiré.

A beleza dessa abordagem é que esse “filtro” pode ser desligado a qualquer momento. Pode parecer pouco, mas é a diferença entre comprar duas D800, ou seja, uma tremenda economia para consumidores e fabricantes. Outra possibilidade extremamente vantajosa da Pentax K-3 é que o fotógrafo pode determinar a intensidade dos movimentos do sensor, efetivamente criando graus de filtro antialiasing e diminuindo a perda de detalhes que ele causa.

A câmera em si é uma DSLR com um CMOS APS-C de 24,4 MP, provavelmente muito similar ao da Nikon D7100. Ela possui um sistema de autofoco relativamente avançado, com 25 pontos de detecção de fase em cruz. O desempenho do processador de imagem também é promissor: supostamente, ele é capaz de realizar disparo contínuo a 8,3 FPS e pode filmar em 1080p a 60 quadros interpolados. Em outras palavras: é uma máquina que se sustenta mesmo sem esse simulador de filtro.

De qualquer maneira, a ideia da Ricoh é tão simples e resolve um problema tão grande que é difícil não se entusiasmar. Só  resta saber se essa simulação funciona tão bem quando o filtro real. Isso nós só descobriremos em Novembro, quando a câmera começar a ser comercializada por 1300 dólares (só o corpo).

Pin It on Pinterest