Como o Google está evoluindo a fotografia com smartphones para situações de pouquíssima luminosidade

Pesquisadores do Google usam inteligência artificial para criar novas visualizações HDR a partir de imagens mesmo em condições de escuridão




Nos últimos anos o Google investiu muito na fotografia computacional. Eles foram pioneiros para a parte de astrofotografia com os smartphones Pixel. Agora eles estão de olho na redução de ruído usando a tecnologia MultiNeRF. Segundo publicação recente da DPReview, trata-se de um projeto de código aberto que usa inteligência artificial para melhorar a qualidade da imagem. O programa RawNeRF visualiza imagens e, em seguida, usa IA para aumentar os detalhes para imagens capturadas em condições de baixa luz e escuridão.


Em um artigo de pesquisa, 'NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw Images', a equipe mostra como ele usou Campos de Radiance Neural (NeRF) para criar análises de visão de alta qualidade a partir de uma coleção de imagens de entrada. O NeRF foi treinado para preservar todo o alcance dinâmico de uma cena e é possível manipular o foco, exposição e mapeamento de tons após o tempo de captura. Quando otimizado em muitas entradas brutas ruidosas, o NeRF pode produzir uma cena que supere os denoisers brutos únicos e multi-imagens. Além disso, a equipe afirma que rawNeRF pode reconstruir cenas extremamente ruidosas capturadas em escuridão quase completa.


Os resultados são extremamente impressionantes. A utilização de dados lineares de entrada HDR brutos abre muitas novas possibilidades para a fotografia computacional, incluindo pós-processamento, como foco de edição e exposição, de uma nova visão HDR.


0 comentário