top of page

Frame IA | A Hasselblad não conseguiu ver o que o Reddit viu em minutos

  • há 1 dia
  • 4 min de leitura

Quando 108 mil imagens entram em um concurso, a detecção de IA migra do júri para o público. Qual o impacto disso para concursos?


Há uma ironia difícil de ignorar nessa história.


A Hasselblad é a empresa que fabrica câmeras de médio formato que custam, dependendo da configuração, o equivalente a um carro popular. É uma marca construída sobre a ideia de que a imagem importa, que o sensor importa, que cada detalhe da captura importa. É a câmera que foi à Lua.


E foi exatamente na competição que leva o nome dessa empresa que uma imagem com texto ilegível numa garrafa de Coca-Cola chegou à fase final sem que ninguém dentro da organização percebesse o problema.

Quem percebeu primeiro foi um usupario no Reddit.


O caso, reportado hoje em diversos portais, envolve o Hasselblad Masters 2026, um dos concursos mais respeitados da fotografia internacional. Dos 108 mil imagens inscritas, 70 chegaram à fase de finalistas em sete categorias. Uma delas, na categoria Street, está sendo acusada pela comunidade online de ter sido gerada ou substancialmente alterada por IA generativa.


O elemento que delatou a imagem não exigiu análise forense. A garrafa de refrigerante na mesa tem um rótulo com texto completamente indecifrável, o tipo de falha que ferramentas de geração de imagem ainda produzem ao tentar renderizar tipografia. Quando a imagem foi examinada com brilho elevado, a mesa também estava sem pernas. Não é sutil. Não é ambíguo.


A Hasselblad confirmou ao PetaPixel que o júri externo, composto por oito profissionais respeitados da fotografia mundial, não selecionou os finalistas. Isso foi feito internamente pela empresa. O júri de prestígio vota apenas na etapa final, sobre imagens que já foram pré-selecionadas. A falha não está nos grandes nomes do júri. Está no processo.


Há dois problemas acontecendo ao mesmo tempo aqui, e é importante não confundi-los.

O primeiro é o mais óbvio: uma imagem que provavelmente viola as regras do concurso chegou aonde não deveria chegar. A Hasselblad diz que exige arquivos RAW de todos os finalistas para verificação e que está conduzindo uma revisão. Se a violação for confirmada, o finalista é desclassificado.


O segundo problema é mais silencioso e mais duradouro: os outros 69 finalistas estão sendo questionados por associação. Nos comentários do YouTube, no Instagram, no Reddit, imagens que muito provavelmente são fotografias reais estão sendo escrutinadas com desconfiança porque a porta da suspeita foi aberta. Um fotógrafo chamado Olivier Caune, que postou com orgulho sobre sua participação, viu seu comentário praticamente ignorado em meio ao ruído sobre IA.


Isso é o contágio da suspeita. Uma imagem suspeita não contamina apenas a si mesma. Ela lança dúvida sobre tudo ao redor.


O que esse caso revela sobre o futuro dos concursos fotográficos vai além do escândalo pontual.


Quando o volume de inscrições é de 108 mil imagens, a verificação humana individual de cada foto se torna estruturalmente inviável. As organizações precisam fazer cortes rápidos, trabalhar em volume, delegar triagem inicial. Nesse contexto, imagens problemáticas podem avançar mais longe do que deveriam, simplesmente porque o processo não comporta atenção granular em cada etapa.


O que o caso Hasselblad demonstra é que, nessa escala, a detecção efetiva migrou do processo interno para a vigilância pública. O Reddit encontrou em minutos o que a curadoria interna não encontrou ao longo de todo o processo de seleção. Isso não é necessariamente uma vitória da comunidade. É um sinal de que os concursos ainda não desenvolveram infraestrutura de verificação proporcional ao problema que enfrentam.


E o problema parece que vai piorar antes de melhorar.


As ferramentas de geração de imagem que produziam texto ilegível e mãos com seis dedos estão ficando para trás. O que está chegando agora, e o que estará disponível em escala em menos de dois anos, gera cenas fotorrealistas onde não haverá garrafa com rótulo embaralhado para delatar. Não haverá mesa sem pernas. Não haverá nada tecnicamente evidente. A imagem vai simplesmente parecer uma fotografia.


Nesse cenário, o olho humano, mesmo treinado, perde eficácia como instrumento de detecção.


A saída que alguns concursos já começam a explorar, e que vai se tornar padrão, é a verificação por processo, não por aparência. Exigir RAW com metadados íntegros, sequência de frames anteriores e posteriores, dados de geolocalização compatíveis com a cena, declaração de edição com descrição das ferramentas usadas. Não basta a imagem parecer real. Será necessário documentar como ela foi feita.


Isso abre uma discussão legítima sobre categorias. Um concurso pode aceitar IA, desde que isso esteja declarado e que haja uma categoria específica para isso. Pode aceitar edição generativa com limites claros. Pode criar uma categoria híbrida onde o ponto de partida é uma fotografia real e a intervenção de IA é permitida até determinado grau, desde que transparente. O que não funciona é fingir que as regras antigas são suficientes para um ambiente visual fundamentalmente diferente.


Concursos 100% fotográficos têm esse direito. A fotografia documental tem esse direito. A questão é que esse direito precisará ser defendido com processo, não apenas declarado em regulamento.



O caso Tokina, coberto aqui no Frame IA há dois dias, envolvia uma marca de lentes retirando um vencedor após pressão também no Reddit. O caso Hasselblad tem a mesma estrutura, mas multiplicada por uma reputação de décadas e por uma escala global.


O padrão que está se repetindo é o mesmo: a comunidade online detecta, a marca reage, o regulamento é prometido como mais rigoroso daqui em diante.


O que ainda não apareceu, em nenhum desses casos, é um concurso fotográfico que tenha chegado à crise com um protocolo de verificação já funcionando. Todos estão respondendo ao problema depois que ele se tornou público. Nenhum estava à frente dele.

Até que algum esteja, tudo indica que a internet continuará sendo o sistema de identificação mais rápido de qualquer competição fotográfica do planeta.


Na Fotograf.IA + C.E.Foto, essas mudanças são acompanhadas com análise e contexto para fotógrafos que precisam entender o que está acontecendo no mercado, não apenas reagir quando o assunto já virou polêmica.



Comentários


CONTATO

São Paulo, SP

  • Canal de Notícias no Insta
  • Telegram
  • logo-whatsapp-fundo-transparente-icon
  • Youtube
  • Preto Ícone Instagram
  • Preto Ícone Spotify
  • Preto Ícone Facebook

© 2026 - Leo Saldanha. 

Vamos conversar? Obrigado pelo envio

bottom of page