top of page

A imagem falsa do bebê: como a IA acirra a desinformação na guerra entre Israel e Hamas

A guerra da desinformação: como uma imagem falsa de um bebê sob os escombros se tornou viral e enganou milhares de pessoas nas redes sociais

Você já viu essa imagem chocante de um bebê preso sob os escombros, supostamente vítima da guerra entre Israel e Hamas? Se você pensou que era real, você não está sozinho. Milhares de pessoas compartilharam essa foto nas redes sociais, comovidas pela tragédia. Mas a verdade é que esse bebê nunca existiu. Ele foi criado por um programa de inteligência artificial (IA) que pode gerar rostos humanos realistas.

Essa é apenas uma das muitas imagens falsas ou enganosas que circulam online sobre o conflito no Oriente Médio, que começou em 7 de outubro. Algumas são fotos ou vídeos antigos, tirados de contexto. Outras são manipuladas digitalmente para alterar o significado original. E outras são simplesmente inventadas pela IA, sem nenhuma relação com a realidade.



Mas como podemos distinguir o que é verdadeiro do que é falso? E quais são as consequências dessa avalanche de desinformação para as vítimas da guerra e para a opinião pública mundial? Neste artigo, vamos analisar o caso do bebê gerado por IA e mostrar como ele se espalhou e enganou muita gente, inclusive jornalistas profissionais.

O bebê sob os escombros gerado por IA

A imagem do bebê sob os escombros apareceu pela primeira vez nas redes sociais em fevereiro de 2023, após terremotos atingirem a Turquia e a Síria. Na época, alguns usuários já suspeitaram que se tratava de uma imagem falsa, mas outros acreditaram que era real e expressaram sua solidariedade.

Em outubro, a imagem ressurgiu no contexto da guerra entre Israel e Hamas, sendo usada por ativistas pró-Palestina para denunciar os ataques israelenses à Faixa de Gaza. A imagem foi compartilhada por milhares de pessoas no Twitter, Facebook e Instagram, incluindo um jornalista baseado em Gaza, que escreveu: “Um bebê palestino foi encontrado vivo sob os escombros após um ataque aéreo israelense em Gaza”.

Mas como saber se uma imagem é gerada por IA? Existem alguns sinais que podem nos ajudar a identificar essas imagens falsas. Por exemplo:

  • A expressão facial exagerada: o bebê parece estar chorando muito, com o queixo e a testa franzidos. Isso pode ser um indício de que a IA tentou imitar uma emoção humana, mas não conseguiu captar as nuances.

  • Os dedos extras: ao olhar de perto, podemos ver que o bebê tem seis dedos em cada mão. Isso pode ser um erro da IA, que tem dificuldade em reproduzir certas partes do corpo humano, como mãos e pés.

  • A falta de contexto: a imagem não mostra onde o bebê está, nem quem o encontrou. Isso pode ser uma forma de evitar que a imagem seja rastreada ou verificada por outras fontes.

O impacto da desinformação

A imagem do bebê gerado por IA não foi a única a causar confusão e indignação nas redes sociais. Outras imagens falsas ou enganosas sobre a guerra entre Israel e Hamas também circularam online, como:

  • Uma foto de um prédio em chamas em Tel Aviv, que na verdade era de um incêndio em Dubai em 2015.

  • Um vídeo de uma explosão em Gaza, que na verdade era de uma explosão em Beirute em 2020.

  • Uma foto de uma criança ferida em Gaza, que na verdade era de uma criança ferida na Síria em 2018.

Essas imagens podem ter sido compartilhadas por pessoas bem-intencionadas, que queriam mostrar sua solidariedade ou indignação com as vítimas da guerra. Mas elas também podem ter sido compartilhadas por pessoas mal-intencionadas, que queriam manipular a opinião pública ou incitar o ódio contra um dos lados do conflito.

De qualquer forma, essas imagens têm um impacto negativo na credibilidade das informações sobre a guerra e na confiança nas fontes jornalísticas. Elas também podem gerar mais violência e intolerância, ao alimentar sentimentos de raiva, medo ou vingança. Por isso, é importante verificar as imagens que vemos nas redes sociais, antes de compartilhá-las ou acreditar nelas. Existem algumas ferramentas e dicas que podem nos ajudar nessa tarefa, como:

  • Usar sites de verificação de fatos, como o [Aos Fatos] ou o [E-Farsas], que analisam as imagens e os vídeos mais compartilhados online e verificam sua autenticidade e contexto.

  • Usar ferramentas de busca reversa de imagens, como o [Google Imagens] ou o [TinEye], que permitem encontrar a origem e a data de uma imagem, comparando-a com outras imagens na internet.

  • Usar ferramentas de detecção de imagens geradas por IA, como o [WhichFaceIsReal] ou o [FakeFace], que mostram as diferenças entre um rosto humano real e um rosto gerado por IA.

  • Usar o senso crítico, questionando a fonte, a data, o contexto e a intenção da imagem, e buscando outras evidências que possam confirmar ou desmentir sua veracidade.

A inteligência artificial é uma tecnologia incrível, que pode nos oferecer muitas possibilidades criativas e inovadoras. Mas ela também pode ser usada para criar desinformação e confusão. Por isso, precisamos estar atentos e informados, para não cair em armadilhas e para não contribuir para a propagação de imagens falsas ou enganosas. Afinal, a guerra entre Israel e Hamas já é trágica o suficiente, sem precisarmos inventar mais vítimas.





Importante destacar que esse não é um caso isolado. Recentemente outras fotos viralizaram e também eram acusadas de serem geradas por IA, mas na verdade eram apenas imagens mal dimensionadas reaproveitadas nas fake news. Tratam-se de fotos supostamente mostrando líderes do Hamas desfrutando de "vidas luxuosas" que viralizaram na sexta-feira, mas muitos internautas notaram algo estranho nas imagens. As fotos pareciam falsas, com todas as características de serem criadas com software de inteligência artificial. Mas parecem ser imagens reais, independentemente do contexto das pessoas retratadas. As imagens foram apenas executadas através de um "upscaler" de imagem sob a crença equivocada de que isso lhes daria uma resolução maior. O resultado? As fotos dão a falsa aparência de que foram feitas com IA. Vale destacar contudo, que muitas das ferramentas de upscale fazem uso de IA para aumentarem as imagens.




Em tempo: uma pesquisa recente no Canadá mostrou que metade das pessoas daquele país não consegue dizer se uma foto foi criada com IA ou se é real. Algo que acredito não ser muito diferente em outros países, inclusive aqui no Brasil. O fato é que o uso da IA vai gerar mais desafios quanto a desinformação. O que só reforça a importância do fotojornalismo e da fotografia real. Recentemente a Reuters atualizou seu manual de conduta para que os profissionais entendam a IA para saberem lidar com o avanço dessa tendência.


A propósito, o Guia Fotograf.IA tem todo um conteúdo para ensinar os primeiros passos com IA na fotografia também com um olhar importante sobre ética no uso das ferramentas de IA na fotografia. Saiba mais >>> Fotograf.IA



0 comentário

Comentários


bottom of page