top of page

Como a IA pode dar voz aos que não têm voz: o caso dos refugiados australianos

Um grupo de advogados, designers e refugiados usou a inteligência artificial para gerar imagens que mostram as condições e experiências de refugiados detidos pela Austrália em ilhas remotas




IA cria imagens do sofrimento de refugiados em centros de detenção australianos Um novo projeto usa inteligência artificial para gerar imagens a partir de depoimentos de refugiados que foram detidos pela Austrália em ilhas remotas.


O projeto, intitulado “Exhibit A-I”, é uma colaboração entre advogados, designers e refugiados australianos que queriam expor o custo humano da política de imigração da Austrália. Caso foi destaque na CNN.


As imagens são baseadas em depoimentos arquivados para um caso judicial que foi abandonado antes de chegar a julgamento. Os depoimentos descrevem as condições e experiências de refugiados que chegaram às águas australianas de barco e foram enviados para Nauru ou Manus Island.


As imagens foram geradas por um sistema de inteligência artificial que usou os depoimentos como texto de entrada e criou representações visuais dos relatos. Em seguida, um designer trabalhou com os refugiados para refinar os detalhes e garantir a fidelidade das imagens.


O resultado é uma coleção de imagens impactantes que mostram o sofrimento dos refugiados em situações de violência, abuso, discriminação e suicídio. As imagens estão disponíveis em um livro impresso e em um site, onde é possível ler os depoimentos originais e ver as fontes usadas pelo sistema de inteligência artificial.





O projeto tem como objetivo sensibilizar a sociedade para o impacto das políticas de imigração que punem os refugiados por buscarem segurança. Eles falam em um momento em que outros países consideram sua resposta ao número recorde de pessoas que fogem de suas casas devido a conflitos, perseguição e violência.


No entanto, o uso da IA para gerar imagens também traz alguns riscos e desafios. Um deles é a possibilidade de criar imagens falsas ou manipuladas, que podem ser usadas para enganar, difamar ou prejudicar pessoas ou organizações. Esse fenômeno é conhecido como deepfake e já tem sido usado para criar vídeos falsos de celebridades, políticos e outras figuras públicas.





Outro risco é o de introduzir vieses ou erros na interpretação das emoções e sentimentos dos refugiados. A IA pode não ser capaz de captar as nuances culturais, linguísticas ou pessoais que influenciam a forma como as pessoas expressam e leem as emoções. Além disso, a IA pode não ter a sensibilidade ou a ética necessárias para lidar com temas delicados e traumáticos.


Por isso, é importante que os criadores e usuários da IA sejam conscientes e responsáveis pelo uso dessa tecnologia. Eles devem garantir a veracidade, a transparência e a qualidade das fontes usadas para gerar as imagens, bem como respeitar os direitos e a dignidade dos refugiados retratados. A IA pode ser uma ferramenta poderosa para dar voz aos que não têm voz, mas também pode ser uma arma para silenciá-los ou distorcê-los.


Quer fazer parte da nova fase de valor da fotograf.IA? Então conheça >>> NFoTo: a comunidade que une fotograf.IA, blockchain e inovação


0 comentário
bottom of page