A empresa testa uma ferramenta que adiciona uma identificação digital nas imagens geradas por algoritmos
A marca d’água pode ajudar a evitar a disseminação de fake news e desinformação envolvendo conteúdo de IA

A inteligência artificial (IA) é capaz de gerar imagens impressionantes a partir de texto ou outras imagens, mas também pode ser usada para criar conteúdo falso ou enganoso. Para combater esse problema, o Google está desenvolvendo uma ferramenta que adiciona uma marca d’água invisível nas imagens feitas por IA.
A ferramenta se chama SynthID e faz parte do Google Cloud, a divisão de nuvem da empresa. Ela funciona alterando alguns pixels nas imagens de forma imperceptível para o olho humano, mas detectável por computadores. Assim, é possível saber se uma imagem foi gerada por um algoritmo ou não, e se ela foi modificada posteriormente.
A SynthID está sendo testada com um número limitado de clientes que usam o Imagen, um modelo de IA do Google que cria imagens fotorrealistas a partir de texto. A empresa anunciou a ferramenta em seu blog oficial na terça-feira, 29.
O objetivo da SynthID é dar mais transparência e confiança ao conteúdo gerado por IA, que pode ter um grande potencial criativo, mas também apresenta novos riscos, como a propagação de fake news e desinformação.
“Ser capaz de identificar conteúdo gerado por IA é fundamental para capacitar as pessoas com conhecimento de quando estão interagindo com a mídia gerada e para ajudar a prevenir a propagação de desinformação”, afirmou o Google em seu blog.

A ferramenta do Google se junta a outras iniciativas que buscam combater os abusos da IA generativa, como o MidJourney e o DALL-E, dois aplicativos populares que permitem criar imagens a partir de texto. Em julho, um grupo de empresas de tecnologia, incluindo o Google, se comprometeu com a Casa Branca a identificar e mitigar os riscos da IA. Identifying AI-generated images with SynthID (deepmind.com)
Veja também >>> Fotograf.IA: + novidades para você dar os primeiros passos com inteligência artificial na Fotografia (enfbyleosaldanha.com)
Comments