top of page

A inteligência artificial DALL-E agora permite editar rostos humanos

Antes a ferramenta não tinha esse recurso por justamente pelas questões de uso indevido com imagens falsas





A OpenAI está permitindo que os usuários de seu programa gerador de arte de inteligência artificial DALL-E editem imagens de rostos humanos. A novidade chega gerando repercussão quanto ao medo de que as imagens falsas e deep fakes cresçam ainda mais. OPENAI, criadora da plataforma, disse em comunicado oficial que abriu o acesso ao recurso depois de ajustar os filtros para remover imagens com conteúdo sexual, político e violento.




Segundo o site The Verge: o recurso permitirá que os usuários editem imagens de várias maneiras diferentes. Eles podem carregar uma foto de alguém e gerar variações da imagem, por exemplo, ou podem editar recursos específicos, como mudar a roupa ou o penteado de alguém. O recurso, sem dúvida, será útil para muitos usuários em indústrias criativas, de fotógrafos a cineastas.


A decisão faz parte de uma negociação em andamento pelos fabricantes de geradores de arte de IA com seus próprios usuários enquanto tentam navegar pelos potenciais danos da tecnologia. Como uma empresa bem financiada conectada com gigantes da tecnologia como a Microsoft, a OpenAI adotou uma abordagem relativamente cautelosa. Mas a empresa foi flanqueada por rivais como a Stable Diffusion, que coloca menos restrições aos usuários. Isso leva ao desenvolvimento mais rápido da tecnologia, mas também torna as aplicações maliciosas muito mais fáceis. Stable Difusion, por exemplo, já está sendo usado para gerar deepfakes pornográficos de celebridades.


Esse material explícito deve ser fácil para o OpenAI bloquear com o DALL-E. Os termos de uso da empresa também proíbem os usuários de enviar imagens de pessoas sem o seu consentimento (embora isso seja essencialmente impossível de aplicar proativamente com seu modelo de acesso atual). No entanto, nenhum filtro de conteúdo é perfeito, e pode haver casos de uso prejudiciais que são mais sutis do que pornografia não consensual.

"Com melhorias em nosso sistema de segurança, DALL· E agora está pronto para apoiar esses casos de uso deliciosos e importantes — ao mesmo tempo em que minimiza o potencial de dano causado pelos deepfakes", disse a OpenAI em email aos clientes anunciando a notícia.






0 comentário
bottom of page