Circulação de imagens falsas nas redes sociais não é novidade, mas, na era da IA, está cada vez mais difícil identificá-las. Isso tem feito muita gente até desconfiar de fotos reais. A viralização de fotos feitas com IA durante eventos importantes já é o novo normal e agora vemos isso com o conflito entre Israel e Irã. A IA é muito boa em gerar imagens falsas, mas e para verificar se foi uma IA que fez a imagem? Nem tanto.
As fotos em questão: ao mesmo tempo em que um veículo iraniano publicava a notícia de que o Irã havia derrubado um F-35 israelense, duas imagens começaram a se espalhar rapidamente nas redes sociais, embora logo soubéssemos que eram falsas. Uma delas, a do F-35 acidentado e cercado por curiosos, é especialmente chamativa. Para começar, as proporções não fazem sentido: o avião parece gigante quando, na verdade, mede 16 metros, e as pessoas são maiores que os prédios. E isso sem mencionar que os danos no avião são mínimos para uma aeronave abatida.
Essas imagens não foram as únicas geradas por IA a circular nos primeiros dias do conflito. Também apareceram vários vídeos como este de um míssil iraniano enorme que parece bastante real — até percebermos a marca d’água do Veo, que denuncia que foi feito por IA, ou este de uma Tel Aviv destruída.
A IA é péssima em checar fatos
Veículos especializados em fact-checking, como o Maldita, já desmentiram essas e outras imagens criadas por IA no contexto do conflito entre Irã e Israel. No entanto, alguns usuários tentaram usar ferramentas de IA para verificar a autenticidade das imagens e obtiveram respostas bastante confusas. Foi o que aconteceu no X com o Grok.
Uma análise de mais de 130 mil posts revelou que a IA de Musk não conseguia detectar algumas imagens falsas nem identificar suas fontes. As notas da comunidade escritas pelos próprios usuários eram muito mais confiáveis.
Testamos isso. Para verificar as capacidades da IA, usamos a imagem do F-35 desproporcional e perguntamos a várias ferramentas de IA. Veja as respostas que recebemos:
- ChatGPT: a ferramenta da OpenAI começa dizendo “essa imagem não parece real” e depois faz uma análise das proporções do avião, que identifica corretamente como um F-35, afirmando que os danos não parecem coerentes.
- Perplexity: assim como o ChatGPT, aponta que as proporções, a perspectiva, os danos do avião e outros detalhes sugerem que a foto foi manipulada digitalmente.
- Gemini: afirma que a imagem é real, mas que não é de um ataque em combate, e sim de uma colisão com aves que aconteceu em Israel em 2017. Quando pedimos as fontes, ele nos passou vários links com a notícia, mas em nenhum deles aparece a imagem. Após um tempo enviando informações confusas, reconheceu o erro e pediu desculpas pelo “grave erro”.
- Claude: foi a única que afirmou com convicção que a imagem não é real e deu o contexto exato do que aconteceu: “Esta é uma das muitas imagens falsas que circularam como parte de campanhas de desinformação durante o conflito entre Israel e Irã”.
No nosso teste, o Gemini inventou completamente a resposta, enquanto o ChatGPT e o Perplexity acertaram, embora sem se comprometerem. O Claude foi o único que nos deu todas as informações e acertou em cheio. Apesar dos modelos de linguagem terem melhorado muito em pouco tempo, ainda continuam criando muitas respostas falsas, mesmo tendo acesso à internet e podendo fazer buscas. Sem dúvida, a confiabilidade é a principal questão pendente da IA generativa e onde há mais espaço para melhorias.
Imagens | 404 Media
Este texto foi traduzido/adaptado do site Xataka Espanha.