Google, Meta e OpenAI anunciaram nos últimos dias diversas medidas para facilitar a identificação de imagens ou arquivos que foram produzidos ou retocados com inteligência artificial (IA).
Estas iniciativas enquadram-se no receio de que a disseminação indiscriminada de mensagens falsas condicione os resultados das eleições ou tenha outras consequências inesperadas. As três empresas já haviam anunciado que tentarão impedir o uso de IA nos processos eleitorais de 2024.
Depois de anos investindo bilhões de euros na melhoria da capacidade de inteligência artificial generativa, as três plataformas aderiram à Coalition for Content Provenance and Authenticity ( C2PA ), que propõe um certificado padrão e reúne boa parte da indústria digital, mídia meios de comunicação como a BBC ou o The New York Times, bancos e fabricantes de câmeras.
Sem solução única
As empresas admitem nas suas declarações que atualmente não existe uma solução única, nem eficaz em todos os casos, para a identificação de conteúdo gerados com IA.
As iniciativas variam entre marcas visíveis nas próprias imagens e mensagens escondidas nos metadados do arquivo ou em pixels gerados artificialmente. Com sua ferramenta ainda em fase beta, o SynthID, o Google também afirma ter encontrado uma forma de identificar áudio.
O padrão C2PA para inserir informações em metadados de imagens possui inúmeras deficiências técnicas, identificadas detalhadamente pelos desenvolvedores.
A própria OpenAI, que utilizará C2PA no Dall-3 (seu gerador de imagens), alerta em seu comunicado que não devemos estar excessivamente confiantes em suas possibilidades: “Metadados como C2PA não são uma solução milagrosa para resolver questões de proveniência. Ele pode ser facilmente excluído acidentalmente ou intencionalmente. Uma imagem que não possui esses metadados pode ou não ter sido gerada com ChatGPT ou nossa API”, afirmou a empresa criadora do chatbot que popularizou a inteligência artificial generativa.
Sem prazo
As empresas não dão prazos claros para a plena introdução das suas medidas. Este 2024 é um ano repleto de acontecimentos eleitorais em países importantes e a influência do conteúdo gerado pela IA pode ser explosiva.
A necessidade de se proteger preventivamente é vital. “Estamos desenvolvendo esse recurso e nos próximos meses começaremos a aplicar rótulos em todos os idiomas suportados por cada aplicação”, afirma Nick Clegg, presidente de relações públicas da Meta, em seu comunicado.
Marcar imagens
A Meta promete não apenas marcar visualmente as imagens geradas por suas ferramentas de IA, mas também detectar e identificar aquelas postadas em suas redes: Instagram, Facebook e Threads, sempre que possível. “Podemos marcar imagens do Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock à medida que eles implementam seus planos para adicionar metadados às imagens criadas por suas ferramentas”, diz Clegg.
O Google aplicará seus métodos ao YouTube. Embora essas abordagens afirmem representar o estado da arte do que é tecnicamente possível no momento, a empresa acredita que seu método construído pelo SynthID pode sobreviver a modificações voluntárias para ocultá-lo, como “adicionar filtros, alterar cores e salvar com várias compactações com perdas”. esquemas, que são os mais usados para arquivos JPEG.”
Com informação do El País
|