Nesta terça-feira, Meta e OpenAI anunciaram seus planos para identificar as imagens geradas por IA. São iniciativas importantes e que precisam ser valorizadas, mas que estão longe de resolver o problema.

A empresa de Zuckerberg pretende expandir essa funcionalidade para que suas plataformas também identifiquem imagens criadas por ferramentas de outras empresas.

A Meta vem trabalhando com diferentes fóruns, como Partnership on AI, e está adotando os padrões técnicos da C2PA e IPTC para rotular imagens que foram produzidas por IAs de outras empresas, como Google, OpenAI, Microsoft e outros.

Coincidência ou não, no mesmo dia do comunicado da Meta, a OpenAI anunciou que as imagens criadas por sua IA incluiriam os metadados com as especificações C2PA, para facilitar que as plataformas de redes sociais possam identificar quais conteúdos foram criados por seus produtos.

A OpenAI fala, inclusive, que tentar rotular imagens criadas por IA usando metadados não “Bala de prata”.

Enquanto as empresas ainda tentam construir um mecanismo automático de identificação e controle para a diversidade de conteúdos que será criado por IA, a Meta informou que vai remediar a situação adicionando uma nova funcionalidade para que os próprios usuários sinalizem quando compartilharem vídeos ou áudios gerados por IA. Essa será uma exigência das plataformas da Meta, e a empresa promete penalidades para quem descumpri-las.

Talvez, na prática, essa seja uma medida que não evitará a circulação de imagens sintéticas produzidas por pessoas mal-intencionadas, mas uma forma de tentar coibir o mau uso e, de certa forma, ajudar no processo de letramento digital.

Este artigo foi resumido em 54%

Originalmente Publicado: 8 de Fevereiro de 2024 às 09:59

Fonte: www.uol.com.br