quinta-feira, novembro 21

Um vídeo enganoso de sete segundos do presidente Biden poderia remodelar as políticas de desinformação do Facebook antes das eleições de 2024, mas a plataforma – e o eleitorado americano – estão a ficar sem tempo.

O Conselho de Supervisão, o grupo consultivo externo que Meta criou para revisar suas decisões de moderação no Facebook e Instagram, emitiu uma decisão na segunda-feira sobre um vídeo adulterado de Biden que circulou nas redes sociais no ano passado.

O vídeo original mostrava o presidente acompanhando sua neta Natalie Biden para votar durante a votação antecipada nas eleições de meio de mandato de 2022. No vídeo, o presidente Biden cola um adesivo “Eu votei” em sua neta e a beija na bochecha.

Uma versão curta e editada do vídeo remove as evidências visuais do adesivo, configurando o clipe para uma música com letras sexuais e fazendo um loop para retratar Biden tocando a jovem de maneira inadequada. O clipe de sete segundos foi carregado no Facebook em maio de 2023 com uma legenda descrevendo Biden como um “pedófilo doente”.

O Conselho de Supervisão da Meta anunciou que assumiria o caso em outubro passado, depois que um usuário do Facebook denunciou o vídeo e, finalmente, intensificou o caso quando a plataforma se recusou a removê-lo.

Em sua decisão, emitida na segunda-feira, o Conselho de Supervisão afirma que a escolha da Meta de deixar o vídeo online foi consistente com as regras da plataforma, mas chama a política relevante de “incoerente”.

“Tal como está, a política faz pouco sentido”, disse o copresidente do Conselho de Supervisão, Michael McConnell. “Proíbe vídeos alterados que mostram pessoas dizendo coisas que não dizem, mas não proíbe postagens que retratam um indivíduo fazendo algo que não fez. Isso se aplica apenas a vídeos criados por meio de IA, mas deixa outros conteúdos falsos fora de perigo.”

McConnell também apontou o fracasso da política em abordar o áudio manipulado, chamando-o de “uma das formas mais potentes de desinformação eleitoral”.

A decisão do Conselho de Supervisão argumenta que, em vez de se concentrarem na forma como um determinado conteúdo foi criado, as regras do Meta deveriam ser guiadas pelos danos que foram concebidas para prevenir. Quaisquer mudanças devem ser implementadas “urgentemente” à luz das eleições globais, de acordo com a decisão.

Além de expandir sua política de mídia manipulada, o Conselho de Supervisão sugeriu que o Meta adicionasse rótulos aos vídeos alterados, sinalizando-os como tal, em vez de depender de verificadores de fatos, um processo que o grupo critica como “assimétrico dependendo do idioma e do mercado”.

Ao rotular mais conteúdo em vez de retirá-lo, o Conselho de Supervisão acredita que o Meta pode maximizar a liberdade de expressão, mitigar danos potenciais e fornecer mais informações aos usuários.

Em comunicado ao TechCrunch, um porta-voz da Meta confirmou que a empresa está “revisando as orientações do Conselho de Supervisão” e emitirá uma resposta pública dentro de 60 dias.

O vídeo alterado continua circulando no X, antigo Twitter. No mês passado, uma conta X verificada com 267.000 seguidores compartilhou o clipe com a legenda “A mídia apenas finge que isso não está acontecendo”. O vídeo tem mais de 611 mil visualizações.

O vídeo de Biden não é a primeira vez que o Conselho de Supervisão finalmente diz à Meta para voltar à prancheta para suas políticas. Quando o grupo opinou sobre a decisão do Facebook de banir o ex-presidente Trump, lamentou a natureza “vaga e sem padrões” da punição indefinida, ao mesmo tempo que concordou com a escolha de suspender a sua conta. O Conselho de Supervisão geralmente instou a Meta a fornecer mais detalhes e transparência em suas políticas, em todos os casos.

Como observou o Conselho de Supervisão ao aceitar o caso de “falsificação barata” de Biden, a Meta manteve sua decisão de deixar o vídeo alterado online porque sua política sobre mídia manipulada – fotos e vídeos alterados de forma enganosa – só se aplica quando a IA é usada ou quando o assunto de um vídeo é retratado dizendo algo que não disse.

A política de mídia manipulada, projetada tendo em mente os deepfakes, aplica-se apenas a “vídeos que foram editados ou sintetizados… de maneiras que não são aparentes para uma pessoa comum e que provavelmente induziriam uma pessoa comum a acreditar”.

Os críticos do processo de moderação de conteúdo do Meta consideraram o conselho de revisão autoprojetado do Meta muito pequeno e tarde demais.

Meta pode ter um sistema padronizado de revisão de moderação de conteúdo em vigor agora, mas a desinformação e outros conteúdos perigosos se movem mais rapidamente do que o processo de apelação – e muito mais rapidamente do que o mundo poderia ter imaginado há apenas dois ciclos de eleições gerais.

Pesquisadores e grupos de vigilância estão se preparando para um ataque violento de alegações enganosas e falsificações geradas por IA à medida que a corrida presidencial de 2024 aumenta. Mas mesmo quando as novas tecnologias permitem a expansão de falsidades perigosas, as empresas de redes sociais reduziram silenciosamente os seus investimentos em confiança e segurança e afastaram-se do que antes parecia ser um esforço concertado para erradicar a desinformação.

“O volume de conteúdo enganoso está aumentando e a qualidade das ferramentas para criá-lo está aumentando rapidamente”, disse McConnell.

Compartilhe:

Comentários estão fechados.