A Meta foi instada a reforçar a supervisão de vídeos falsos com IA

Meta é instada a reforçar a supervisão de vídeos falsos com IA

há 1 dia

CompartilharSalvar

Kali HaysRepórter de Tecnologia

CompartilharSalvar

Reuters

Os conselheiros da própria Meta afirmaram que a empresa deve fazer mais para combater a “proliferação” de conteúdos falsos criados com ferramentas de inteligência artificial (IA) nas suas plataformas.

O Conselho de Supervisão, composto por 21 membros, levantou essas preocupações ao repreender a empresa por manter um vídeo gerado por IA que alegava mostrar danos extensos em Haifa, Israel, causados por forças iranianas, sem uma etiqueta de aviso.

Ele pediu que a empresa reformulasse suas regras de IA, alertando que um aumento de vídeos falsos relacionados a conflitos militares globais tinha “desafiado a capacidade do público de distinguir ficção de realidade… colocando em risco uma desconfiança geral em todas as informações.”

A Meta afirmou que etiquetaria o vídeo em questão dentro de sete dias.

A Meta criou o Conselho de Supervisão em 2020 como um grupo semiindependente que supervisiona as decisões de moderação de conteúdo em suas plataformas, incluindo Facebook, Instagram e WhatsApp.

Frequentemente discorda das decisões da Meta, mas a empresa tem continuado a flexibilizar sua abordagem na fiscalização de conteúdo, levantando dúvidas sobre o quanto de poder o conselho realmente possui.

O conselho afirmou que a gestão da Meta em relação ao vídeo de Haifa levantou questões que já haviam sido sinalizadas anteriormente sobre “ineficiências na abordagem atual da Meta durante conflitos armados”.

Atualmente, a Meta depende principalmente dos usuários para “auto-denunciar” quando o conteúdo que postam é produzido por uma ferramenta de IA. Caso contrário, ela aguarda que alguém reclame à sua equipe de moderação de conteúdo, que pode decidir colocar uma etiqueta em algo.

O conselho afirmou que a empresa deveria rotineiramente etiquetar conteúdos falsos gerados por IA de forma “muito mais frequente”.

Disse que os métodos atuais da empresa eram “nem robustos nem abrangentes o suficiente para lidar com a escala e a velocidade do conteúdo gerado por IA, especialmente durante uma crise ou conflito, onde há maior engajamento na plataforma”.

A análise do conselho sobre o assunto foi motivada por um vídeo publicado em junho passado por uma conta do Facebook baseada nas Filipinas, que se descrevia como uma fonte de notícias.

Foi uma das várias vídeos falsos de IA postados nas redes sociais após o início do conflito, com conteúdos pró-Israel e pró-Irã, que rapidamente acumularam pelo menos 100 milhões de visualizações, de acordo com uma análise da BBC na época.

Apesar de o vídeo do Facebook ter sido gerado por IA e mostrar conteúdo que não era real, e de a Meta ter recebido várias reclamações de usuários, a empresa não etiquetou o vídeo como gerado por IA nem o removeu.

Somente após um usuário do Facebook recorrer diretamente ao Conselho de Supervisão e este assumir a questão, a Meta respondeu às preocupações, segundo o conselho.

A empresa então afirmou que o vídeo, que teve quase 1 milhão de visualizações, não precisava de qualquer etiqueta e não deveria ser removido porque não “contribuía diretamente para o risco de dano físico iminente”.

Para o conselho, essa é uma barreira demasiado alta para etiquetar conteúdos gerados por IA, especialmente quando o tema é conflito armado, e decidiu que o vídeo deveria ter recebido uma “etiqueta de alto risco de IA”.

“Meta deve fazer mais para combater a proliferação de conteúdos enganosos gerados por IA em suas plataformas… para que os usuários possam distinguir o que é real do que é falso”, afirmou.

Em sua declaração, a Meta disse que seguiria as sugestões do conselho na próxima vez que encontrasse conteúdo “idêntico” que estivesse “no mesmo contexto” do vídeo analisado.

Autoridades entram em contato com a Meta sobre trabalhadores assistindo a vídeos íntimos de óculos de IA

Fazendas de conteúdo estrangeiras criam deepfakes políticos descobertos

Zuckerberg defende a Meta em julgamento histórico sobre vício em redes sociais

Redes sociais

Israel

Inteligência artificial

Propaganda

Meta

Mark Zuckerberg

Facebook

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar