Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
A Meta foi instada a reforçar a supervisão de vídeos falsos com IA
Meta é instada a reforçar a supervisão de vídeos falsos com IA
há 1 dia
CompartilharSalvar
Kali HaysRepórter de Tecnologia
CompartilharSalvar
Os conselheiros da própria Meta afirmaram que a empresa deve fazer mais para combater a “proliferação” de conteúdos falsos criados com ferramentas de inteligência artificial (IA) nas suas plataformas.
O Conselho de Supervisão, composto por 21 membros, levantou essas preocupações ao repreender a empresa por manter um vídeo gerado por IA que alegava mostrar danos extensos em Haifa, Israel, causados por forças iranianas, sem uma etiqueta de aviso.
Ele pediu que a empresa reformulasse suas regras de IA, alertando que um aumento de vídeos falsos relacionados a conflitos militares globais tinha “desafiado a capacidade do público de distinguir ficção de realidade… colocando em risco uma desconfiança geral em todas as informações.”
A Meta afirmou que etiquetaria o vídeo em questão dentro de sete dias.
A Meta criou o Conselho de Supervisão em 2020 como um grupo semiindependente que supervisiona as decisões de moderação de conteúdo em suas plataformas, incluindo Facebook, Instagram e WhatsApp.
Frequentemente discorda das decisões da Meta, mas a empresa tem continuado a flexibilizar sua abordagem na fiscalização de conteúdo, levantando dúvidas sobre o quanto de poder o conselho realmente possui.
O conselho afirmou que a gestão da Meta em relação ao vídeo de Haifa levantou questões que já haviam sido sinalizadas anteriormente sobre “ineficiências na abordagem atual da Meta durante conflitos armados”.
Atualmente, a Meta depende principalmente dos usuários para “auto-denunciar” quando o conteúdo que postam é produzido por uma ferramenta de IA. Caso contrário, ela aguarda que alguém reclame à sua equipe de moderação de conteúdo, que pode decidir colocar uma etiqueta em algo.
O conselho afirmou que a empresa deveria rotineiramente etiquetar conteúdos falsos gerados por IA de forma “muito mais frequente”.
Disse que os métodos atuais da empresa eram “nem robustos nem abrangentes o suficiente para lidar com a escala e a velocidade do conteúdo gerado por IA, especialmente durante uma crise ou conflito, onde há maior engajamento na plataforma”.
A análise do conselho sobre o assunto foi motivada por um vídeo publicado em junho passado por uma conta do Facebook baseada nas Filipinas, que se descrevia como uma fonte de notícias.
Foi uma das várias vídeos falsos de IA postados nas redes sociais após o início do conflito, com conteúdos pró-Israel e pró-Irã, que rapidamente acumularam pelo menos 100 milhões de visualizações, de acordo com uma análise da BBC na época.
Apesar de o vídeo do Facebook ter sido gerado por IA e mostrar conteúdo que não era real, e de a Meta ter recebido várias reclamações de usuários, a empresa não etiquetou o vídeo como gerado por IA nem o removeu.
Somente após um usuário do Facebook recorrer diretamente ao Conselho de Supervisão e este assumir a questão, a Meta respondeu às preocupações, segundo o conselho.
A empresa então afirmou que o vídeo, que teve quase 1 milhão de visualizações, não precisava de qualquer etiqueta e não deveria ser removido porque não “contribuía diretamente para o risco de dano físico iminente”.
Para o conselho, essa é uma barreira demasiado alta para etiquetar conteúdos gerados por IA, especialmente quando o tema é conflito armado, e decidiu que o vídeo deveria ter recebido uma “etiqueta de alto risco de IA”.
“Meta deve fazer mais para combater a proliferação de conteúdos enganosos gerados por IA em suas plataformas… para que os usuários possam distinguir o que é real do que é falso”, afirmou.
Em sua declaração, a Meta disse que seguiria as sugestões do conselho na próxima vez que encontrasse conteúdo “idêntico” que estivesse “no mesmo contexto” do vídeo analisado.
Autoridades entram em contato com a Meta sobre trabalhadores assistindo a vídeos íntimos de óculos de IA
Fazendas de conteúdo estrangeiras criam deepfakes políticos descobertos
Zuckerberg defende a Meta em julgamento histórico sobre vício em redes sociais
Redes sociais
Israel
Inteligência artificial
Propaganda
Meta
Mark Zuckerberg
Facebook