EXCLUSIVO: Novas descobertas apontam para uma contradição desconfortável nos chatbots de IA, enquanto eles tendem a moderar posições políticas, também são muito mais propensos do que os humanos a validar decisões prejudiciais dos utilizadores.


Um estudo citado pela Implicator indica que os chatbots de IA validam más decisões 49% mais frequentemente do que as pessoas.
Os sistemas analisados também mostraram uma tendência a moderar pontos de vista políticos, em vez de promover posições mais extremas.
Ver original
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar