Claro, há muita dúvida no ar—desilusões passadas e falsos alarmes deixaram toda a gente de pé atrás. Mas aqui está a questão: até eu consigo identificar texto gerado por IA só de olhar para as particularidades estatísticas. Então porque é que um modelo treinado não haveria de superar esta tarefa? Logicamente, estes sistemas deviam estar a anos-luz dos humanos no reconhecimento de padrões. Foram feitos precisamente para este tipo de trabalho de deteção, processando sinais que mal conseguimos notar. Se uma pessoa consegue perceber, um algoritmo desenhado para análise estatística devia operar a um nível completamente diferente. O ceticismo faz sentido, tendo em conta o historial, mas a capacidade subjacente? Isso não está realmente em debate.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 8
  • Republicar
  • Partilhar
Comentar
0/400
DegenWhisperervip
· 12-06 19:25
Que piada, até uma pessoa consegue ver isso a olho nu, como é que o modelo ainda assim falha? Não faz sentido nenhum, logicamente.
Ver originalResponder0
Hash_Banditvip
· 12-06 07:56
Sinceramente, isto faz-me lembrar o início de 2017 quando toda a gente dizia "não há maneira dos ASICs minerarem mais do que rigs de GPU" lmaooo. A lógica faz sentido mas... o reconhecimento de padrões também não é infalível, meu amigo.
Ver originalResponder0
TideRecedervip
· 12-04 03:00
Eh pá, estão outra vez a exagerar as capacidades da IA... Gostava mesmo de ver se a detecção é de facto fiável ou não.
Ver originalResponder0
AmateurDAOWatchervip
· 12-04 02:58
Tens toda a razão, na minha opinião não é nada difícil perceber que uma IA consegue detetar texto gerado por outra IA. Se até os humanos conseguem notar aquelas estranhezas estatísticas, como é que os algoritmos iam falhar nisso?
Ver originalResponder0
fren.ethvip
· 12-04 02:57
Está bem, resumindo, esta questão de IA detetar IA, em teoria não deveria haver problema nenhum.
Ver originalResponder0
TokenomicsTrappervip
· 12-04 02:49
Sinceramente, isto é o típico excesso de confiança antes do golpe... disseram o mesmo sobre a deteção de bots em 2021 lol
Ver originalResponder0
MetaLord420vip
· 12-04 02:40
Está bem, faz sentido. Se as pessoas conseguem perceber as manhas estatísticas, porque é que o modelo não conseguiria? Não faz sentido do ponto de vista lógico.
Ver originalResponder0
SatoshiSherpavip
· 12-04 02:34
Nah, mas falando a sério, se os humanos conseguem reconhecer algo a olho nu, porque é que o modelo ainda falha? Esta lógica não faz muito sentido.
Ver originalResponder0
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)