Um dos principais aspectos é que os pesquisadores treinam modelos com um olho nos benchmarks / evals. A consistência de caracteres não tem sido um desses.
Sente-se também mais orientado para o fluxo de trabalho / funcionalidades, o que tende a ser uma área de fraqueza para a fundação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
18 Curtidas
Recompensa
18
5
Repostar
Compartilhar
Comentário
0/400
CryptoTarotReader
· 23h atrás
Ver e não dizer
Ver originalResponder0
CryptoNomics
· 10-10 00:00
*sigh* a regressão das métricas de desempenho mostra um viés claro p<0.001 em direção à otimização de referência
Ver originalResponder0
NullWhisperer
· 10-09 23:59
hmm... caso típico de desenvolvimento orientado a eval. tecnicamente subótimo, para ser sincero
Ver originalResponder0
ForeverBuyingDips
· 10-09 23:51
Ai, é mais uma armadilha antiga para fazer standardização.
Ver originalResponder0
PriceOracleFairy
· 10-09 23:34
bruh estes modelos são como os meus algos de trading... a ajustar-se excessivamente às métricas erradas lmao
Sim, eu acho que há várias razões.
Um dos principais aspectos é que os pesquisadores treinam modelos com um olho nos benchmarks / evals. A consistência de caracteres não tem sido um desses.
Sente-se também mais orientado para o fluxo de trabalho / funcionalidades, o que tende a ser uma área de fraqueza para a fundação.