Um dos principais aspectos é que os pesquisadores treinam modelos com um olho nos benchmarks / evals. A consistência de caracteres não tem sido um desses.
Sente-se também mais orientado para o fluxo de trabalho / funcionalidades, o que tende a ser uma área de fraqueza para a fundação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
18 gostos
Recompensa
18
5
Republicar
Partilhar
Comentar
0/400
CryptoTarotReader
· 23h atrás
Ver e não dizer
Ver originalResponder0
CryptoNomics
· 10-10 00:00
*sigh* a regressão das métricas de desempenho mostra um viés claro p<0.001 em direção à otimização de referência
Ver originalResponder0
NullWhisperer
· 10-09 23:59
hmm... caso típico de desenvolvimento orientado a eval. tecnicamente subótimo, para ser sincero
Ver originalResponder0
ForeverBuyingDips
· 10-09 23:51
Ai, é mais uma armadilha antiga para fazer standardização.
Ver originalResponder0
PriceOracleFairy
· 10-09 23:34
bruh estes modelos são como os meus algos de trading... a ajustar-se excessivamente às métricas erradas lmao
Sim, eu acho que há várias razões.
Um dos principais aspectos é que os pesquisadores treinam modelos com um olho nos benchmarks / evals. A consistência de caracteres não tem sido um desses.
Sente-se também mais orientado para o fluxo de trabalho / funcionalidades, o que tende a ser uma área de fraqueza para a fundação.