Muitos projetos inicialmente não apresentam respostas evidentes nos primeiros meses, e os problemas reais muitas vezes só se tornam aparentes após 6 a 12 meses.
A razão é bastante direta. Dados de comportamento do usuário, registros de estado, logs, tudo isso parece crescer apenas algumas dezenas de KB por dia, mas ao longo de um ano acumula-se na faixa de 10 a 30 GB. O armazenamento descentralizado tradicional começa a mostrar suas limitações nesta fase — cada atualização precisa ser regravada, versões históricas se acumulam continuamente, e as relações de referência ficam cada vez mais confusas.
Que tal uma abordagem diferente? Considerar a "acumulação de longo prazo" como uma condição fundamental desde o início. A identidade e as referências dos objetos permanecem fixas, mas o estado pode evoluir continuamente, ao invés de gerar um novo conjunto de objetos a cada ano. Quais são os benefícios de um design assim?
De acordo com dados públicos, a performance de protocolos como o Walrus nesse aspecto: um único objeto suporta uma escala de dados de MBs, o mesmo objeto pode passar por múltiplas atualizações de estado sem alterar suas referências, e os dados são redundantes entre múltiplos nós, mantendo uma disponibilidade superior a 99%.
Faça uma avaliação realista: quando a escala de dados entra na fase de "crescimento impulsionado pelo tempo", o valor dessa arquitetura pode ser mais importante do que simplesmente buscar custos baixos. Mas a condição prévia é que a escala dos nós da rede possa ser expandida de forma compatível, caso contrário, o acúmulo de dados históricos pode se tornar uma fonte de pressão para o sistema.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
7
Republicar
Partilhar
Comentar
0/400
SignatureVerifier
· 8h atrás
ngl a afirmação de 99% de uptime precisa de uma validação séria... tipo, dados de monitoramento insuficientes para confirmar essa estatística, na minha opinião
Ver originalResponder0
zkNoob
· 13h atrás
Haha, esta é a verdade sobre puxar o piso, parecia sem problemas no início, mas depois explodiu
Ver originalResponder0
MEVHunterNoLoss
· 01-07 19:57
Este volume de dados de 10-30GB por ano é realmente impressionante; a maioria dos projetos nem sequer pensou nisso.
Ver originalResponder0
NullWhisperer
· 01-07 19:53
sim, o atraso de 6-12 meses é na verdade o indicador... a maioria das equipas simplesmente não faz testes de resistência em grande escala até ser demasiado tarde, para ser honesto
Ver originalResponder0
YieldWhisperer
· 01-07 19:50
Hã, mais uma vez aquele esquema de "bug só aparece após meio ano"
Ver originalResponder0
DaoTherapy
· 01-07 19:47
Tem alguma piada, finalmente alguém tocou no ponto sensível. Em 6 meses não se consegue perceber nada, e após um ano cai direto no esquecimento, esse truque já vi muitas vezes.
Ver originalResponder0
ApeWithAPlan
· 01-07 19:45
Finalmente alguém tocou no ponto, a maioria dos projetos morre aqui
Muitos projetos inicialmente não apresentam respostas evidentes nos primeiros meses, e os problemas reais muitas vezes só se tornam aparentes após 6 a 12 meses.
A razão é bastante direta. Dados de comportamento do usuário, registros de estado, logs, tudo isso parece crescer apenas algumas dezenas de KB por dia, mas ao longo de um ano acumula-se na faixa de 10 a 30 GB. O armazenamento descentralizado tradicional começa a mostrar suas limitações nesta fase — cada atualização precisa ser regravada, versões históricas se acumulam continuamente, e as relações de referência ficam cada vez mais confusas.
Que tal uma abordagem diferente? Considerar a "acumulação de longo prazo" como uma condição fundamental desde o início. A identidade e as referências dos objetos permanecem fixas, mas o estado pode evoluir continuamente, ao invés de gerar um novo conjunto de objetos a cada ano. Quais são os benefícios de um design assim?
De acordo com dados públicos, a performance de protocolos como o Walrus nesse aspecto: um único objeto suporta uma escala de dados de MBs, o mesmo objeto pode passar por múltiplas atualizações de estado sem alterar suas referências, e os dados são redundantes entre múltiplos nós, mantendo uma disponibilidade superior a 99%.
Faça uma avaliação realista: quando a escala de dados entra na fase de "crescimento impulsionado pelo tempo", o valor dessa arquitetura pode ser mais importante do que simplesmente buscar custos baixos. Mas a condição prévia é que a escala dos nós da rede possa ser expandida de forma compatível, caso contrário, o acúmulo de dados históricos pode se tornar uma fonte de pressão para o sistema.