A explosão da IA generativa trouxe uma questão inevitável — como armazenar, quanto armazenar, como gerenciar?
Resumidamente, há três requisitos: barato, seguro, fácil de usar. Os conjuntos de dados de treinamento acumulam-se como montanhas, o conteúdo gerado precisa ser arquivado, e as permissões de dados devem ser gerenciadas com detalhes. Essas deveriam ser tarefas simples, mas agora tornaram-se os principais obstáculos para a implementação em larga escala de aplicações de IA.
É importante destacar que a Walrus Protocol já possui uma presença clara nesse setor. Oferecer infraestrutura de armazenamento para projetos de IA é uma abordagem bastante interessante.
Tomando como exemplo a plataforma de IA generativa Everlyn, esse caso é bastante representativo. A Everlyn utiliza a Walrus como camada de dados, armazenando mais de 50GB de conjuntos de dados de treinamento, pontos de verificação de modelos, cache KV e outros dados essenciais. Todo o conteúdo de vídeo de alta qualidade gerado também fica na Walrus. Por que essa escolha?
A razão principal é bastante convincente — os custos de armazenamento de serviços em nuvem como AWS e Azure aumentam continuamente à medida que a demanda por geração de vídeos cresce. A tecnologia de codificação Red-Stuff da Walrus, combinada com a solução de armazenamento em lote Quilt, consegue reduzir o custo de armazenamento para uma fração do valor das soluções tradicionais. O mais importante é que a alta disponibilidade e a velocidade de acesso aos dados permanecem intactas. Assim, os desenvolvedores de IA podem focar na otimização de modelos, sem serem consumidos pelos custos de armazenamento.
No que diz respeito à flexibilidade na gestão de dados, a Walrus também demonstra sua força.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
7
Republicar
Partilhar
Comentar
0/400
SchrodingerWallet
· 20h atrás
O custo de armazenamento foi reduzido para uma décima parte? Se isso for verdade, a AWS deve estar ficando desesperada hahaha
Ver originalResponder0
FundingMartyr
· 20h atrás
Caramba, a fatura da AWS realmente consegue esgotar as pessoas... Não é de admirar que todos estejam procurando uma saída, a abordagem do Walrus é realmente agressiva
Ver originalResponder0
AltcoinTherapist
· 20h atrás
walrus esta jogada realmente capturou o ponto sensível, o custo dos provedores de serviços em nuvem é realmente absurdo, uma diferença de algumas dezenas de vezes não é nada exagerado, certo?
Ver originalResponder0
MissedAirdropAgain
· 20h atrás
Qual é o limite inferior do custo de armazenamento, podendo chegar a uma décima parte? Se isso for verdade, a AWS teria que chorar até morrer. Mas, falando nisso, a solução Walrus realmente é um alívio para os desenvolvedores de IA, finalmente não precisando gastar toda a verba apenas com a conta de armazenamento.
Ver originalResponder0
DecentralizeMe
· 21h atrás
Uma fração do custo? Se isso for verdade, a AWS vai ficar arrasada. No entanto, o sistema de codificação Red-Stuff do Walrus parece bastante promissor, só depende de como vai funcionar na prática
Ver originalResponder0
MoonRocketTeam
· 21h atrás
O custo de armazenamento foi reduzido para um décimo do anterior? Se isso for verdade, a AWS deve estar chorando, parece que a próxima corrida armamentista de infraestrutura de IA está prestes a começar.
Ver originalResponder0
ContractExplorer
· 21h atrás
Ai, mais um problema antigo de armazenamento... Os serviços em nuvem são caros demais, agora finalmente alguém pensou em usar uma solução distribuída, essa codificação Red-Stuff do Walrus parece boa, o custo pode ser reduzido tanto assim...
A explosão da IA generativa trouxe uma questão inevitável — como armazenar, quanto armazenar, como gerenciar?
Resumidamente, há três requisitos: barato, seguro, fácil de usar. Os conjuntos de dados de treinamento acumulam-se como montanhas, o conteúdo gerado precisa ser arquivado, e as permissões de dados devem ser gerenciadas com detalhes. Essas deveriam ser tarefas simples, mas agora tornaram-se os principais obstáculos para a implementação em larga escala de aplicações de IA.
É importante destacar que a Walrus Protocol já possui uma presença clara nesse setor. Oferecer infraestrutura de armazenamento para projetos de IA é uma abordagem bastante interessante.
Tomando como exemplo a plataforma de IA generativa Everlyn, esse caso é bastante representativo. A Everlyn utiliza a Walrus como camada de dados, armazenando mais de 50GB de conjuntos de dados de treinamento, pontos de verificação de modelos, cache KV e outros dados essenciais. Todo o conteúdo de vídeo de alta qualidade gerado também fica na Walrus. Por que essa escolha?
A razão principal é bastante convincente — os custos de armazenamento de serviços em nuvem como AWS e Azure aumentam continuamente à medida que a demanda por geração de vídeos cresce. A tecnologia de codificação Red-Stuff da Walrus, combinada com a solução de armazenamento em lote Quilt, consegue reduzir o custo de armazenamento para uma fração do valor das soluções tradicionais. O mais importante é que a alta disponibilidade e a velocidade de acesso aos dados permanecem intactas. Assim, os desenvolvedores de IA podem focar na otimização de modelos, sem serem consumidos pelos custos de armazenamento.
No que diz respeito à flexibilidade na gestão de dados, a Walrus também demonstra sua força.