Lembre-se de quando dominar o Blender parecia uma tarefa hercúlea, que exigia meses de estudo dedicado? Agora, isso já é história. Nos últimos anos, as redes neurais infiltraram-se profundamente na criação 3D, de modo que a barreira de entrada praticamente caiu por terra. Agora, qualquer pessoa pode gerar um modelo 3D a partir de uma foto em poucos minutos, diretamente no navegador. Decidi testar até que ponto as tecnologias avançaram e experimentei alguns serviços populares. Escolhi um tema clássico para os testes — personagens de desenhos animados da infância. Uma excelente forma de ver como os algoritmos lidam com imagens reconhecíveis e transmitem detalhes que lembramos há anos.



O critério de seleção foi simples: acesso gratuito e honesto, sem necessidade de cartão de crédito ou assinaturas ocultas. Aqui está o que encontrei.

Tripo AI — foi o primeiro serviço que experimentei. É uma plataforma em nuvem que funciona diretamente no navegador, permitindo carregar uma imagem pronta ou simplesmente descrever o personagem por texto. A principal vantagem é que o sistema entende muito bem o russo, então não há dificuldades com traduções. Após o cadastro, eles fornecem 300 moedas, sendo que uma geração custa 25 unidades, o que dá cerca de 12 tentativas. Na versão 2.5, até oferecem cinco modelos prontos de presente.

Quando carreguei uma foto do Скрудж МакДака, a rede neurais processou em um minuto e meio. O resultado ficou bom — o personagem é reconhecível instantaneamente, a coloração está na média. Porém, os óculos ficaram um pouco distorcidos e os olhos, por alguma razão, foram duplicados no bico. Mas, para um experimento rápido, o nível é satisfatório. Nas configurações, é possível escolher o estilo de geração, inserir prompts negativos e até definir uma pose. Como bônus, por 20 moedas, é possível dar vida ao personagem, adicionando animações de corrida ou pulo.

O Mesh foi mais interessante. Funciona com imagens ou texto e fornece imediatamente quatro opções para escolher. Após o cadastro, dá 100 moedas, o suficiente para criar 10 modelos. A geração leva alguns minutos. A grande novidade é a função Texture Generator, que por mais 10 moedas adiciona texturas ao esboço cinza. Por baixo dos panos, usam modelos de difusão treinados em enormes bibliotecas de objetos. O resultado pode ser baixado em GLB ou OBJ e aberto no Blender ou Maya.

Quando testei a geração de um modelo 3D do Дональдака a partir de uma foto, o resultado ficou na média. O personagem permanece reconhecível, mas não é algo que você queira exibir em 4K. Houve problemas com as texturas — manchas brancas onde a rede neurais não conseguiu preencher. A mão parecia mais grossa que a outra, os dedos variaram de tamanho. A pose está um pouco inclinada, a dinâmica perdida. Para um rascunho, serve, mas para um projeto final, será necessária uma edição manual significativa.

Trellis é uma ferramenta desenvolvida pela Microsoft, disponível gratuitamente no Hugging Face. Funciona apenas com imagens, não entende comandos de texto. Mas oferece muitas configurações: pode alterar o seed, a força de preservação do original, o número de passos. A grande vantagem é o modo Multiple Images. Se você carregar várias fotos do personagem de diferentes ângulos, a rede entenderá melhor a forma do objeto. Para desenhos planos de desenhos antigos, é uma verdadeira salvação.

Genie, da Luma Labs, aposta na velocidade. Você descreve o objeto por texto, e o sistema transforma as palavras em um modelo em duas minutos. Quatro variações aparecem na saída, que podem ser manipuladas diretamente no navegador. As gerações não têm limite, você pode experimentar à vontade. Mas há um detalhe — só aceita comandos de texto, não é possível carregar uma imagem. Funciona bem com objetos inanimados, mas com rostos e detalhes pequenos, muitas vezes sai borrado. A exportação é conveniente — o sistema escolhe o formato adequado dependendo de onde você continuará trabalhando.

Quando tentei criar a Ариэль por descrição de texto, o resultado foi fraco. As texturas ficaram tortas, os detalhes estão borrados, a geometria às vezes se dispersa. É possível reconhecer o personagem, mas as vantagens acabam aí. Para personagens orgânicos complexos, essa ferramenta claramente não é adequada.

Hightem se posiciona como uma ferramenta para modelos altamente detalhados. Os desenvolvedores focam na qualidade das texturas e na limpeza da malha poligonal. Funciona com texto e imagens, interface minimalista. A geração leva alguns minutos. Exporta nos formatos padrão — GLB, OBJ. É útil quando você precisa de algo mais do que um simples esboço, uma modelo com aparência decente.

Quando carreguei uma foto de um personagem de desenho clássico, o resultado foi um dos melhores de toda a análise. O personagem ficou muito parecido com o original, a modelagem é boa, embora a cor precise de ajustes — o original parece mais vibrante.

Masterpiece X foca em descrições por texto. A função de geração a partir de imagem é fraca. Após o cadastro, você recebe 250 créditos para cinco tentativas. Há um editor de escultura embutido, onde é possível ajustar a forma diretamente no navegador. Se as cores não agradarem, é possível passar para o modo Pintura e colorir manualmente ou usar uma ferramenta automática de aprimoramento de texturas. A modelagem é preparada para transferência para outros editores — eles criam UVs e aplicam materiais.

Quando tentei criar um Джинна, o resultado foi mediano. Detalhamento médio, as texturas parecem um rascunho grosseiro. A rede neurais não seguiu bem as instruções — em vez de um Джинна clássico, saiu um personagem que lembra suspeitosamente o Уилла Смита em um filme. Na mão, em vez de uma lâmpada mágica, havia um caldeirão. A coloração deixa a desejar.

Depois de todos esses testes, ficou claro: os designers profissionais de 3D ainda podem dormir tranquilos. As redes neurais ainda não estão prontas para substituir o trabalho humano em breve. Conseguir algo realmente bom com um clique é como tentar desenhar uma obra-prima de olhos vendados. É preciso tentar várias vezes, trocar imagens, reescrever comandos. E as tentativas gratuitas tendem a acabar exatamente no momento em que você começa a entender como o algoritmo funciona.

A verdade é que as redes neurais só funcionam bem quando são controladas por uma pessoa. Sem uma visão criativa, ideias e habilidade para aprimorar o modelo no editor, elas permanecem apenas uma coleção de ferramentas. Podem gerar uma maquete padrão, mas dar vida ao personagem e torná-lo original só você consegue. As tecnologias são assistentes que economizam tempo na rotina.

Se você já experimentou gerar modelos 3D a partir de fotos com redes neurais, compartilhe seus resultados. Talvez você tenha um serviço favorito que eu não mencionei, ou tenha descoberto uma forma de fazer esses algoritmos funcionarem perfeitamente. Estou curioso para saber sobre sua experiência.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar