A Ray acabou de lançar uma atualização bastante sólida: seletores de etiquetas para uma programação de tarefas mais inteligente. Pensa nisso como dar às tuas tarefas de computação distribuída uma lista de contactos—os programadores podem agora etiquetar nós com etiquetas personalizadas (cpu-family=intel, market-type=spot) em vez de adivinharem onde as tarefas vão parar.
A colaboração com o Google Kubernetes Engine significa que isto já vem integrado no Ray v2.49 e funciona bem com o KubeRay + a plataforma Anyscale. Antes disto, programar tarefas em nós específicos era complicado—os programadores tinham de improvisar soluções. Agora tens correspondência flexível: correspondências exatas, condições de qualquer um, até bloquear nós GPU ou escolher regiões específicas como us-west1-a.
Porque é importante: a colocação de cargas de trabalho torna-se mais limpa, o autoscaling percebe realmente o que pretendes fazer, e toda a integração com o Kubernetes torna o Ray mais amigável para programadores. No futuro, o roadmap inclui seletores de fallback e melhor interoperabilidade com o K8s.
Resumindo: a Ray está a tornar a computação distribuída menos um jogo de adivinhas.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A Ray acabou de lançar uma atualização bastante sólida: seletores de etiquetas para uma programação de tarefas mais inteligente. Pensa nisso como dar às tuas tarefas de computação distribuída uma lista de contactos—os programadores podem agora etiquetar nós com etiquetas personalizadas (cpu-family=intel, market-type=spot) em vez de adivinharem onde as tarefas vão parar.
A colaboração com o Google Kubernetes Engine significa que isto já vem integrado no Ray v2.49 e funciona bem com o KubeRay + a plataforma Anyscale. Antes disto, programar tarefas em nós específicos era complicado—os programadores tinham de improvisar soluções. Agora tens correspondência flexível: correspondências exatas, condições de qualquer um, até bloquear nós GPU ou escolher regiões específicas como us-west1-a.
Porque é importante: a colocação de cargas de trabalho torna-se mais limpa, o autoscaling percebe realmente o que pretendes fazer, e toda a integração com o Kubernetes torna o Ray mais amigável para programadores. No futuro, o roadmap inclui seletores de fallback e melhor interoperabilidade com o K8s.
Resumindo: a Ray está a tornar a computação distribuída menos um jogo de adivinhas.