Ray vient de publier une mise à jour solide : les sélecteurs de labels pour un ordonnancement de tâches plus intelligent. Imaginez que vos jobs de calcul distribué aient désormais un carnet d’adresses — les développeurs peuvent maintenant taguer les nœuds avec des labels personnalisés (cpu-family=intel, market-type=spot) au lieu de deviner où les tâches vont atterrir.
La collaboration avec Google Kubernetes Engine signifie que c’est intégré à Ray v2.49 et fonctionne parfaitement avec KubeRay et la plateforme d’Anyscale. Avant cela, le placement sur des nœuds spécifiques était laborieux — les développeurs devaient bricoler des solutions. Désormais, vous bénéficiez d’un appariement flexible : correspondances exactes, conditions « any-of », voire blacklistage de nœuds GPU ou sélection de régions spécifiques comme us-west1-a.
Pourquoi c’est important : le placement des workloads devient plus propre, l’autoscaling comprend réellement ce que vous essayez de faire, et toute l’intégration avec Kubernetes rend Ray plus accessible aux développeurs. La feuille de route prévoit des sélecteurs de secours et une meilleure interopérabilité avec K8s.
En résumé : Ray rend le calcul distribué moins aléatoire.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Ray vient de publier une mise à jour solide : les sélecteurs de labels pour un ordonnancement de tâches plus intelligent. Imaginez que vos jobs de calcul distribué aient désormais un carnet d’adresses — les développeurs peuvent maintenant taguer les nœuds avec des labels personnalisés (cpu-family=intel, market-type=spot) au lieu de deviner où les tâches vont atterrir.
La collaboration avec Google Kubernetes Engine signifie que c’est intégré à Ray v2.49 et fonctionne parfaitement avec KubeRay et la plateforme d’Anyscale. Avant cela, le placement sur des nœuds spécifiques était laborieux — les développeurs devaient bricoler des solutions. Désormais, vous bénéficiez d’un appariement flexible : correspondances exactes, conditions « any-of », voire blacklistage de nœuds GPU ou sélection de régions spécifiques comme us-west1-a.
Pourquoi c’est important : le placement des workloads devient plus propre, l’autoscaling comprend réellement ce que vous essayez de faire, et toute l’intégration avec Kubernetes rend Ray plus accessible aux développeurs. La feuille de route prévoit des sélecteurs de secours et une meilleure interopérabilité avec K8s.
En résumé : Ray rend le calcul distribué moins aléatoire.