Nouvelles de la Gate : le 10 avril, Alibaba confirme officiellement que son modèle de génération vidéo HappyHorse-1.0 fait partie de ses produits développés en interne. Ce modèle est issu de l’équipe de l’ancien Future Life Lab du groupe Taotian ; lors des derniers ajustements d’architecture d’Alibaba, cette équipe a été intégrée au sein du « département de l’innovation en IA » de la nouvelle entité Alibaba Token Hub (ATH), un groupe d’activité nouvellement créé. Lors d’un vote anonyme sur la plateforme d’évaluation tierce Artificial Analysis, HappyHorse-1.0 a obtenu une nette avance sur le modèle de génération vidéo d’une entreprise Internet donnée ainsi que sur le modèle d’une autre entreprise Internet, dans la tâche de génération vidéo pure ; en ce qui concerne la génération intégrée son-image, ses performances sont équivalentes à celles du premier. D’après des personnes proches d’Alibaba, HappyHorse-1.0 n’est qu’un des modèles multimodaux développés en interne par cette équipe ; récemment, Alibaba doit également lancer un autre modèle multimodal différent. Pour l’instant, HappyHorse-1.0 n’est pas open source, ce qui concorde avec la stratégie récente d’Alibaba consistant à privilégier les modèles en code fermé à l’échelle globale : depuis la fin mars, plusieurs nouveaux modèles publiés par Alibaba en chaîne n’ont pas été open source. L’accélération soutenue de ces modèles multimodaux s’explique par le fait qu’un modèle de génération vidéo d’une entreprise Internet a été particulièrement performant pendant la période du Nouvel An chinois 2026, ce qui a surpris en interne Alibaba ; par ailleurs, la génération multimodale augmenterait sensiblement la consommation de Token, ce qui influencerait la part de marché du secteur MaaS (modèle en tant que service). D’après les données d’IDC, au premier semestre 2025, un fournisseur de services cloud donné avait déjà occupé 49,2% de la part de ce marché, tandis qu’Alibaba Cloud en détenait 27%.