La plateforme BitNet LoRA de Tether permet la formation de modèles d’IA sur smartphones, GPU et appareils grand public.
Le système réduit la consommation de mémoire et améliore les performances, avec jusqu’à 77,8 % de VRAM en moins.
Les utilisateurs peuvent affiner des modèles jusqu’à 13 milliards de paramètres sur des appareils mobiles, élargissant les capacités de l’IA en périphérie.
Tether a annoncé une nouvelle plateforme d’IA via sa plateforme QVAC Fabric, permettant une formation BitNet LoRA multiplateforme sur des appareils grand public. La mise à jour permet aux modèles de milliards de paramètres de fonctionner sur smartphones et GPU. Le PDG Paolo Ardoino a partagé cette avancée, soulignant la réduction des coûts et un accès plus large aux outils d’IA.
La mise à jour QVAC Fabric introduit la prise en charge multiplateforme pour l’affinement BitNet LoRA. Cela permet aux modèles d’IA de fonctionner sur différents matériels et systèmes d’exploitation.
Notamment, le cadre supporte les GPU d’AMD, Intel et Apple, y compris les chipsets mobiles. Il utilise également Vulkan et Metal comme backend pour la compatibilité.
Selon Tether, c’est la première fois que BitNet LoRA fonctionne sur une gamme aussi large d’appareils. En conséquence, les utilisateurs peuvent entraîner des modèles sur du matériel courant.
Le système réduit les besoins en mémoire et en calcul en combinant les techniques BitNet et LoRA. BitNet compresse les poids du modèle en valeurs simplifiées, tandis que LoRA limite les paramètres entraînables.
Ensemble, ces méthodes réduisent considérablement les exigences matérielles. Par exemple, l’inférence GPU est deux à onze fois plus rapide que sur CPU sur des appareils mobiles.
De plus, l’utilisation de mémoire diminue fortement par rapport aux modèles en précision totale. Les benchmarks montrent jusqu’à 77,8 % de VRAM en moins par rapport à des systèmes comparables.
Tether a également démontré l’affinement sur smartphones. Des tests ont montré que des modèles de 125 millions de paramètres peuvent être entraînés en quelques minutes sur des appareils comme le Samsung S25.
Le cadre permet d’exécuter des modèles plus volumineux sur des appareils en périphérie. Tether a rapporté un affinement réussi de modèles jusqu’à 13 milliards de paramètres sur l’iPhone 16.
De plus, le système supporte des GPU mobiles tels qu’Adreno, Mali et Apple Bionic. Cela étend le développement d’IA au-delà du matériel spécialisé.
Selon Paolo Ardoino, le développement d’IA dépend souvent d’infrastructures coûteuses. Il a déclaré que ce cadre déplace les capacités vers les appareils locaux.
Tether a ajouté que le système réduit la dépendance aux plateformes centralisées. Il permet également aux utilisateurs d’entraîner et de traiter des données directement sur leurs appareils.
Articles similaires
Tether émet 1 milliard de USDT, la capitalisation boursière de l’USDT grimpe de plus de $2 milliards en une semaine
Rhea Finance subit une attaque d’Oracle et perd 18,4 millions de dollars : ZachXBT alerte, Tether gèle 4,34 millions USDT, l’attaquant rembourse une partie des fonds
Tether gèle 3,29 M$ d’USDT liés à l’exploitation de Rhea Finance
Tether injecte 150 millions de dollars pour secourir Drift Protocol, tandis que Circle fait l’objet d’un recours collectif pour négligence
L’ancien secrétaire au Trésor Paulson : le plan d’urgence pour la crise de la dette américaine doit être prêt à l’avance, les conséquences seront très sévères