Suchergebnisse für "MPT"
2026-02-13
09:46

XRP Ledger eröffnet eine neue Ära der Token-Entsperrung und -Verwahrung, nach dem Launch von XLS-85 können Vermögenswerte wie RLUSD jetzt on-chain gesperrt werden

2月13日消息,XRP Ledger hat offiziell den Token-Depot-Entwurf XLS-85 aktiviert, der es Nutzern ermöglicht, Depotkonten für ausgegebene fungible Token zu erstellen. Das bedeutet, dass neben XRP selbst auch Trust Line-Token und Multi-Use-Token (MPT) auf der Chain unter bestimmten Bedingungen gesperrt werden können, um eine flexiblere Asset-Verwaltung für DeFi und Enterprise-Anwendungen zu bieten. Der Entwurf erhielt am 30.01.2026 erneut die Unterstützung von 30 Validierern, erreichte die Aktivierungsschwelle und wurde zwei Wochen später live geschaltet. Zuvor war XLS-85 im September 2025 knapp durchgekommen, aber aufgrund von Meinungsverschiedenheiten über Kompatibilitätsprobleme mit dem MPT-Standard sank die Unterstützung auf 16 Stimmen. Der XRPL dUNL-Validator Vet wies auf Mängel bei der Depotbuchhaltung hinsichtlich Transaktionskosten und Bestandsverfolgung hin, woraufhin die Community fixTokenEscrowV1 einführte und in Rippled v3.0.0 integrierte, um das Vertrauen wiederherzustellen und die endgültige Aktivierung voranzutreiben.
Mehr
XRP4,34%
MPT3,66%
02:48

🚀Der Miracle Play (MPT) Trading-Wettbewerb beginnt mit Preisen im Wert von 10.000 $! ⏳ Veranstaltungszeitraum: 22.04.-29.04.29 11:00 Uhr [UTC+8] ✅ Handeln Sie $MPT$, um einen Anteil von 8.000 $ zu gewinnen ✅ Exklusive Vorteile für neue Benutzer, um einen Preispool von 1.000 $ zu teilen ✅ Laden Sie neue Benutzer ein und genießen Sie Belohnungen im Wert von 1.000 US-Dollar 💸 Beteiligen Sie sich: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
Mehr
MPT3,66%
04:57

TinyLlama, ein Open-Source-Modell für Mini-KI, wurde veröffentlicht und belegt nur 637 MB

Laut einem Bericht von Webmaster's Home vom 6. Januar hat das TinyLlama-Team ein leistungsstarkes KI-Open-Source-Modell veröffentlicht, das nur 637 MB belegt, TinyLlama. TinyLlama ist eine kompakte Version von Metas Open-Source-Sprachmodell Llama2, das über 1 Milliarde Parameter und eine überlegene Leistung für die Multi-Domain-Sprachmodellforschung verfügt, und seine endgültige Version übertrifft bestehende Open-Source-Sprachmodelle vergleichbarer Größe, darunter Pythia-1.4B, OPT-1.3B und MPT-1.3B. Es wird berichtet, dass TinyLlama auf Edge-Geräten eingesetzt werden kann und auch bei der spekulativen Dekodierung großer Modelle helfen kann.
Mehr
07:39

Baidu Smart Cloud „Qianfan Large Model Platform“-Upgrade: Zugriff auf 33 Modelle, einschließlich LLaMA2

Laut dem Bericht „Kechuangban Daily“ vom 2. August hat die Baidu Smart Cloud Qianfan-Großmodellplattform eine neue Upgrade-Runde abgeschlossen und bietet vollständigen Zugriff auf 33 Großmodelle, darunter die gesamte Serie LLaMA2, ChatGLM2, RWKV, MPT und Dolly , OpenLLaMA und Falcon haben sich zur Plattform mit der größten Anzahl großer Modelle in China entwickelt, und die verbundenen Modelle wurden einer sekundären Leistungsverbesserung der Qianfan-Plattform unterzogen, und die Kosten für die Modellbegründung können um 50 % gesenkt werden. Gleichzeitig hat die Qianfan-Plattform eine Preset_template-Bibliothek mit 103 Vorlagen gestartet, die mehr als zehn Dialog-, Spiele-, Programmier- und Schreibszenarien abdeckt. Darüber hinaus wurden mit diesem Upgrade wieder eine Reihe neuer Plug-Ins veröffentlicht.
Mehr
06:55

Das KI-Unternehmen MosaicML brachte das 30-Milliarden-Parameter-Modell MPT-30B auf den Markt und gab an, dass die Schulungskosten nur einen Bruchteil der Konkurrenzprodukte ausmachten

Laut dem Bericht von IT House vom 25. Juni hat das KI-Startup MosaicML kürzlich sein Sprachmodell MPT-30B veröffentlicht. Das Modell verfügt über 30 Milliarden Parameter, und die Trainingskosten betragen „nur einen Bruchteil anderer ähnlicher Konkurrenzmodelle“. erweitert die Anwendung von KI-Modellen in einem breiteren Spektrum von Bereichen. Naveen Rao, CEO und Mitbegründer von MosaicML, sagte, dass die Schulungskosten für MPT-30B 700.000 US-Dollar (ca. 5,0244 Millionen Yuan) betragen, was weitaus weniger ist als die mehreren zehn Millionen Dollar, die für ähnliche Produkte wie GPT erforderlich sind. 3. . Darüber hinaus kann MPT-30B aufgrund der geringeren Kosten und der geringeren Größe schneller trainiert werden und eignet sich besser für den Einsatz auf lokaler Hardware. Es wird berichtet, dass MosaicML die Alibi- und FlashAttention-Technologie verwendet, um das Modell zu optimieren, wodurch eine längere Textlänge und eine höhere Auslastung des GPU-Computings erreicht werden können. MosaikML ist auch eines der wenigen Labore, das die Nvidia H100-GPU verwenden kann. Im Vergleich zu früheren Errungenschaften hat sich der aktuelle Durchsatz jeder GPU um mehr als das 2,4-fache erhöht, was zu einer schnelleren Abschlusszeit führen kann.
Mehr