AI x Krypto - Versprechen und Realitäten

Fortgeschrittene7/13/2024, 3:21:16 PM
AI+Krypto ist eines der bemerkenswertesten Grenzbereiche auf dem aktuellen Kryptowährungsmarkt. Dies umfasst dezentrales KI-Training, GPU DePINs und zensurresistente KI-Modelle. Das Hauptproblem beim KI-Training liegt in der Notwendigkeit einer schnellen Kommunikation und Koordination zwischen GPUs, da neuronale Netze während des Trainings eine Rückpropagation erfordern. Die Einführung eines dezentralen Netzwerks kann den Prozess aufgrund erhöhter Netzwerklatenz und Bandbreite erheblich verlangsamen. Dieser Artikel organisiert auch Lösungen für die aktuellen Herausforderungen und bietet Beispiele dafür, wie die Integration von Kryptowährung und KI einen erheblichen Mehrwert bringen kann.

Künstliche Intelligenz ist derzeit eine der heißesten und vielversprechendsten Kategorien auf den Kryptomärkten.

💡Dezentrales KI-Training

💡gpu depins

💡ungefilterte KI-Modelle

Sind das Durchbrüche oder nur Schlagworte? 🤔

Bei hack vc trennen wir uns vom Lärm, um Versprechen von Realität zu trennen.

Dieser Beitrag analysiert die Top-Krypto-x-AI-Ideen. Lassen Sie uns über die realen Herausforderungen und Chancen diskutieren.

Ideen mit anfänglichem Potenzial, die jedoch in der Realität auf Herausforderungen gestoßen sind.

Zuerst wollen wir mit dem „Versprechen von Web3 KI“ beginnen – Ideen, die ziemlich gehyped werden, aber deren Realität möglicherweise nicht so glänzend ist.

Idee #1: dezentrales KI-Training

Das Problem beim Training von KI on-chain besteht darin, dass das Training eine schnelle Kommunikation und Koordination zwischen GPUs erfordert, da neuronale Netzwerke bei der Schulung eine Rückpropagation erfordern. Nvidia hat hierfür zwei Innovationen (NVLink und InfiniBandDiese Technologien ermöglichen eine ultraschnelle Kommunikation zwischen GPUs, sind jedoch nur innerhalb von GPU-Clustern in einem einzelnen Rechenzentrum anwendbar (mit Geschwindigkeiten von 50+ Gigabit).

Wenn Sie ein dezentralisiertes Netzwerk ins Spiel bringen, sind Sie plötzlich um Größenordnungen langsamer aufgrund der hinzugefügten Netzwerklatenz und Bandbreite. Das ist ein Ausschlusskriterium für KI-Trainingsszenarien im Vergleich zur Durchsatzrate, die Sie von Nvidias Hochgeschwindigkeits-Verbindung innerhalb eines Rechenzentrums erhalten.

Beachten Sie, dass es hier einige Innovationen gegeben hat, die möglicherweise Hoffnung für die Zukunft bieten könnten:

  • Verteiltes Training über InfiniBand findet in erheblichem Maßstab statt, da Nvidia selbst verteiltes, nicht-lokales Training über InfiniBand über die Nvidia Collective Communications Library unterstützt. Es ist jedoch noch in den Kinderschuhen, daher sind die Übernahmemetriken noch zu bestimmen. Siehe hierDer Engpass, der durch die Gesetze der Physik über Entfernungen entsteht, gilt immer noch, sodass lokales Training über InfiniBand immer noch deutlich schneller ist.
  • Es wurde eine neue Forschung veröffentlicht, die sich auf dezentrales Training konzentriert und auf weniger Kommunikationssynchronisationen angewiesen ist, was in Zukunft dezentrales Training möglicherweise praktischer machen könnte. Siehehierundhier.
  • Intelligentes Sharding und Planen des Modelltrainings können zur Verbesserung der Leistung beitragen. Ebenso können zukünftig neue Modellarchitekturen speziell für verteilte Infrastrukturen entworfen werden (gensyn forscht in diesen Bereichen).

Der Datenteil des Trainings ist ebenfalls herausfordernd. Jeder KI-Trainingsprozess beinhaltet die Arbeit mit großen Datenmengen. Normalerweise werden Modelle auf zentralisierten und sicheren Datenspeichersystemen mit hoher Skalierbarkeit und Leistung trainiert. Dies erfordert die Übertragung und Verarbeitung von Terabytes an Daten, und dies geschieht nicht nur einmalig. Daten sind in der Regel fehlerhaft und enthalten Fehler, daher müssen sie vor dem Training des Modells gereinigt und in ein verwendbares Format transformiert werden. Dieser Schritt beinhaltet wiederholte Aufgaben der Normalisierung, Filterung und Bearbeitung von fehlenden Werten. Dies stellt alles ernsthafte Herausforderungen in einer dezentralen Umgebung dar.

Der Datenbestand des Trainings ist ebenfalls iterativ, was sich nicht gut für Web3 eignet. OpenAI benötigte Tausende von Iterationen, um seine Ergebnisse zu erzielen. Das grundlegendste Aufgabenszenario für einen Data Science-Spezialisten in einem KI-Team umfasst das Definieren von Zielen, das Vorbereiten von Daten sowie das Analysieren und Strukturieren von Daten, um wichtige Erkenntnisse zu gewinnen und sie für das Modellieren geeignet zu machen. Anschließend wird ein maschinelles Lernmodell entwickelt, um das definierte Problem zu lösen, und seine Leistung wird mithilfe eines Testdatensatzes validiert. Dieser Prozess ist iterativ: Wenn das aktuelle Modell nicht wie erwartet funktioniert, kehrt der Spezialist zur Datensammlung oder zum Modellierungsschritt zurück, um die Ergebnisse zu verbessern. Stellen Sie sich nun diesen Prozess in einer dezentralen Umgebung vor, in der erstklassige vorhandene Frameworks und Tools in Web3 nicht leicht verfügbar sind.

Das andere Problem beim Training von KI-Modellen on-chain ist, dass es im Vergleich zu Inferenzmärkten viel weniger interessant ist. Derzeit wird eine enorme Menge an GPU-Computing für das Training von KI-LLM verwendet. Aber langfristig wird die Inferenz (bei weitem) der häufigere Anwendungsfall von GPUs sein. Bedenken Sie: Wie viele KI-LLMs müssen trainiert werden, damit die Welt glücklich ist, im Vergleich zur Anzahl der Kunden, die diese Modelle nutzen werden?

Eine Lösung, die in allen Bereichen Fortschritte macht, ist 0g.ai (unterstützt von Hack VC), die sowohl die Speicherung von On-Chain-Daten als auch die Datenverfügbarkeitsinfrastruktur bieten. Ihre ultraschnelle Architektur und die Fähigkeit, große Datenmengen On-Chain zu speichern, ermöglichen schnelles, iteratives On-Chain-AI-Modelltraining jeder Art.

Idee #2: Verwendung einer übermäßig redundanten Berechnung von KI-Inferenz für Konsens

Eine der Herausforderungen bei Krypto x AI besteht darin, die Genauigkeit von AI-Inferenz zu überprüfen, da man nicht unbedingt einer einzigen zentralisierten Partei vertrauen kann, diese Inferenz aufgrund des Potenzials für schlecht funktionierende Knoten auszuführen. Diese Herausforderung besteht bei Web2 AI nicht, da es kein dezentrales Konsenssystem gibt.

Ein vorgeschlagener Lösungsansatz dafür ist redundante Berechnung, bei der mehrere Knoten die gleiche KI-Inferenzoperation wiederholen, sodass Sie auf vertrauenswürdige Weise arbeiten können, ohne einen einzigen Fehlerpunkt zu haben.

Das Problem bei diesem Ansatz ist, dass wir in einer Welt mit einem drastischen Mangel an High-End-KI-Chips leben. Es gibt eine mehrjährige Wartezeit für High-End-Nvidia-Chips, was zu Preiserhöhungen führt. Wenn Sie außerdem erfordern, dass Ihre KI-Inferenz mehrmals auf mehreren Knoten neu ausgeführt wird, multiplizieren Sie nun diese teuren Kosten. Dies wird für viele Projekte nicht in Frage kommen.

Idee #3: Web3-spezifische KI-Anwendungsfälle in naher Zukunft

Es wurden Vorschläge gemacht, dass Web3 eigene, einzigartige KI-Anwendungsfälle haben sollte, die spezifisch für Web3-Kunden sind. Dies könnte zum Beispiel ein Web3-Protokoll sein, das KI verwendet, um das Risiko-Scoren eines DeFi-Pools durchzuführen, eine Web3-Wallet, die Ihnen basierend auf Ihrer Wallet-Historie neue Protokolle vorschlägt, oder ein Web3-Spiel, das KI verwendet, um Nicht-Spieler-Charaktere (NPCs) zu steuern.

Im Moment ist dies (auf kurze Sicht) ein aufstrebender Markt, in dem Anwendungsfälle noch entdeckt werden. Einige Herausforderungen sind:

  • Für web3-native Anwendungsfälle sind weniger potenzielle AI-Transaktionen erforderlich, da die Marktnachfrage noch in den Kinderschuhen steckt.
  • weniger Kunden, da es im Vergleich zu Web2-Kunden orders of magnitude weniger Web3-Kunden gibt, ist der Markt weniger fragmentiert.
  • Die Kunden selbst sind weniger stabil, da es sich um Startups mit weniger Finanzierung handelt. Einige dieser Startups können im Laufe der Zeit sterben. Ein Web3-AI-Dienstleister, der sich an Web3-Kunden richtet, wird wahrscheinlich im Laufe der Zeit einen Teil seiner Kundenbasis wiedererwerben müssen, um diejenigen zu ersetzen, die sterben, was das Skalieren des Geschäfts herausfordernder macht.

auf lange Sicht sind wir sehr optimistisch in Bezug auf web3-native KI-Anwendungsfälle, insbesondere da KI-Agenten immer häufiger werden. Wir stellen uns eine Zukunft vor, in der jeder Web3-Benutzer von einer Vielzahl von KI-Agenten unterstützt wird. Der frühe Kategorieführer dafür ist Theoriq (unterstützt von hack vc), die komponierbare und autonome on-chain KI-Agenten ermöglicht.

Idee Nr. 4: Consumer-Grade-GPU Depins

Es gibt eine Reihe von dezentralen Krypto AI-Compute-Netzwerken, die auf GPUs der Verbraucherebene anstelle von Rechenzentren angewiesen sind. Verbraucher-GPUs sind praktisch für Low-End-AI-Inferenzaufgaben oder für Verbraucheranwendungsfälle, bei denen Latenz, Durchsatz und Zuverlässigkeit flexibel sind. Aber für ernsthafte Enterprise-Anwendungsfälle (die die Mehrheit des relevanten Marktes ausmachen), möchten Kunden ein Netzwerk mit höherer Zuverlässigkeit im Vergleich zu privaten Computern und benötigen oft höherwertige GPUs, wenn sie komplexere Inferenzaufgaben haben. Rechenzentren sind für diese wertvolleren Kundenanwendungsfälle besser geeignet.

Beachten Sie, dass wir Consumer-Grade-GPUs als nützlich für Demo-Zwecke oder für Einzelpersonen und Startups betrachten, die eine geringere Zuverlässigkeit tolerieren können. Diese Kunden sind jedoch grundsätzlich weniger wertvoll, daher glauben wir, dass Depins, die auf Web2-Unternehmen ausgerichtet sind, langfristig wertvoller sein werden. Daher haben sich die bekannten GPU-Depin-Projekte im Allgemeinen von den Anfangstagen mit größtenteils Consumer-Grade-Hardware zu einer Verfügbarkeit von A100/H100 und Cluster-Level entwickelt.

Realität - die praktischen und realistischen Anwendungsfälle von Krypto x KI

Lassen Sie uns nun über Anwendungsfälle sprechen, die "echte Vorteile" bieten. Dies sind tatsächliche "Gewinne", bei denen Krypto x AI einen erheblichen Mehrwert bieten kann.

Echter Vorteil Nr. 1: Bedienung von Web2-Kunden

mckinseySchätzungenDass generative KI jährlich in den 63 analysierten Anwendungsfällen das Äquivalent von 2,6 Billionen bis 4,4 Billionen US-Dollar hinzufügen könnte - im Vergleich dazu betrug das gesamte BIP des Vereinigten Königreichs im Jahr 2021 3,1 Billionen US-Dollar. Dies würde die Auswirkungen aller künstlichen Intelligenz um 15% bis 40% erhöhen. Diese Schätzung würde sich ungefähr verdoppeln, wenn wir die Auswirkungen des Einbettens generativer KI in Software einbeziehen, die derzeit für andere Aufgaben jenseits dieser Anwendungsfälle verwendet wird.

Wenn Sie die obige Schätzung durchrechnen, bedeutet dies, dass der Gesamtmarkt für Krypto (jenseits von generativem Krypto) weltweit im Bereich von zig Billionen Dollar liegen könnte. Zum Vergleich: Alle Kryptowährungen zusammen, einschließlich Bitcoin und jeder Altcoin, sind heute nur etwa 2,7 Billionen Dollar wert. Also seien wir realistisch: Der überwiegende Teil der Kunden, die kurzfristig Krypto benötigen, wird Web2-Kunden sein, da die Web3-Kunden, die tatsächlich Krypto benötigen, nur einen kleinen Teil dieser 2,7 Billionen Dollar ausmachen werden (bedenken Sie, dass BTC die Hälfte dieses Marktes ausmacht und BTC selbst kein Krypto benötigt/verwendet).

Web3-KI-Anwendungsfälle stehen erst am Anfang und es ist überhaupt nicht klar, wie groß dieser Markt sein wird. Aber eins ist intuitiv sicher - es wird in absehbarer Zukunft nur einen kleinen Bruchteil des Web2-Marktes ausmachen. Wir glauben, dass Web3-KI immer noch eine vielversprechende Zukunft hat, aber das bedeutet einfach, dass die leistungsstärkste Anwendung von Web3-KI vorerst darin besteht, Web2-Kunden zu bedienen.

Beispiele für Web2-Kunden, die hypothetisch von Web3-KI profitieren könnten, sind:

  • Vertical-spezifische Softwareunternehmen, die von Grund auf für KI-zentriertes Arbeiten entwickelt wurden (z.B. cedar.ai oder observe.ai)
  • Großunternehmen, die Modelle für ihre eigenen Zwecke optimieren (z. B. Netflix)
  • schnell wachsende KI-Anbieter (z. B. anthropisch)
  • Softwareunternehmen, die KI in ihre bestehenden Produkte einfließen lassen (z. B. Canva)

Dies ist eine relativ stabile Kundenpersona, da die Kunden in der Regel groß und wertvoll sind. Es ist unwahrscheinlich, dass sie in absehbarer Zeit in Konkurs gehen, und sie stellen sehr große potenzielle Kunden für Krypto-Dienstleistungen dar. Web3 Krypto-Dienstleistungen, die Web2-Kunden bedienen, werden von dieser stabilen Kundenbasis profitieren.

Aber warum sollte ein Web2-Kunde einen Web3-Stack verwenden wollen? Der Rest dieses Beitrags stellt diesen Fall dar.

tatsächlicher Vorteil #2: Senkung der Kosten für die Verwendung von GPUs durch GPU-Depinning

GPU-DEPINs aggreGate.io nicht ausgelastete GPU-Rechenleistung (von denen die zuverlässigsten aus Rechenzentren stammen) und stellen sie für KI-Inferenz zur Verfügung (ein Beispiel hierfür ist io.net, das ein Portfolio-Unternehmen von Fonds ist, die von Hack VC verwaltet werden). Ein einfacher Weg, um darüber nachzudenken, ist "Airbnb für GPUs" (effektiv die gemeinsame Nutzung unterausgelasteter Vermögenswerte).

Der Grund, warum wir uns über GPU-Depins freuen, ist, dass es, wie oben erwähnt, einen Mangel an Nvidia-Chips gibt und derzeit ungenutzte GPU-Zyklen vorhanden sind, die für KI-Inferenz genutzt werden können. Diese Hardware-Besitzer haben bereits Kosten getragen und nutzen ihre Ausrüstung heute nicht vollständig aus und können daher diese Bruchteile von GPU-Zyklen zu einem viel geringeren Preis im Vergleich zum Status quo anbieten, da es für die Hardware-Besitzer effektiv "gefundenes Geld" ist.

Beispiele sind:

  • AWS-Maschinen. Wenn Sie heute einen H100 von AWS mieten würden, müssten Sie sich für einen 1-Jahres-Vertrag entscheiden, da der Markt knapp ist. Dies führt zu Verschwendung, da Sie Ihren GPU wahrscheinlich nicht an 365 Tagen im Jahr, 7 Tagen pro Woche nutzen werden.
  • Filecoin-Mining-Hardware. Filecoin ist ein Netzwerk mit einer großen Menge an subventioniertem Angebot, aber nicht einer signifikanten Menge an echter Nachfrage. Leider hat Filecoin nie wirklich das richtige Produkt-Markt-Fit gefunden, so dass Filecoin-Miner in Gefahr sind, ihr Geschäft aufzugeben. Diese Maschinen haben GPUs und können für AI-Inferenzaufgaben mit niedrigerer Leistung umfunktioniert werden.
  • eth Mining-Hardware. Als eth von PoW auf PoS umstellte, wurde sofort eine große Menge an Hardware verfügbar, die für KI-Inferenz umgewidmet werden konnte.

Beachten Sie, dass nicht alle GPU-Hardware für die KI-Inferenz geeignet ist. Ein offensichtlicher Grund dafür ist, dass ältere GPUs nicht über die erforderliche Menge an GPU-Speicher für LLMS verfügen, obwohl es hier einige interessante Innovationen gegeben hat.Exabits, zum Beispiel, hat Technologie, die aktive Neuronen in den GPU-Speicher lädt und inaktive Neuronen in den CPU-Speicher. Sie sagen voraus, welche Neuronen aktiv / inaktiv sein müssen. Dies ermöglicht es, dass Low-End-GPUs KI-Workloads verarbeiten, auch mit begrenztem GPU-Speicher. Dies macht Low-End-GPUs effektiv nützlicher für KI-Inferenz.

Beachten Sie auch, dass Web3 KI-Depins im Laufe der Zeit ihre Angebote verfestigen und Unternehmensdienstleistungsangebote wie Single Sign-On, SOC 2-Konformität, Service-Level-Vereinbarungen (SLAs) und mehr anbieten müssen. Dies würde die Dienste unter den aktuellen Cloud-Angeboten widerspiegeln, die Web2-Kunden derzeit genießen.

Echter Vorteil #3: Unzensierte Modelle, um OpenAI-Selbstzensur zu vermeiden

Es wurde viel über die Zensur von KI gesprochen. Die Türkei zum Beispiel hat vorübergehend OpenAI verboten (sie haben später den Kurs geändert, als OpenAI seine Einhaltung verbessert hat). Wir glauben, dass diese Art von Zensur auf Länderebene grundsätzlich uninteressant ist, da Länder KI annehmen müssen, um wettbewerbsfähig zu bleiben.

Was noch interessanter ist, ist, dass OpenAI sich selbst zensiert. Zum Beispiel wird OpenAI keinen NSFW-Inhalt behandeln. Noch wird OpenAI die nächste Präsidentschaftswahl vorhersagen. Wir denken, dass es einen interessanten und großen Markt für Anwendungsfälle von KI gibt, die OpenAI aus politischen Gründen nicht berühren wird.

Open-Source ist eine großartige Lösung dafür, da ein GitHub-Repository weder Aktionären noch einem Vorstand verpflichtet ist. Ein Beispiel dafür ist Venice.ai, das verspricht, Ihre Privatsphäre zu schützen und in einer unzensierten Weise zu agieren. Der Schlüssel ist natürlich die Open-Source-Technologie, die dies ermöglicht. Was Web3 AI effektiv bieten kann, ist die Unterstützung dieser Open-Source-Software-Modelle (OSS) in einem kostengünstigen GPU-Cluster, um diese Inferenz durchzuführen. Aus diesen Gründen glauben wir, dass OSS + Web3 die ideale Kombination sind, um den Weg für unzensierte KI zu ebnen.

echter Vorteil #4: Vermeidung der Übermittlung von persönlich identifizierbaren Informationen an OpenAI

Viele große Unternehmen haben Bedenken hinsichtlich der Privatsphäre ihrer internen Unternehmensdaten. Für diese Kunden kann es äußerst schwierig sein, einem zentralisierten Dritten wie OpenAI diese Daten anzuvertrauen.

Mit Web3 kann es (oberflächlich betrachtet) für diese Unternehmen noch gruseliger erscheinen, da ihre internen Daten plötzlich in einem dezentralen Netzwerk liegen. Es gibt jedoch einige Innovationen in der Krypto-Technologie zur Verbesserung der Privatsphäre für KI:

  • Vertrauenswürdige Ausführungsumgebungen (TEE) wie die Super Protokoll
  • vollständig homomorphe Verschlüsselung (FHE) wie Fhenix.io(ein Portfoliounternehmen eines von Hack VC verwalteten Fonds) oder Inco-Netzwerk (von denen jeder angetrieben wird durch Zama.ai), und Bagels ppml

Diese Technologien entwickeln sich noch immer weiter, und die Leistung verbessert sich weiterhin durch kommende Zero-Knowledge (ZK) und FHE-ASICs. Das langfristige Ziel ist jedoch, die Unternehmensdaten beim Feintuning eines Modells zu schützen. Mit dem Aufkommen dieser Protokolle könnte Web3 zu einem attraktiveren Ort für die datenschutzfreundliche KI-Berechnung werden.

Echter Vorteil Nr. 5: Nutzen Sie die neuesten Innovationen in Open-Source-Modellen

OSS hat in den letzten Jahrzehnten kontinuierlich den Marktanteil proprietärer Software erodiert. Wir betrachten ein LLM einfach als eine schicke Form von proprietärer Software, die für OSS-Störungen bereit ist. Einige bemerkenswerte Beispiele für Herausforderer sind Lama, RWKV, und Mistral.ai. Diese Liste wird zweifellos mit der Zeit wachsen (eine umfassendere Liste finden Sie unter Openrouter.ai). Durch die Nutzung von Web3 AI (unterstützt durch OSS-Modelle) kann man von diesen neuen Innovationen profitieren.

Wir glauben, dass im Laufe der Zeit eine Open-Source-Entwicklungsarbeiterschaft in Kombination mit Krypto-Anreizen schnelle Innovationen in Open-Source-Modellen sowie in den darauf aufbauenden Agenten und Frameworks vorantreiben kann. Ein Beispiel für ein KI-Agentenprotokoll ist TheoriqTheoriq nutzt OSS-Modelle, um ein zusammensetzbares, verbundenes Netzwerk von KI-Agenten zu schaffen, die zusammengefügt werden können, um höherstufige KI-Lösungen zu erstellen.

Der Grund, warum wir hier überzeugt sind, liegt in der Vergangenheit: Die meisten „Entwicklersoftware“ wurde im Laufe der Zeit langsam von OSS überholt. Microsoft war früher ein proprietäres Softwareunternehmen, und jetzt sind sie das #1 Unternehmen, das zu GitHub beiträgt, und das hat seinen Grund. Wenn man sich ansieht, wie Databricks, PostgresQL, MongoDB und andere proprietäre Datenbanken gestört haben, ist das ein Beispiel für eine gesamte Branche, die von OSS auf den Kopf gestellt wurde, also ist das Präzedenzfall hier recht stark.

Dies hat jedoch einen Haken. Eines der kniffligen Dinge bei OSS LLMS ist, dass OpenAI begonnen hat, kostenpflichtige Datenlizenzvereinbarungen mit Organisationen wie Reddit und der New York Times zu schließen. Wenn sich dieser Trend fortsetzt, könnte es für OSS LLMS aufgrund der finanziellen Hürde, die mit dem Erwerb von Daten verbunden ist, schwieriger werden, zu konkurrieren. Es ist möglich, dass Nvidia sich verstärkt auf vertrauliches Computing als sicheren Datenfreigabemöglichkeit konzentriert. Die Zeit wird zeigen, wie sich das entwickelt.

Echter Nutzen Nr. 6: Konsens wird durch zufällige Stichproben mit hohen Strafkosten oder durch zk-Beweise erreicht.

Eine der Herausforderungen bei der Krypto-KI-Inferenz ist die Verifizierung. Es besteht eine hypothetische Möglichkeit, dass Validatoren bei ihren Ergebnissen betrügen, um Gebühren zu verdienen. Daher ist die Überprüfung von Inferenzen eine wichtige Maßnahme. Beachten Sie, dass dieser Betrug noch nicht tatsächlich stattgefunden hat, da die KI-Inferenz noch in den Kinderschuhen steckt. Es ist jedoch unvermeidlich, es sei denn, es werden Maßnahmen ergriffen, um dieses Verhalten zu entmutigen.

Der Standard-Ansatz von Web3 besteht darin, dass mehrere Validatoren dieselbe Operation wiederholen und die Ergebnisse vergleichen. Die offensichtliche Herausforderung dabei ist, wie bereits erwähnt, dass KI-Inferenz aufgrund des derzeitigen Mangels an hochwertigen Nvidia-Chips teuer ist. Da Web3 jedoch kostengünstigere Inferenz über unterausgelastete GPU-Depins bieten kann, würde redundante Berechnung den Web3-Wertvorschlag erheblich beeinträchtigen.

Eine vielversprechendere Lösung besteht darin, einen zk-Proof für Off-Chain-AI-Inferenzberechnungen durchzuführen. In diesem Fall kann der prägnante zk-Proof überprüft werden, um festzustellen, ob ein Modell ordnungsgemäß trainiert wurde oder ob die Inferenz ordnungsgemäß ausgeführt wurde (bekannt als zkml). Beispiele hierfür sind: Modulus LabsundZKonduit. die Leistung dieser Lösungen ist noch in den Kinderschuhen, da zk-Operationen ziemlich rechenintensiv sind. Wir gehen jedoch davon aus, dass sich dies wahrscheinlich verbessern wird, wenn zk-Hardware-ASICs in naher Zukunft veröffentlicht werden.

Noch vielversprechender ist die Idee eines etwas "optimistischen" samplingbasierten KI-Inferenzansatzes. In diesem Modell würden Sie nur einen winzigen Prozentsatz der von den Validatoren generierten Ergebnisse überprüfen, aber die wirtschaftlichen Kosten für das Slashing so hoch setzen, dass bei Entdeckung ein starker wirtschaftlicher Anreiz für die Validatoren entsteht. Auf diese Weise sparen Sie bei redundantem Computing (z. B. sieheHyperbolisch’s Nachweis der Papierprobenentnahme).

eine weitere vielversprechende Idee ist eine Wasserzeichen- und Fingerabdrucklösung, wie sie von einem vorgeschlagen wurde.Bagel-Netzwerk. Dies ist ähnlich wie der Mechanismus von Amazon Alexa zur Qualitätskontrolle von On-Device-KI-Modellen für ihre Millionen von Geräten.

echter Vorteil Nr. 7: Einsparungen bei Gebühren (OpenAI-Marge) über OSS

Die nächste Gelegenheit, die Web3 der KI bietet, besteht darin, Kosten zu demokratisieren. Bisher haben wir über die Einsparung von GPU-Kosten über Depins gesprochen. Aber Web3 bietet auch Möglichkeiten, Gewinnmargen von zentralisierten Web2-KI-Diensten (z. B. OpenAI, das zum Zeitpunkt des Verfassens dieses Textes über 1 Mrd. USD/Jahr Umsatz erzielt) zu sparen. Diese Kosteneinsparungen ergeben sich daraus, dass OSS-Modelle verwendet werden, anstelle von proprietären Modellen für eine zusätzliche Einsparungsebene, da der Modellersteller keinen Gewinn erzielen möchte.

Viele OSS-Modelle bleiben vollständig kostenlos, was die bestmögliche Wirtschaftlichkeit für Kunden ermöglicht. Es kann jedoch auch einige OSS-Modelle geben, die diese Monetarisierungsmethoden versuchen. Beachten Sie, dass nur 4% der insgesamt verfügbaren Modelle auf Hugging Face von Unternehmen mit Budgets trainiert werden, um die Modelle zu subventionieren (siehe hierDie verbleibenden 96% der Modelle werden von der Community trainiert. Diese Kohorte – 96% von Hugging Face – hat grundlegende reale Kosten (einschließlich Rechen- und Datenkosten). Daher müssen diese Modelle auf irgendeine Weise monetarisiert werden.

Es gibt eine Reihe von Vorschlägen, um diese Krypto-Monetarisierung von Modellen zu erreichen. Einer der interessantesten ist das Konzept eines „Initial Model Offering“ (IMO), bei dem Sie das Modell selbst tokenisieren, einen Prozentsatz der Token für das Team zurückhalten und einige zukünftige Einnahmen aus diesem Modell an die Token-Inhaber fließen lassen, obwohl es dort offensichtlich einige rechtliche und regulatorische Hürden gibt.

Andere OSS-Modelle werden versuchen, Einnahmen durch die Nutzung zu erzielen. Beachten Sie, dass, wenn dies zur Verwirklichung kommt, die OSS-Modelle zunehmend ihren web2-Gewinn generierenden Gegenstücken ähneln können. Aber realistisch betrachtet wird der Markt bifurziert sein, wobei einige Modelle vollkommen kostenlos bleiben.

echter Vorteil Nr. 8: dezentrale Datengewinnung

Eine der größten Herausforderungen bei KI besteht darin, die richtigen Daten zum Trainieren Ihrer Modelle zu beschaffen. Wir haben bereits erwähnt, dass dezentrales KI-Training seine Herausforderungen hat. Aber was ist mit der Verwendung eines dezentralen Netzwerks zur Beschaffung von Daten (die dann sogar für das Training an anderen Orten, auch in traditionellen Web2-Bereichen, verwendet werden können)?

Das ist genau das, was Startups wie Grasmachen. Grass ist ein dezentrales Netzwerk von "Daten-Scrapern", Personen, die die ungenutzte Rechenleistung ihres Geräts zur Beschaffung von Daten für das Training von KI-Modellen beitragen. Theoretisch kann diese Datenbeschaffung in großem Maßstab überlegen sein im Vergleich zu den internen Bemühungen eines einzelnen Unternehmens, Daten zu beschaffen, aufgrund der enormen Leistung eines großen Netzwerks von incentivierten Knotenpunkten. Dies umfasst nicht nur die Beschaffung von mehr Daten, sondern auch die Beschaffung dieser Daten in kürzeren Abständen, so dass die Daten relevanter und aktueller sind. Es ist auch praktisch unmöglich, eine dezentrale Armee von Daten-Scrapern zu stoppen, da sie von Natur aus fragmentiert sind und nicht an einer einzigen IP-Adresse ansässig sind. Sie verfügen außerdem über ein Netzwerk von Menschen, die die Daten bereinigen und normalisieren können, so dass sie nach dem Scraping nützlich sind.

Sobald Sie die Daten haben, benötigen Sie auch einen Speicherplatz on-chain sowie die mit diesen Daten generierten LLMS.0g.AIist der frühe Marktführer in dieser Kategorie. Es handelt sich um eine Krypto-optimierte Hochleistungs-Web3-Speicherlösung, die deutlich günstiger ist als AWS (ein weiterer wirtschaftlicher Gewinn für Web3 AI) und gleichzeitig als Datenverfügbarkeitsinfrastruktur für Layer 2s, AI und mehr dient.

Beachten Sie, dass die Rolle von Daten in Web3 AI in Zukunft möglicherweise anders sein könnte. Heutzutage ist der aktuelle Status quo für LLMS, ein Modell mit Daten vorzuschulen und es im Laufe der Zeit mit mehr Daten zu verfeinern. Diese Modelle sind jedoch immer leicht veraltet, da sich die Daten im Internet in Echtzeit ändern. Daher sind die Antworten aus der LLMS-Inferenz leicht ungenau.

Die Zukunft, in die die Welt möglicherweise steuert, ist ein neues Paradigma - „Echtzeit“-Daten. Das Konzept besteht darin, dass ein LLM bei einer Schlussfolgerungsfrage Daten in Echtzeit aus dem Internet in den LLM einspeisen kann. Auf diese Weise verwendet der LLM die aktuellsten verfügbaren Daten. Grass forscht ebenfalls in diesem Bereich.

Schlussfolgerung

Wir hoffen, dass dies eine nützliche Analyse für Sie darstellt, wenn Sie über Versprechen vs. Realitäten von Web3 AI nachdenken. Dies ist nur ein Ausgangspunkt für das Gespräch, und das Umfeld verändert sich schnell, also zögern Sie bitte nicht, sich zu beteiligen und auch Ihre Ansichten auszudrücken, denn wir würden gerne weiterhin gemeinsam lernen und wachsen.

Danksagungen

ein ganz besonderer Dank an Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng und Jw Wang für ihr Feedback und ihre Beiträge zu diesem Beitrag.


Die hierin enthaltenen Informationen dienen nur allgemeinen Informationszwecken und stellen keine Anlageberatung dar und sollten nicht zur Bewertung von Anlageentscheidungen herangezogen werden. Solche Informationen sollten nicht für Buchhaltung, Rechts-, Steuer-, Geschäfts-, Investitions- oder andere relevante Beratungszwecke herangezogen werden. Sie sollten sich für Buchhaltung, Rechts-, Steuer-, Geschäfts-, Investitions- oder andere relevante Beratung, einschließlich allem, was hierin besprochen wird, an Ihre eigenen Berater, einschließlich Ihres eigenen Rechtsbeistands, wenden.

Dieser Beitrag spiegelt die aktuellen Meinungen der Autor(en) wider und wird nicht im Namen von Hack VC oder seinen Tochtergesellschaften, einschließlich der von Hack VC verwalteten Fonds, veröffentlicht. Er spiegelt nicht unbedingt die Meinungen von Hack VC, seinen Tochtergesellschaften, einschließlich seiner Partnergesellschaften, oder anderen mit Hack VC verbundenen Personen wider. Einige hier enthaltene Informationen stammen aus veröffentlichten Quellen und / oder wurden von Dritten erstellt und in bestimmten Fällen nicht bis zum heutigen Datum aktualisiert. Obwohl solche Quellen als zuverlässig erachtet werden, machen weder Hack VC, seine Tochtergesellschaften, einschließlich seiner Partnergesellschaften, noch andere mit Hack VC verbundene Personen Aussagen über deren Genauigkeit oder Vollständigkeit, und sie sollten nicht als solche oder als Grundlage für eine Buchhaltung, Rechts-, Steuer-, Geschäfts-, Investitions- oder andere Entscheidungen herangezogen werden. Die hier enthaltenen Informationen erheben keinen Anspruch auf Vollständigkeit und unterliegen Änderungen, und Hack VC hat keine Verpflichtung, solche Informationen zu aktualisieren oder eine Benachrichtigung zu erstellen, wenn solche Informationen ungenau werden.

Vergangene Leistungen sind nicht unbedingt ein Hinweis auf zukünftige Ergebnisse. Alle hierin gemachten zukunftsgerichteten Aussagen beruhen auf bestimmten Annahmen und Analysen des Autors im Lichte seiner Erfahrung und Wahrnehmung historischer Trends, aktueller Bedingungen und erwarteter zukünftiger Entwicklungen sowie anderer Faktoren, die er unter den gegebenen Umständen für angemessen hält. Solche Aussagen sind keine Garantien für zukünftige Leistungen und unterliegen bestimmten Risiken, Unsicherheiten und Annahmen, die schwer vorhersehbar sind.

Erklärung:

  1. Dieser Artikel stammt aus [Hack-vc], der ursprüngliche Titel „ai x crypto - Versprechen und Realitäten“, das Urheberrecht gehört dem ursprünglichen Autor [ed roman, managing partner bei hack vc], wenn Sie Einwände gegen den Nachdruck haben, kontaktieren Sie bitteGate Learn Team, das Team wird es so schnell wie möglich gemäß den relevanten Verfahren behandeln.

  2. Haftungsausschluss: Die Ansichten und Meinungen, die in diesem Artikel zum Ausdruck gebracht werden, stellen nur die persönlichen Ansichten des Autors dar und stellen keine Anlageberatung dar.

  3. Andere Sprachversionen des Artikels werden vom Gate.io-Lernteam übersetzt, nicht erwähnt in Gate.io, der übersetzte Artikel darf nicht reproduziert, verteilt oder plagiiert werden.

AI x Krypto - Versprechen und Realitäten

Fortgeschrittene7/13/2024, 3:21:16 PM
AI+Krypto ist eines der bemerkenswertesten Grenzbereiche auf dem aktuellen Kryptowährungsmarkt. Dies umfasst dezentrales KI-Training, GPU DePINs und zensurresistente KI-Modelle. Das Hauptproblem beim KI-Training liegt in der Notwendigkeit einer schnellen Kommunikation und Koordination zwischen GPUs, da neuronale Netze während des Trainings eine Rückpropagation erfordern. Die Einführung eines dezentralen Netzwerks kann den Prozess aufgrund erhöhter Netzwerklatenz und Bandbreite erheblich verlangsamen. Dieser Artikel organisiert auch Lösungen für die aktuellen Herausforderungen und bietet Beispiele dafür, wie die Integration von Kryptowährung und KI einen erheblichen Mehrwert bringen kann.

Künstliche Intelligenz ist derzeit eine der heißesten und vielversprechendsten Kategorien auf den Kryptomärkten.

💡Dezentrales KI-Training

💡gpu depins

💡ungefilterte KI-Modelle

Sind das Durchbrüche oder nur Schlagworte? 🤔

Bei hack vc trennen wir uns vom Lärm, um Versprechen von Realität zu trennen.

Dieser Beitrag analysiert die Top-Krypto-x-AI-Ideen. Lassen Sie uns über die realen Herausforderungen und Chancen diskutieren.

Ideen mit anfänglichem Potenzial, die jedoch in der Realität auf Herausforderungen gestoßen sind.

Zuerst wollen wir mit dem „Versprechen von Web3 KI“ beginnen – Ideen, die ziemlich gehyped werden, aber deren Realität möglicherweise nicht so glänzend ist.

Idee #1: dezentrales KI-Training

Das Problem beim Training von KI on-chain besteht darin, dass das Training eine schnelle Kommunikation und Koordination zwischen GPUs erfordert, da neuronale Netzwerke bei der Schulung eine Rückpropagation erfordern. Nvidia hat hierfür zwei Innovationen (NVLink und InfiniBandDiese Technologien ermöglichen eine ultraschnelle Kommunikation zwischen GPUs, sind jedoch nur innerhalb von GPU-Clustern in einem einzelnen Rechenzentrum anwendbar (mit Geschwindigkeiten von 50+ Gigabit).

Wenn Sie ein dezentralisiertes Netzwerk ins Spiel bringen, sind Sie plötzlich um Größenordnungen langsamer aufgrund der hinzugefügten Netzwerklatenz und Bandbreite. Das ist ein Ausschlusskriterium für KI-Trainingsszenarien im Vergleich zur Durchsatzrate, die Sie von Nvidias Hochgeschwindigkeits-Verbindung innerhalb eines Rechenzentrums erhalten.

Beachten Sie, dass es hier einige Innovationen gegeben hat, die möglicherweise Hoffnung für die Zukunft bieten könnten:

  • Verteiltes Training über InfiniBand findet in erheblichem Maßstab statt, da Nvidia selbst verteiltes, nicht-lokales Training über InfiniBand über die Nvidia Collective Communications Library unterstützt. Es ist jedoch noch in den Kinderschuhen, daher sind die Übernahmemetriken noch zu bestimmen. Siehe hierDer Engpass, der durch die Gesetze der Physik über Entfernungen entsteht, gilt immer noch, sodass lokales Training über InfiniBand immer noch deutlich schneller ist.
  • Es wurde eine neue Forschung veröffentlicht, die sich auf dezentrales Training konzentriert und auf weniger Kommunikationssynchronisationen angewiesen ist, was in Zukunft dezentrales Training möglicherweise praktischer machen könnte. Siehehierundhier.
  • Intelligentes Sharding und Planen des Modelltrainings können zur Verbesserung der Leistung beitragen. Ebenso können zukünftig neue Modellarchitekturen speziell für verteilte Infrastrukturen entworfen werden (gensyn forscht in diesen Bereichen).

Der Datenteil des Trainings ist ebenfalls herausfordernd. Jeder KI-Trainingsprozess beinhaltet die Arbeit mit großen Datenmengen. Normalerweise werden Modelle auf zentralisierten und sicheren Datenspeichersystemen mit hoher Skalierbarkeit und Leistung trainiert. Dies erfordert die Übertragung und Verarbeitung von Terabytes an Daten, und dies geschieht nicht nur einmalig. Daten sind in der Regel fehlerhaft und enthalten Fehler, daher müssen sie vor dem Training des Modells gereinigt und in ein verwendbares Format transformiert werden. Dieser Schritt beinhaltet wiederholte Aufgaben der Normalisierung, Filterung und Bearbeitung von fehlenden Werten. Dies stellt alles ernsthafte Herausforderungen in einer dezentralen Umgebung dar.

Der Datenbestand des Trainings ist ebenfalls iterativ, was sich nicht gut für Web3 eignet. OpenAI benötigte Tausende von Iterationen, um seine Ergebnisse zu erzielen. Das grundlegendste Aufgabenszenario für einen Data Science-Spezialisten in einem KI-Team umfasst das Definieren von Zielen, das Vorbereiten von Daten sowie das Analysieren und Strukturieren von Daten, um wichtige Erkenntnisse zu gewinnen und sie für das Modellieren geeignet zu machen. Anschließend wird ein maschinelles Lernmodell entwickelt, um das definierte Problem zu lösen, und seine Leistung wird mithilfe eines Testdatensatzes validiert. Dieser Prozess ist iterativ: Wenn das aktuelle Modell nicht wie erwartet funktioniert, kehrt der Spezialist zur Datensammlung oder zum Modellierungsschritt zurück, um die Ergebnisse zu verbessern. Stellen Sie sich nun diesen Prozess in einer dezentralen Umgebung vor, in der erstklassige vorhandene Frameworks und Tools in Web3 nicht leicht verfügbar sind.

Das andere Problem beim Training von KI-Modellen on-chain ist, dass es im Vergleich zu Inferenzmärkten viel weniger interessant ist. Derzeit wird eine enorme Menge an GPU-Computing für das Training von KI-LLM verwendet. Aber langfristig wird die Inferenz (bei weitem) der häufigere Anwendungsfall von GPUs sein. Bedenken Sie: Wie viele KI-LLMs müssen trainiert werden, damit die Welt glücklich ist, im Vergleich zur Anzahl der Kunden, die diese Modelle nutzen werden?

Eine Lösung, die in allen Bereichen Fortschritte macht, ist 0g.ai (unterstützt von Hack VC), die sowohl die Speicherung von On-Chain-Daten als auch die Datenverfügbarkeitsinfrastruktur bieten. Ihre ultraschnelle Architektur und die Fähigkeit, große Datenmengen On-Chain zu speichern, ermöglichen schnelles, iteratives On-Chain-AI-Modelltraining jeder Art.

Idee #2: Verwendung einer übermäßig redundanten Berechnung von KI-Inferenz für Konsens

Eine der Herausforderungen bei Krypto x AI besteht darin, die Genauigkeit von AI-Inferenz zu überprüfen, da man nicht unbedingt einer einzigen zentralisierten Partei vertrauen kann, diese Inferenz aufgrund des Potenzials für schlecht funktionierende Knoten auszuführen. Diese Herausforderung besteht bei Web2 AI nicht, da es kein dezentrales Konsenssystem gibt.

Ein vorgeschlagener Lösungsansatz dafür ist redundante Berechnung, bei der mehrere Knoten die gleiche KI-Inferenzoperation wiederholen, sodass Sie auf vertrauenswürdige Weise arbeiten können, ohne einen einzigen Fehlerpunkt zu haben.

Das Problem bei diesem Ansatz ist, dass wir in einer Welt mit einem drastischen Mangel an High-End-KI-Chips leben. Es gibt eine mehrjährige Wartezeit für High-End-Nvidia-Chips, was zu Preiserhöhungen führt. Wenn Sie außerdem erfordern, dass Ihre KI-Inferenz mehrmals auf mehreren Knoten neu ausgeführt wird, multiplizieren Sie nun diese teuren Kosten. Dies wird für viele Projekte nicht in Frage kommen.

Idee #3: Web3-spezifische KI-Anwendungsfälle in naher Zukunft

Es wurden Vorschläge gemacht, dass Web3 eigene, einzigartige KI-Anwendungsfälle haben sollte, die spezifisch für Web3-Kunden sind. Dies könnte zum Beispiel ein Web3-Protokoll sein, das KI verwendet, um das Risiko-Scoren eines DeFi-Pools durchzuführen, eine Web3-Wallet, die Ihnen basierend auf Ihrer Wallet-Historie neue Protokolle vorschlägt, oder ein Web3-Spiel, das KI verwendet, um Nicht-Spieler-Charaktere (NPCs) zu steuern.

Im Moment ist dies (auf kurze Sicht) ein aufstrebender Markt, in dem Anwendungsfälle noch entdeckt werden. Einige Herausforderungen sind:

  • Für web3-native Anwendungsfälle sind weniger potenzielle AI-Transaktionen erforderlich, da die Marktnachfrage noch in den Kinderschuhen steckt.
  • weniger Kunden, da es im Vergleich zu Web2-Kunden orders of magnitude weniger Web3-Kunden gibt, ist der Markt weniger fragmentiert.
  • Die Kunden selbst sind weniger stabil, da es sich um Startups mit weniger Finanzierung handelt. Einige dieser Startups können im Laufe der Zeit sterben. Ein Web3-AI-Dienstleister, der sich an Web3-Kunden richtet, wird wahrscheinlich im Laufe der Zeit einen Teil seiner Kundenbasis wiedererwerben müssen, um diejenigen zu ersetzen, die sterben, was das Skalieren des Geschäfts herausfordernder macht.

auf lange Sicht sind wir sehr optimistisch in Bezug auf web3-native KI-Anwendungsfälle, insbesondere da KI-Agenten immer häufiger werden. Wir stellen uns eine Zukunft vor, in der jeder Web3-Benutzer von einer Vielzahl von KI-Agenten unterstützt wird. Der frühe Kategorieführer dafür ist Theoriq (unterstützt von hack vc), die komponierbare und autonome on-chain KI-Agenten ermöglicht.

Idee Nr. 4: Consumer-Grade-GPU Depins

Es gibt eine Reihe von dezentralen Krypto AI-Compute-Netzwerken, die auf GPUs der Verbraucherebene anstelle von Rechenzentren angewiesen sind. Verbraucher-GPUs sind praktisch für Low-End-AI-Inferenzaufgaben oder für Verbraucheranwendungsfälle, bei denen Latenz, Durchsatz und Zuverlässigkeit flexibel sind. Aber für ernsthafte Enterprise-Anwendungsfälle (die die Mehrheit des relevanten Marktes ausmachen), möchten Kunden ein Netzwerk mit höherer Zuverlässigkeit im Vergleich zu privaten Computern und benötigen oft höherwertige GPUs, wenn sie komplexere Inferenzaufgaben haben. Rechenzentren sind für diese wertvolleren Kundenanwendungsfälle besser geeignet.

Beachten Sie, dass wir Consumer-Grade-GPUs als nützlich für Demo-Zwecke oder für Einzelpersonen und Startups betrachten, die eine geringere Zuverlässigkeit tolerieren können. Diese Kunden sind jedoch grundsätzlich weniger wertvoll, daher glauben wir, dass Depins, die auf Web2-Unternehmen ausgerichtet sind, langfristig wertvoller sein werden. Daher haben sich die bekannten GPU-Depin-Projekte im Allgemeinen von den Anfangstagen mit größtenteils Consumer-Grade-Hardware zu einer Verfügbarkeit von A100/H100 und Cluster-Level entwickelt.

Realität - die praktischen und realistischen Anwendungsfälle von Krypto x KI

Lassen Sie uns nun über Anwendungsfälle sprechen, die "echte Vorteile" bieten. Dies sind tatsächliche "Gewinne", bei denen Krypto x AI einen erheblichen Mehrwert bieten kann.

Echter Vorteil Nr. 1: Bedienung von Web2-Kunden

mckinseySchätzungenDass generative KI jährlich in den 63 analysierten Anwendungsfällen das Äquivalent von 2,6 Billionen bis 4,4 Billionen US-Dollar hinzufügen könnte - im Vergleich dazu betrug das gesamte BIP des Vereinigten Königreichs im Jahr 2021 3,1 Billionen US-Dollar. Dies würde die Auswirkungen aller künstlichen Intelligenz um 15% bis 40% erhöhen. Diese Schätzung würde sich ungefähr verdoppeln, wenn wir die Auswirkungen des Einbettens generativer KI in Software einbeziehen, die derzeit für andere Aufgaben jenseits dieser Anwendungsfälle verwendet wird.

Wenn Sie die obige Schätzung durchrechnen, bedeutet dies, dass der Gesamtmarkt für Krypto (jenseits von generativem Krypto) weltweit im Bereich von zig Billionen Dollar liegen könnte. Zum Vergleich: Alle Kryptowährungen zusammen, einschließlich Bitcoin und jeder Altcoin, sind heute nur etwa 2,7 Billionen Dollar wert. Also seien wir realistisch: Der überwiegende Teil der Kunden, die kurzfristig Krypto benötigen, wird Web2-Kunden sein, da die Web3-Kunden, die tatsächlich Krypto benötigen, nur einen kleinen Teil dieser 2,7 Billionen Dollar ausmachen werden (bedenken Sie, dass BTC die Hälfte dieses Marktes ausmacht und BTC selbst kein Krypto benötigt/verwendet).

Web3-KI-Anwendungsfälle stehen erst am Anfang und es ist überhaupt nicht klar, wie groß dieser Markt sein wird. Aber eins ist intuitiv sicher - es wird in absehbarer Zukunft nur einen kleinen Bruchteil des Web2-Marktes ausmachen. Wir glauben, dass Web3-KI immer noch eine vielversprechende Zukunft hat, aber das bedeutet einfach, dass die leistungsstärkste Anwendung von Web3-KI vorerst darin besteht, Web2-Kunden zu bedienen.

Beispiele für Web2-Kunden, die hypothetisch von Web3-KI profitieren könnten, sind:

  • Vertical-spezifische Softwareunternehmen, die von Grund auf für KI-zentriertes Arbeiten entwickelt wurden (z.B. cedar.ai oder observe.ai)
  • Großunternehmen, die Modelle für ihre eigenen Zwecke optimieren (z. B. Netflix)
  • schnell wachsende KI-Anbieter (z. B. anthropisch)
  • Softwareunternehmen, die KI in ihre bestehenden Produkte einfließen lassen (z. B. Canva)

Dies ist eine relativ stabile Kundenpersona, da die Kunden in der Regel groß und wertvoll sind. Es ist unwahrscheinlich, dass sie in absehbarer Zeit in Konkurs gehen, und sie stellen sehr große potenzielle Kunden für Krypto-Dienstleistungen dar. Web3 Krypto-Dienstleistungen, die Web2-Kunden bedienen, werden von dieser stabilen Kundenbasis profitieren.

Aber warum sollte ein Web2-Kunde einen Web3-Stack verwenden wollen? Der Rest dieses Beitrags stellt diesen Fall dar.

tatsächlicher Vorteil #2: Senkung der Kosten für die Verwendung von GPUs durch GPU-Depinning

GPU-DEPINs aggreGate.io nicht ausgelastete GPU-Rechenleistung (von denen die zuverlässigsten aus Rechenzentren stammen) und stellen sie für KI-Inferenz zur Verfügung (ein Beispiel hierfür ist io.net, das ein Portfolio-Unternehmen von Fonds ist, die von Hack VC verwaltet werden). Ein einfacher Weg, um darüber nachzudenken, ist "Airbnb für GPUs" (effektiv die gemeinsame Nutzung unterausgelasteter Vermögenswerte).

Der Grund, warum wir uns über GPU-Depins freuen, ist, dass es, wie oben erwähnt, einen Mangel an Nvidia-Chips gibt und derzeit ungenutzte GPU-Zyklen vorhanden sind, die für KI-Inferenz genutzt werden können. Diese Hardware-Besitzer haben bereits Kosten getragen und nutzen ihre Ausrüstung heute nicht vollständig aus und können daher diese Bruchteile von GPU-Zyklen zu einem viel geringeren Preis im Vergleich zum Status quo anbieten, da es für die Hardware-Besitzer effektiv "gefundenes Geld" ist.

Beispiele sind:

  • AWS-Maschinen. Wenn Sie heute einen H100 von AWS mieten würden, müssten Sie sich für einen 1-Jahres-Vertrag entscheiden, da der Markt knapp ist. Dies führt zu Verschwendung, da Sie Ihren GPU wahrscheinlich nicht an 365 Tagen im Jahr, 7 Tagen pro Woche nutzen werden.
  • Filecoin-Mining-Hardware. Filecoin ist ein Netzwerk mit einer großen Menge an subventioniertem Angebot, aber nicht einer signifikanten Menge an echter Nachfrage. Leider hat Filecoin nie wirklich das richtige Produkt-Markt-Fit gefunden, so dass Filecoin-Miner in Gefahr sind, ihr Geschäft aufzugeben. Diese Maschinen haben GPUs und können für AI-Inferenzaufgaben mit niedrigerer Leistung umfunktioniert werden.
  • eth Mining-Hardware. Als eth von PoW auf PoS umstellte, wurde sofort eine große Menge an Hardware verfügbar, die für KI-Inferenz umgewidmet werden konnte.

Beachten Sie, dass nicht alle GPU-Hardware für die KI-Inferenz geeignet ist. Ein offensichtlicher Grund dafür ist, dass ältere GPUs nicht über die erforderliche Menge an GPU-Speicher für LLMS verfügen, obwohl es hier einige interessante Innovationen gegeben hat.Exabits, zum Beispiel, hat Technologie, die aktive Neuronen in den GPU-Speicher lädt und inaktive Neuronen in den CPU-Speicher. Sie sagen voraus, welche Neuronen aktiv / inaktiv sein müssen. Dies ermöglicht es, dass Low-End-GPUs KI-Workloads verarbeiten, auch mit begrenztem GPU-Speicher. Dies macht Low-End-GPUs effektiv nützlicher für KI-Inferenz.

Beachten Sie auch, dass Web3 KI-Depins im Laufe der Zeit ihre Angebote verfestigen und Unternehmensdienstleistungsangebote wie Single Sign-On, SOC 2-Konformität, Service-Level-Vereinbarungen (SLAs) und mehr anbieten müssen. Dies würde die Dienste unter den aktuellen Cloud-Angeboten widerspiegeln, die Web2-Kunden derzeit genießen.

Echter Vorteil #3: Unzensierte Modelle, um OpenAI-Selbstzensur zu vermeiden

Es wurde viel über die Zensur von KI gesprochen. Die Türkei zum Beispiel hat vorübergehend OpenAI verboten (sie haben später den Kurs geändert, als OpenAI seine Einhaltung verbessert hat). Wir glauben, dass diese Art von Zensur auf Länderebene grundsätzlich uninteressant ist, da Länder KI annehmen müssen, um wettbewerbsfähig zu bleiben.

Was noch interessanter ist, ist, dass OpenAI sich selbst zensiert. Zum Beispiel wird OpenAI keinen NSFW-Inhalt behandeln. Noch wird OpenAI die nächste Präsidentschaftswahl vorhersagen. Wir denken, dass es einen interessanten und großen Markt für Anwendungsfälle von KI gibt, die OpenAI aus politischen Gründen nicht berühren wird.

Open-Source ist eine großartige Lösung dafür, da ein GitHub-Repository weder Aktionären noch einem Vorstand verpflichtet ist. Ein Beispiel dafür ist Venice.ai, das verspricht, Ihre Privatsphäre zu schützen und in einer unzensierten Weise zu agieren. Der Schlüssel ist natürlich die Open-Source-Technologie, die dies ermöglicht. Was Web3 AI effektiv bieten kann, ist die Unterstützung dieser Open-Source-Software-Modelle (OSS) in einem kostengünstigen GPU-Cluster, um diese Inferenz durchzuführen. Aus diesen Gründen glauben wir, dass OSS + Web3 die ideale Kombination sind, um den Weg für unzensierte KI zu ebnen.

echter Vorteil #4: Vermeidung der Übermittlung von persönlich identifizierbaren Informationen an OpenAI

Viele große Unternehmen haben Bedenken hinsichtlich der Privatsphäre ihrer internen Unternehmensdaten. Für diese Kunden kann es äußerst schwierig sein, einem zentralisierten Dritten wie OpenAI diese Daten anzuvertrauen.

Mit Web3 kann es (oberflächlich betrachtet) für diese Unternehmen noch gruseliger erscheinen, da ihre internen Daten plötzlich in einem dezentralen Netzwerk liegen. Es gibt jedoch einige Innovationen in der Krypto-Technologie zur Verbesserung der Privatsphäre für KI:

  • Vertrauenswürdige Ausführungsumgebungen (TEE) wie die Super Protokoll
  • vollständig homomorphe Verschlüsselung (FHE) wie Fhenix.io(ein Portfoliounternehmen eines von Hack VC verwalteten Fonds) oder Inco-Netzwerk (von denen jeder angetrieben wird durch Zama.ai), und Bagels ppml

Diese Technologien entwickeln sich noch immer weiter, und die Leistung verbessert sich weiterhin durch kommende Zero-Knowledge (ZK) und FHE-ASICs. Das langfristige Ziel ist jedoch, die Unternehmensdaten beim Feintuning eines Modells zu schützen. Mit dem Aufkommen dieser Protokolle könnte Web3 zu einem attraktiveren Ort für die datenschutzfreundliche KI-Berechnung werden.

Echter Vorteil Nr. 5: Nutzen Sie die neuesten Innovationen in Open-Source-Modellen

OSS hat in den letzten Jahrzehnten kontinuierlich den Marktanteil proprietärer Software erodiert. Wir betrachten ein LLM einfach als eine schicke Form von proprietärer Software, die für OSS-Störungen bereit ist. Einige bemerkenswerte Beispiele für Herausforderer sind Lama, RWKV, und Mistral.ai. Diese Liste wird zweifellos mit der Zeit wachsen (eine umfassendere Liste finden Sie unter Openrouter.ai). Durch die Nutzung von Web3 AI (unterstützt durch OSS-Modelle) kann man von diesen neuen Innovationen profitieren.

Wir glauben, dass im Laufe der Zeit eine Open-Source-Entwicklungsarbeiterschaft in Kombination mit Krypto-Anreizen schnelle Innovationen in Open-Source-Modellen sowie in den darauf aufbauenden Agenten und Frameworks vorantreiben kann. Ein Beispiel für ein KI-Agentenprotokoll ist TheoriqTheoriq nutzt OSS-Modelle, um ein zusammensetzbares, verbundenes Netzwerk von KI-Agenten zu schaffen, die zusammengefügt werden können, um höherstufige KI-Lösungen zu erstellen.

Der Grund, warum wir hier überzeugt sind, liegt in der Vergangenheit: Die meisten „Entwicklersoftware“ wurde im Laufe der Zeit langsam von OSS überholt. Microsoft war früher ein proprietäres Softwareunternehmen, und jetzt sind sie das #1 Unternehmen, das zu GitHub beiträgt, und das hat seinen Grund. Wenn man sich ansieht, wie Databricks, PostgresQL, MongoDB und andere proprietäre Datenbanken gestört haben, ist das ein Beispiel für eine gesamte Branche, die von OSS auf den Kopf gestellt wurde, also ist das Präzedenzfall hier recht stark.

Dies hat jedoch einen Haken. Eines der kniffligen Dinge bei OSS LLMS ist, dass OpenAI begonnen hat, kostenpflichtige Datenlizenzvereinbarungen mit Organisationen wie Reddit und der New York Times zu schließen. Wenn sich dieser Trend fortsetzt, könnte es für OSS LLMS aufgrund der finanziellen Hürde, die mit dem Erwerb von Daten verbunden ist, schwieriger werden, zu konkurrieren. Es ist möglich, dass Nvidia sich verstärkt auf vertrauliches Computing als sicheren Datenfreigabemöglichkeit konzentriert. Die Zeit wird zeigen, wie sich das entwickelt.

Echter Nutzen Nr. 6: Konsens wird durch zufällige Stichproben mit hohen Strafkosten oder durch zk-Beweise erreicht.

Eine der Herausforderungen bei der Krypto-KI-Inferenz ist die Verifizierung. Es besteht eine hypothetische Möglichkeit, dass Validatoren bei ihren Ergebnissen betrügen, um Gebühren zu verdienen. Daher ist die Überprüfung von Inferenzen eine wichtige Maßnahme. Beachten Sie, dass dieser Betrug noch nicht tatsächlich stattgefunden hat, da die KI-Inferenz noch in den Kinderschuhen steckt. Es ist jedoch unvermeidlich, es sei denn, es werden Maßnahmen ergriffen, um dieses Verhalten zu entmutigen.

Der Standard-Ansatz von Web3 besteht darin, dass mehrere Validatoren dieselbe Operation wiederholen und die Ergebnisse vergleichen. Die offensichtliche Herausforderung dabei ist, wie bereits erwähnt, dass KI-Inferenz aufgrund des derzeitigen Mangels an hochwertigen Nvidia-Chips teuer ist. Da Web3 jedoch kostengünstigere Inferenz über unterausgelastete GPU-Depins bieten kann, würde redundante Berechnung den Web3-Wertvorschlag erheblich beeinträchtigen.

Eine vielversprechendere Lösung besteht darin, einen zk-Proof für Off-Chain-AI-Inferenzberechnungen durchzuführen. In diesem Fall kann der prägnante zk-Proof überprüft werden, um festzustellen, ob ein Modell ordnungsgemäß trainiert wurde oder ob die Inferenz ordnungsgemäß ausgeführt wurde (bekannt als zkml). Beispiele hierfür sind: Modulus LabsundZKonduit. die Leistung dieser Lösungen ist noch in den Kinderschuhen, da zk-Operationen ziemlich rechenintensiv sind. Wir gehen jedoch davon aus, dass sich dies wahrscheinlich verbessern wird, wenn zk-Hardware-ASICs in naher Zukunft veröffentlicht werden.

Noch vielversprechender ist die Idee eines etwas "optimistischen" samplingbasierten KI-Inferenzansatzes. In diesem Modell würden Sie nur einen winzigen Prozentsatz der von den Validatoren generierten Ergebnisse überprüfen, aber die wirtschaftlichen Kosten für das Slashing so hoch setzen, dass bei Entdeckung ein starker wirtschaftlicher Anreiz für die Validatoren entsteht. Auf diese Weise sparen Sie bei redundantem Computing (z. B. sieheHyperbolisch’s Nachweis der Papierprobenentnahme).

eine weitere vielversprechende Idee ist eine Wasserzeichen- und Fingerabdrucklösung, wie sie von einem vorgeschlagen wurde.Bagel-Netzwerk. Dies ist ähnlich wie der Mechanismus von Amazon Alexa zur Qualitätskontrolle von On-Device-KI-Modellen für ihre Millionen von Geräten.

echter Vorteil Nr. 7: Einsparungen bei Gebühren (OpenAI-Marge) über OSS

Die nächste Gelegenheit, die Web3 der KI bietet, besteht darin, Kosten zu demokratisieren. Bisher haben wir über die Einsparung von GPU-Kosten über Depins gesprochen. Aber Web3 bietet auch Möglichkeiten, Gewinnmargen von zentralisierten Web2-KI-Diensten (z. B. OpenAI, das zum Zeitpunkt des Verfassens dieses Textes über 1 Mrd. USD/Jahr Umsatz erzielt) zu sparen. Diese Kosteneinsparungen ergeben sich daraus, dass OSS-Modelle verwendet werden, anstelle von proprietären Modellen für eine zusätzliche Einsparungsebene, da der Modellersteller keinen Gewinn erzielen möchte.

Viele OSS-Modelle bleiben vollständig kostenlos, was die bestmögliche Wirtschaftlichkeit für Kunden ermöglicht. Es kann jedoch auch einige OSS-Modelle geben, die diese Monetarisierungsmethoden versuchen. Beachten Sie, dass nur 4% der insgesamt verfügbaren Modelle auf Hugging Face von Unternehmen mit Budgets trainiert werden, um die Modelle zu subventionieren (siehe hierDie verbleibenden 96% der Modelle werden von der Community trainiert. Diese Kohorte – 96% von Hugging Face – hat grundlegende reale Kosten (einschließlich Rechen- und Datenkosten). Daher müssen diese Modelle auf irgendeine Weise monetarisiert werden.

Es gibt eine Reihe von Vorschlägen, um diese Krypto-Monetarisierung von Modellen zu erreichen. Einer der interessantesten ist das Konzept eines „Initial Model Offering“ (IMO), bei dem Sie das Modell selbst tokenisieren, einen Prozentsatz der Token für das Team zurückhalten und einige zukünftige Einnahmen aus diesem Modell an die Token-Inhaber fließen lassen, obwohl es dort offensichtlich einige rechtliche und regulatorische Hürden gibt.

Andere OSS-Modelle werden versuchen, Einnahmen durch die Nutzung zu erzielen. Beachten Sie, dass, wenn dies zur Verwirklichung kommt, die OSS-Modelle zunehmend ihren web2-Gewinn generierenden Gegenstücken ähneln können. Aber realistisch betrachtet wird der Markt bifurziert sein, wobei einige Modelle vollkommen kostenlos bleiben.

echter Vorteil Nr. 8: dezentrale Datengewinnung

Eine der größten Herausforderungen bei KI besteht darin, die richtigen Daten zum Trainieren Ihrer Modelle zu beschaffen. Wir haben bereits erwähnt, dass dezentrales KI-Training seine Herausforderungen hat. Aber was ist mit der Verwendung eines dezentralen Netzwerks zur Beschaffung von Daten (die dann sogar für das Training an anderen Orten, auch in traditionellen Web2-Bereichen, verwendet werden können)?

Das ist genau das, was Startups wie Grasmachen. Grass ist ein dezentrales Netzwerk von "Daten-Scrapern", Personen, die die ungenutzte Rechenleistung ihres Geräts zur Beschaffung von Daten für das Training von KI-Modellen beitragen. Theoretisch kann diese Datenbeschaffung in großem Maßstab überlegen sein im Vergleich zu den internen Bemühungen eines einzelnen Unternehmens, Daten zu beschaffen, aufgrund der enormen Leistung eines großen Netzwerks von incentivierten Knotenpunkten. Dies umfasst nicht nur die Beschaffung von mehr Daten, sondern auch die Beschaffung dieser Daten in kürzeren Abständen, so dass die Daten relevanter und aktueller sind. Es ist auch praktisch unmöglich, eine dezentrale Armee von Daten-Scrapern zu stoppen, da sie von Natur aus fragmentiert sind und nicht an einer einzigen IP-Adresse ansässig sind. Sie verfügen außerdem über ein Netzwerk von Menschen, die die Daten bereinigen und normalisieren können, so dass sie nach dem Scraping nützlich sind.

Sobald Sie die Daten haben, benötigen Sie auch einen Speicherplatz on-chain sowie die mit diesen Daten generierten LLMS.0g.AIist der frühe Marktführer in dieser Kategorie. Es handelt sich um eine Krypto-optimierte Hochleistungs-Web3-Speicherlösung, die deutlich günstiger ist als AWS (ein weiterer wirtschaftlicher Gewinn für Web3 AI) und gleichzeitig als Datenverfügbarkeitsinfrastruktur für Layer 2s, AI und mehr dient.

Beachten Sie, dass die Rolle von Daten in Web3 AI in Zukunft möglicherweise anders sein könnte. Heutzutage ist der aktuelle Status quo für LLMS, ein Modell mit Daten vorzuschulen und es im Laufe der Zeit mit mehr Daten zu verfeinern. Diese Modelle sind jedoch immer leicht veraltet, da sich die Daten im Internet in Echtzeit ändern. Daher sind die Antworten aus der LLMS-Inferenz leicht ungenau.

Die Zukunft, in die die Welt möglicherweise steuert, ist ein neues Paradigma - „Echtzeit“-Daten. Das Konzept besteht darin, dass ein LLM bei einer Schlussfolgerungsfrage Daten in Echtzeit aus dem Internet in den LLM einspeisen kann. Auf diese Weise verwendet der LLM die aktuellsten verfügbaren Daten. Grass forscht ebenfalls in diesem Bereich.

Schlussfolgerung

Wir hoffen, dass dies eine nützliche Analyse für Sie darstellt, wenn Sie über Versprechen vs. Realitäten von Web3 AI nachdenken. Dies ist nur ein Ausgangspunkt für das Gespräch, und das Umfeld verändert sich schnell, also zögern Sie bitte nicht, sich zu beteiligen und auch Ihre Ansichten auszudrücken, denn wir würden gerne weiterhin gemeinsam lernen und wachsen.

Danksagungen

ein ganz besonderer Dank an Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng und Jw Wang für ihr Feedback und ihre Beiträge zu diesem Beitrag.


Die hierin enthaltenen Informationen dienen nur allgemeinen Informationszwecken und stellen keine Anlageberatung dar und sollten nicht zur Bewertung von Anlageentscheidungen herangezogen werden. Solche Informationen sollten nicht für Buchhaltung, Rechts-, Steuer-, Geschäfts-, Investitions- oder andere relevante Beratungszwecke herangezogen werden. Sie sollten sich für Buchhaltung, Rechts-, Steuer-, Geschäfts-, Investitions- oder andere relevante Beratung, einschließlich allem, was hierin besprochen wird, an Ihre eigenen Berater, einschließlich Ihres eigenen Rechtsbeistands, wenden.

Dieser Beitrag spiegelt die aktuellen Meinungen der Autor(en) wider und wird nicht im Namen von Hack VC oder seinen Tochtergesellschaften, einschließlich der von Hack VC verwalteten Fonds, veröffentlicht. Er spiegelt nicht unbedingt die Meinungen von Hack VC, seinen Tochtergesellschaften, einschließlich seiner Partnergesellschaften, oder anderen mit Hack VC verbundenen Personen wider. Einige hier enthaltene Informationen stammen aus veröffentlichten Quellen und / oder wurden von Dritten erstellt und in bestimmten Fällen nicht bis zum heutigen Datum aktualisiert. Obwohl solche Quellen als zuverlässig erachtet werden, machen weder Hack VC, seine Tochtergesellschaften, einschließlich seiner Partnergesellschaften, noch andere mit Hack VC verbundene Personen Aussagen über deren Genauigkeit oder Vollständigkeit, und sie sollten nicht als solche oder als Grundlage für eine Buchhaltung, Rechts-, Steuer-, Geschäfts-, Investitions- oder andere Entscheidungen herangezogen werden. Die hier enthaltenen Informationen erheben keinen Anspruch auf Vollständigkeit und unterliegen Änderungen, und Hack VC hat keine Verpflichtung, solche Informationen zu aktualisieren oder eine Benachrichtigung zu erstellen, wenn solche Informationen ungenau werden.

Vergangene Leistungen sind nicht unbedingt ein Hinweis auf zukünftige Ergebnisse. Alle hierin gemachten zukunftsgerichteten Aussagen beruhen auf bestimmten Annahmen und Analysen des Autors im Lichte seiner Erfahrung und Wahrnehmung historischer Trends, aktueller Bedingungen und erwarteter zukünftiger Entwicklungen sowie anderer Faktoren, die er unter den gegebenen Umständen für angemessen hält. Solche Aussagen sind keine Garantien für zukünftige Leistungen und unterliegen bestimmten Risiken, Unsicherheiten und Annahmen, die schwer vorhersehbar sind.

Erklärung:

  1. Dieser Artikel stammt aus [Hack-vc], der ursprüngliche Titel „ai x crypto - Versprechen und Realitäten“, das Urheberrecht gehört dem ursprünglichen Autor [ed roman, managing partner bei hack vc], wenn Sie Einwände gegen den Nachdruck haben, kontaktieren Sie bitteGate Learn Team, das Team wird es so schnell wie möglich gemäß den relevanten Verfahren behandeln.

  2. Haftungsausschluss: Die Ansichten und Meinungen, die in diesem Artikel zum Ausdruck gebracht werden, stellen nur die persönlichen Ansichten des Autors dar und stellen keine Anlageberatung dar.

  3. Andere Sprachversionen des Artikels werden vom Gate.io-Lernteam übersetzt, nicht erwähnt in Gate.io, der übersetzte Artikel darf nicht reproduziert, verteilt oder plagiiert werden.

即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!