Multicoin Capital:我们为什么投资 io.net

Multicoin Capital: Warum wir in io.net investieren

BroadChainBroadChain06.06.2024, 14:06
Dieser Inhalt wurde von KI übersetzt
Zusammenfassung

Die Gesamtversorgung an IO-Token beträgt 800 Millionen Token, wobei bei dem Launch 500 Millionen IO freigegeben werden; die verbleibenden 300 Millionen IO werden schrittweise innerhalb der nächsten 20 Jahre ausgegeben, bis die Obergrenze von 800 Millionen Token erreicht ist.

Autor: Shayon Sengupta, Multicoin Capital

Übersetzung: JIN, Techub News 

Am 6. Juni 2024 gab Binance bekannt, dass der Launchpool den Token io.net (IO) listen wird. Ab dem 7. Juni um 8:00 Uhr Hongkong-Zeit können Nutzer auf der Launchpool-Website BNB und FDUSD in den IO-Mining-Pool einzahlen, um IO-Belohnungen zu erhalten. Die Mining-Phase dauert insgesamt vier Tage. Die Website wird voraussichtlich etwa fünf Stunden nach dieser Ankündigung aktualisiert, bevor das Mining beginnt.

Darüber hinaus wird Binance den Token IO am 11. Juni um 20:00 Uhr Hongkong-Zeit listen und die Handelspaare IO/BTC, IO/USDT, IO/BNB, IO/FDUSD und IO/TRY eröffnen.

IO-Token-Verteilung und Belohnungen

Laut den offiziellen Dokumenten von io.net beträgt das Gesamtangebot der IO-Token 800 Millionen. Zum Start werden 500 Millionen IO freigegeben; die verbleibenden 300 Millionen werden schrittweise über die nächsten 20 Jahre verteilt, bis die Obergrenze von 800 Millionen erreicht ist. Die anfängliche Verteilung der 500 Millionen Token und die damit verbundenen Belohnungen sind in der folgenden Grafik dargestellt und gliedern sich in fünf Kategorien: Seed-Investoren, Serie-A-Investoren, Kernmitarbeiter, Forschung & Entwicklung sowie Ökosystem und Community. 

IO-Token-Verteilung und Belohnungen

Geschätzte Verteilung der IO-Token 

  • Seed-Investoren: 12,5 %

  • Serie-A-Investoren: 10,2 %

  • Kernmitarbeiter: 11,3 %

  • Forschung & Entwicklung: 16 %

  • Ökosystem und Community: 50 %

 

Geschätzte Verteilung der IO-Token

 

Der folgende Abschnitt über io.net wurde von Multicoin Capital verfasst, einem Teilnehmer der 30-Millionen-Dollar-Serie-A-Finanzierungsrunde von io.net:

Wir freuen uns, unsere Investition in io.net bekannt zu geben – ein dezentrales Netzwerk, das Rechenleistung für KI-Anwendungen vermietet. Wir haben nicht nur die Seed-Runde angeführt, sondern auch an der Serie-A-Runde teilgenommen. Insgesamt hat io.net 30 Millionen US-Dollar eingesammelt, darunter von Multicoin, Hack VC, 6th Man Ventures, Modular Capital und einem Konsortium von Business Angels. Das Ziel ist es, einen bedarfsgesteuerten, jederzeit verfügbaren Markt für KI-Rechenleistung zu schaffen.

Ich traf Ahmad Shadid, den Gründer von io.net, erstmals im April 2023 während des Solana-Hackathons Austin Hacker House. Seine einzigartige Vision zur Dezentralisierung der Recheninfrastruktur für maschinelles Lernen (ML) beeindruckte mich sofort.

Seitdem hat das io.net-Team beeindruckende Umsetzungsstärke bewiesen. Heute bündelt das Netzwerk Zehntausende verteilter GPUs und stellt KI-Unternehmen mehr als 57.000 Rechenstunden zur Verfügung. Wir freuen uns darauf, gemeinsam mit ihnen die KI-Revolution des nächsten Jahrzehnts voranzutreiben.

I. Globale Knappheit an Rechenleistung

 

Die Nachfrage nach KI-Rechenleistung wächst rasant – doch sie kann derzeit nicht befriedigt werden. Im Jahr 2023 erzielten Rechenzentren, die KI-bezogene Rechenleistung bereitstellen, Einnahmen von über 100 Milliarden US-Dollar. Selbst bei konservativsten Schätzungen übersteigt die Nachfrage nach KI-Chips jedoch das Angebot.

In einer Phase hoher Zinsen und knapper Liquidität erfordern neue Rechenzentren, die solche Hardware beherbergen, enorme Vorabinvestitionen. Das Kernproblem liegt in der begrenzten Produktion fortschrittlicher Chips wie der Nvidia A100 und H100. Obwohl die GPU-Leistung stetig steigt und die Kosten sinken, lässt sich der Herstellungsprozess nicht beschleunigen – Rohstoffe, Komponenten und Produktionskapazitäten sind knapp und begrenzen das Wachstum.

Trotz der vielversprechenden Zukunft der KI nimmt der physische Platzbedarf ihrer Infrastruktur täglich zu, was zu einem stark gestiegenen Bedarf an Fläche, Strom und Spitzentechnologie führt. io.net eröffnet hier einen neuen Weg: Rechenleistung wird nicht länger durch diese Einschränkungen begrenzt.

io.net ist ein klassisches Beispiel für die praktische Anwendung von DePIN: Durch tokenbasierte Anreize werden die Beschaffungskosten auf der Angebotsseite strukturell gesenkt, was letztlich auch den Endnutzern von GPU-Rechenleistung zugutekommt. Ungenutzte GPU-Ressourcen aus aller Welt werden in einem gemeinsamen Pool gebündelt und KI-Entwicklern sowie Unternehmen zur Verfügung gestellt. Heute wird das Netzwerk von Tausenden GPUs unterstützt – aus Rechenzentren, Mining-Farmen und privaten Geräten.

Zwar lassen sich diese wertvollen Ressourcen bündeln, doch sie erweitern sich nicht automatisch zu einem dezentralen Netzwerk. In der Geschichte der Kryptotechnologie gab es bereits mehrere Versuche, ein verteiltes GPU-Rechennetzwerk aufzubauen – alle scheiterten jedoch daran, die Anforderungen der Nachfrageseite zu erfüllen.

Die Koordination und Planung von Rechenaufgaben auf heterogener Hardware mit unterschiedlichen Speicher-, Bandbreiten- und Speicherkonfigurationen ist ein entscheidender Schritt zur Realisierung eines verteilten GPU-Netzwerks. Wir sind überzeugt, dass das io.net-Team heute die praktikabelste Lösung auf dem Markt bietet, um diese Hardware-Bündelung für Endkunden nutzbar und wirtschaftlich sinnvoll zu machen.

II. Der Weg zu Clustern

 

In der Geschichte der Computertechnik passen sich Software-Frameworks und Designmuster stets der verfügbaren Hardware an. Die meisten Frameworks und Bibliotheken für die KI-Entwicklung sind stark auf zentralisierte Hardware-Ressourcen angewiesen. Doch in den letzten zehn Jahren hat sich die dezentrale Recheninfrastruktur in der Praxis erheblich weiterentwickelt.

io.net nutzt vorhandene, ungenutzte Hardware-Ressourcen und verbindet sie über eine maßgeschneiderte Netzwerk- und Orchestrierungsschicht zu einem hochskalierbaren „GPU-Internet“. Dieses Netzwerk setzt Ray, Ludwig, Kubernetes sowie zahlreiche weitere Open-Source-Frameworks für verteiltes Rechnen ein, sodass ML-Engineering- und Operations-Teams ihre Workloads auf bestehenden GPU-Netzwerken skalieren können.

ML-Teams können ihre Workloads auf den io.net-GPUs parallelisieren, indem sie Rechencluster starten und dabei diese Bibliotheken für Orchestrierung, Planung, Fehlertoleranz und Skalierung nutzen. So kann beispielsweise eine Gruppe dynamischer Grafikdesigner ihre privaten GPUs dem Netzwerk zur Verfügung stellen – io.net baut daraus einen Cluster, der weltweit Bildmodell-Entwicklern zur Miete angeboten wird.

BC8.ai ist ein fein abgestimmtes Stable-Diffusion-Modell, das vollständig im io.net-Netzwerk trainiert wurde. Der io.net-Browser zeigt Echtzeit-Inferenzen sowie Anreize für Netzwerkteilnehmer an.

Künstliche-Intelligenz-Supercomputer

Die Generierungsdaten jedes Bildes werden auf der Blockchain gespeichert. Alle Gebühren fließen an 6 RTX-4090-Cluster – handelsübliche GPUs, die ursprünglich für Spiele entwickelt wurden.

Das Netzwerk umfasst derzeit Zehntausende Geräte, darunter Mining-Farmen, unausgelastete Rechenzentren und Verbraucherknoten des Render Network. Neben der Bereitstellung neuer GPU-Kapazitäten kann io.net auch mit traditionellen Cloud-Anbietern preislich konkurrieren und bietet in der Regel günstigere Ressourcen.

Dies gelingt, indem die GPU-Koordination und der Betrieb an ein dezentrales Protokoll ausgelagert werden. Herkömmliche Cloud-Anbieter müssen ihre Preise aufgrund von Personalkosten, Hardwarewartung und Rechenzentrumsbetrieb erhöhen. Die Betriebskosten für Consumer-GPU-Cluster und Mining-Farmen liegen hingegen deutlich unter dem, was Hyperscaler verlangen. Diese strukturelle Arbitrage-Möglichkeit sorgt dafür, dass die Ressourcenpreise auf io.net dynamisch unter den stetig steigenden Gebühren der Cloud-Dienste bleiben.

III. Aufbau des GPU-Internets

 

io.net hat einen entscheidenden Vorteil: Es verfolgt ein kapitalleichtes Geschäftsmodell, das die Grenzkosten für die Bedienung eines Kunden nahezu auf Null senkt und direkte Beziehungen zu Anbietern und Nachfragern aufbaut. So kann das Netzwerk Tausende von Unternehmen bedienen, die für die Entwicklung wettbewerbsfähiger KI-Produkte auf GPU-Zugang angewiesen sind – Produkte, mit denen wir alle in Zukunft interagieren werden.