aktien Magazin

Alternative Clouds boomen, da Unternehmen einen günstigeren Zugang zu GPUs suchen

Artikel, Hot-News David Engelhardt 545 Leser

Die Investitionen in spezialisierte Anbieter steigen rasant

Ein typisches Beispiel für die steigende Nachfrage nach alternativen Cloudlösungen ist CoreWeave. Der Anbieter von GPU-Infrastrukturen, der als Kryptowährungs-Mining-Betrieb begann, hat kürzlich 1,1 Mrd. USD an neuen Mitteln von Investoren wie Coatue, Fidelity und Altimeter Capital erhalten. Mit dieser Finanzierungsrunde steigt die Bewertung des Unternehmens auf 19 Mrd. USD und die Gesamtfinanzierung auf 5 Mrd. USD in Form von Fremd- und Eigenkapital. Eine bemerkenswerte Zahl für ein Unternehmen, das weniger als zehn Jahre alt ist. Doch es gibt auch noch andere Beispiele.

Lambda Labs, das auch eine Reihe von in der Cloud gehosteten GPU-Instanzen anbietet, sicherte sich Anfang April bis zu 500 Mio. USD an finanziellen Mitteln. Der gemeinnützige Voltage Park, hinter dem der Krypto-Milliardär Jed McCaleb steht, kündigte im vergangenen Oktober an, dass er 500 Mio. USD in GPU-gestützte Rechenzentren investieren wird. Und Together AI, ein Cloud-GPU-Host, der auch generative KI-Forschung betreibt, erhielt im März 106 Mio. USD in einer von Salesforce geführten Investitionsrunde.

Warum also der ganze Enthusiasmus für den alternativen Cloud-Bereich - und das Geld, das in ihn fließt?

Die Antwort lautet, wie zu erwarten, generative KI. Mit dem anhaltenden Boom der generativen KI steigt auch die Nachfrage nach der Hardware, mit der generative KI-Modelle in großem Maßstab ausgeführt und trainiert werden können. Die Architektur von Grafikprozessoren (GPUs) ist die logische Wahl für das Training, die Feinabstimmung und die Ausführung von Modellen, da sie Tausende von Kernen enthalten, die parallel arbeiten können, um die linearen Berechnungen durchzuführen.

Aber die Installation von GPUs ist teuer. Daher wenden sich die meisten Entwickler und Unternehmen stattdessen an die Cloud. Die etablierten Cloud-Computing-Anbieter, Amazon Web Services, Google Cloud und Microsoft Azure, bieten eine Vielzahl von GPU- und Spezialhardware-Instanzen, die für generative KI-Workloads optimiert sind. Aber zumindest für einige Modelle und Projekte können alternative Clouds billiger sein und eine bessere Verfügbarkeit bieten.

„GPU-as-a-Service-Cloud Anbieter“ sind im Kommen

Bei CoreWeave kostet die Anmietung einer Nvidia A100 40GB, eine beliebte Wahl für Modelltraining und Inferencing, 2,39 USD pro Stunde, was 1.200 USD pro Monat ausmacht. Auf Azure kostet die gleiche GPU 3,40 USD pro Stunde oder 2.482 USD pro Monat; auf Google Cloud sind es 3,67 USD pro Stunde oder 2.682 USD pro Monat.

Da generative KI-Workloads in der Regel auf Clustern von GPUs ausgeführt werden, wachsen die Kostenunterschiede schnell. "Unternehmen wie CoreWeave nehmen an einem Markt teil, den wir als spezialisierte 'GPU-as-a-Service'-Cloud-Anbieter bezeichnen", so Sid Nag, VP of Cloud Services and Technologies bei Gartner, gegenüber TechCrunch. "Angesichts der hohen Nachfrage nach GPUs bieten sie eine Alternative zu den Hyperscalern, indem sie Nvidia-GPUs nehmen und einen anderen Weg zum Markt und Zugang zu diesen GPUs bieten." Nag weist darauf hin, dass sogar einige große Technologieunternehmen begonnen haben, sich auf alternative Cloud-Anbieter zu stützen, da sie mit Problemen bei der Rechenkapazität konfrontiert sind.

Ausreichend Rechenleistung ist bei KI-Anwendungen das oberste Gebot

Im vergangenen Juni berichtete CNBC, dass Microsoft einen milliardenschweren Vertrag mit CoreWeave unterzeichnet hat, um sicherzustellen, dass OpenAI, der Hersteller von ChatGPT und enger Microsoft-Partner, über ausreichende Rechenleistung verfügt, um seine generativen KI-Modelle zu trainieren. Nvidia, der Lieferant des Großteils der CoreWeave-Chips, sieht dies als einen wünschenswerten Trend, vielleicht aus Gründen der Hebelwirkung. Es heißt, dass das Unternehmen einigen alternativen Cloud-Anbietern bevorzugten Zugang zu seinen GPUs gewährt hat.

Lee Sustar, Principal Analyst bei Forrester, ist der Meinung, dass Cloud-Anbieter wie CoreWeave zum Teil deshalb erfolgreich sind, weil sie nicht die Infrastrukturprobleme haben, mit denen etablierte Anbieter zu kämpfen haben. "Angesichts der Dominanz der Hyperscaler auf dem gesamten Public-Cloud-Markt, die enorme Investitionen in die Infrastruktur und eine Reihe von Diensten erfordern, mit denen keine oder nur geringe Umsätze erzielt werden, haben Herausforderer wie CoreWeave die Chance, mit ihrem Fokus auf hochwertige KI-Dienste erfolgreich zu sein, ohne die Last der Investitionen auf Hyperscaler-Ebene zu tragen", sagte er.

Aber ist dieses Wachstum nachhaltig?

Sustar hat da seine Zweifel. Er glaubt, dass die Expansion alternativer Cloud-Anbieter davon abhängen wird, ob sie weiterhin in großem Umfang GPUs online stellen und zu wettbewerbsfähigen Preisen anbieten können. Die Preiskonkurrenz könnte in Zukunft zu einer Herausforderung werden, da etablierte Unternehmen wie Google, Microsoft und AWS ihre Investitionen in kundenspezifische Hardware zum Ausführen und Trainieren von Modellen erhöhen. Google bietet seine TPUs an. Microsoft hat vor kurzem zwei kundenspezifische Chips, Azure Maia und Azure Cobalt, vorgestellt und AWS hat Trainium, Inferentia und Graviton in der Pipeline. "Hypercalers werden ihr eigenes Silizium nutzen, um ihre Abhängigkeit von Nvidia zu verringern, während Nvidia auf CoreWeave und andere GPU-zentrierte KI-Clouds setzen wird", so Sustar.

Hinzu kommt die Tatsache, dass zwar viele generative KI-Workloads am besten auf GPUs laufen, aber nicht alle Workloads diese benötigen, insbesondere wenn sie nicht zeitkritisch sind. CPUs können die erforderlichen Berechnungen durchführen, sind aber in der Regel langsamer als GPUs und kundenspezifische Hardware. Außerdem besteht die Gefahr, dass die Blase der generativen KI platzt, was zur Folge hätte, dass die Anbieter über Unmengen von Grafikprozessoren verfügen, aber nicht genügend Kunden, die diese nachfragen.

Kurzfristig sieht die Zukunft jedoch rosig aus, sagen Sustar und Nag, die beide einen stetigen Strom von Cloud-Startups erwarten. "GPU-orientierte Cloud-Startups werden [den etablierten Unternehmen] viel Konkurrenz machen, vor allem bei Kunden, die bereits Multi-Cloud nutzen und die Komplexität von Management, Sicherheit, Risiko und Compliance über mehrere Clouds hinweg bewältigen können", so Sustar. "Diese Art von Cloud-Kunden sind bereit, eine neue KI-Cloud auszuprobieren, wenn sie über eine glaubwürdige Führung, solide finanzielle Unterstützung und GPUs ohne Wartezeiten verfügt."


Bildherkunft: AdobeStock_755184912