Offenlegung zeigt: OpenAI verbrennt geschätzte 50 Milliarden Dollar jährlich für KI-Rechenleistung
Interne Finanzdaten, die WirtschaftsWoche vorliegen, enthüllen das Ausmaß der Rechenkosten, die OpenAI durch den Betrieb seiner KI-Systeme wie ChatGPT entstehen. Demnach belaufen sich die jährlichen Aufwendungen für KI-Rechenzentren auf etwa 50 Milliarden US-Dollar – eine Summe, die das Unternehmen unter erheblichen Finanzierungsdruck setzt und Fragen zur langfristigen Wirtschaftlichkeit des KI-Geschäftsmodells aufwirft.
Die Kosten entstehen vor allem durch die Infrastruktur für das Training und den Betrieb großer Sprachmodelle. Rechenzentren mit hochleistungsfähigen Chips verschlingen immense Energiemengen und erfordern kontinuierliche Investitionen in Hardware, Kühlung und Netzwerkkapazitäten. OpenAI ist dabei auf massive Finanzierungsrunden und strategische Partnerschaften angewiesen, insbesondere mit Microsoft, um die Liquidität zu sichern. Die hohen Ausgaben stehen im Kontrast zu den noch überschaubaren Einnahmen aus ChatGPT-Abonnements und Unternehmensorahmenverträgen.
Branchenbeobachter warnen, dass das Kostenproblem nicht auf OpenAI beschränkt ist. Der gesamte Sektor der generativen KI steht unter Druck, profitable Geschäftsmodelle zu entwickeln, bevor die Investorenmittel versiegen. Sollte die Rechenintensität der Modelle weiter steigen, könnten selbst gut finanzierte Unternehmen an wirtschaftliche Grenzen stoßen. Ob OpenAI seine Kostenstruktur nachhaltig optimieren kann oder ob eine Konsolidierung im KI-Markt bevorsteht, bleibt abzuwarten.