Aktueller Insight
Cloud, API oder On-Premise? Was Enterprise-KI wirklich kostet.

In unserem letzten Beitrag haben wir gezeigt, warum 80 % der KI-Projekte scheitern. Meist nicht an der Technologie, sondern an fehlender Strategie. Dieser Artikel greift einen konkreten Aspekt auf, der am Anfang jeder KI-Integrationskette steht: Welches Deployment-Modell passt zu Ihrem Unternehmen? Und was kostet es wirklich?

Schauen wir uns drei Modelle an.

Modell A: Cloud-API

Der einfachste Einstieg. Kein Setup, keine Hardware, klare Kostenstruktur durch Abonnements. Für ein Fünf-Personen-Team liegen die Kosten bei Anthropics Claude Code oder OpenAIs Codex bei etwa 200 Dollar pro Entwickler und Monat, also 1.000 Dollar insgesamt. Die Modellqualität ist hier am höchsten: Anthropics Claude Opus erreicht 80,9 % auf SWE-Bench, OpenAIs GPT-5.2 liegt bei 80,0 %.

Der Preis dieser Einfachheit: Die Datenresidenz liegt beim Modellanbieter.

Modell B: Managed Cloud

Dienste wie AWS Bedrock bieten dieselben Modelle innerhalb Ihrer eigenen AWS-Infrastruktur, mit Datenresidenz in der EU. Die Preise bleiben identisch. Der eigentliche Vorteil: Über die Cloud-Infrastruktur lassen sich Themen wie Authentifizierung, Multiuser-Handling und Datenanbindung schnell und unkompliziert umsetzen.

Aber Datenresidenz ist nicht Datensouveränität. Der US-CLOUD Act ermöglicht US-Behörden Zugriff auf Daten bei US-Anbietern, auch wenn die Server in Frankfurt stehen. Für Unternehmen in regulierten Branchen wird das zur strategischen Frage. Souveräne Alternativen wie T-Systems AI Foundation Services auf der Open Telekom Cloud bieten DSGVO-konforme LLM-Inferenz unter europäischer Jurisdiktion.

Modell C: On-Premise

Hier wird es interessant. Denn On-Premise muss nicht komplex sein. Und einmal gekaufte Hardware trägt bis zu einem gewissen Grad auch künftige Modellgenerationen: Die Leistungslücke zwischen Open Source und Cloud-Modellen schrumpft rapide.

Ein konkretes Beispiel: Ein Mac Studio M4 Max mit 128 GB Unified Memory kostet rund 4.000 Euro. Er kann ein aktuelles Open-Source-Modell wie Qwen3-Coder-Next mit 20 bis 40 Tokens pro Sekunde hosten. Das entspricht bis zu 40 Zeilen Code in 10 Sekunden. Das Modell erreicht 70,6 % auf SWE-Bench Verified, vergleichbar mit Claude Sonnet 4.0 und knapp besser als DeepSeek-V3.2. Bei Security-Code-Reparatur (SecCodeBench) übertrifft es sogar Claude Opus.

Der DevOps-Aufwand? Praktisch null. Setup in wenigen Stunden. Kein CUDA-Management, keine Container-Orchestrierung, kein Rackspace. Stromkosten vernachlässigbar. Auch mehrere Entwickler können gleichzeitig arbeiten, dank Continuous Batching für parallele Anfragen. Über eine OpenAI-kompatible API-Schicht lässt sich das lokale Modell nahtlos in Claude Code oder andere IDE-Plattformen einbinden, inklusive MCP-Integration, Web Search und Multi-File Editing.

Was zur ehrlichen Einordnung dazugehört: Der Unterschied liegt derzeit in der Modellintelligenz bei komplexen Entscheidungsketten. Wenn ein Agent autonom 15 Dateien analysiert, fünf Tools aufruft und das Ergebnis validiert, ist die Qualität dieser Kette bei den API-basierten Top-Modellen noch erkennbar besser. Opus 4.6 erreicht 79,2 % auf SWE-Bench. Ebenso muss evaluiert werden, wie proprietäre Unternehmens- und Kundendaten sicher in den Modellkontext eingebunden werden können. Data Handling und Zugriffskontrolle sind eigenständige Themen.

Und sobald die Anforderungen über das Consumer-Setup hinauswachsen (leistungsfähigere Modelle, GPU-Cluster, Concurrency für größere Teams), steigen Hardwarekosten, DevOps- und Architekturaufwand entsprechend. Spätestens dann braucht es erfahrene Expertise.

Vier Empfehlungen für Entscheider

Starten Sie mit der Cloud, aber planen Sie für Hybrid. Für die meisten Unternehmen ist der Cloud-API-Einstieg der richtige erste Schritt: niedrige Einstiegskosten, höchste Modellqualität, minimaler Betriebsaufwand. Aber planen Sie von Anfang an eine Architektur, die später um lokale Modelle erweitert werden kann.

Definieren Sie Ihre Datensouveränitäts-Anforderungen früh. Wenn Ihre Branche reguliert ist oder Sie mit sensiblen Kunden- und Firmendaten arbeiten, klären Sie die Datensouveränitätsfrage vor dem Technologie-Rollout.

Unterscheiden Sie Aufgabenklassen. Nicht jede Aufgabe braucht das leistungsfähigste Modell. Ein Hybrid-Setup, bei dem Claude Opus komplexe Analysen übernimmt und ein lokales Modell das Routine-Coding erledigt, kombiniert das Beste beider Welten.

Holen Sie sich externe Expertise für die Infrastrukturentscheidung. GPU-Dimensionierung, Modellauswahl, Quantisierung, Sicherheitsarchitektur und Kostenoptimierung sind komplex genug, dass erfahrene KI-Infrastrukturberater den Unterschied zwischen strategischer Investition und teurer Fehlinvestition machen. Besonders beim Übergang vom Prototyp zur Produktion.

Die Frage ist nicht, ob Ihr Unternehmen KI-Infrastruktur braucht. Die Frage ist, welche Infrastruktur zu Ihren Anforderungen, Ihren Daten und Ihrer Organisation passt. Wer das früh und sorgfältig klärt, baut auf einem Fundament, das trägt.

Über den Author

Michael Banf

Chief AI Scientist

Unsere neuesten Artikel

Generative AI
Warum menschliche Fähigkeiten im KI-Zeitalter wichtiger sind denn je

KI verändert nicht, ob Menschen gebraucht werden, sondern wofür. Unternehmen, die das verstehen, erschließen Billionenpotenziale. Die anderen investieren blind. Fünf Handlungsimperative für Entscheider, die den Unterschied machen wollen.

#AI Strategy
#Generative AI
Michael Banf
February 24, 2026
Read
Generative AI
Telekom-Industrie: Wie KI die Branche revolutioniert

KI optimiert Netzwerke, verbessert den Kundenservice durch personalisierte Chatbots und ermöglicht neue, datenbasierte Geschäftsmodelle. Herausforderungen wie Datenschutz müssen jedoch adressiert werden. KI bietet großes Potenzial für die Branche.

#AI Security
#Generative AI
#AI Strategy
Martin Griessmann
December 12, 2024
Read
AI Compliance & Security
Verantwortliche KI-Systeme entwickeln: Eine Einführung

In unserem aktuellen Beitrag beleuchten wir die zentrale Rolle von Compliance und Qualitätsmanagement in der Entwicklung von KI-Systemen. Wir zeigen auf, wie sich innovative Ansätze mit regulatorischen Anforderungen in Einklang bringen lassen – ein wesentlicher Schritt für Unternehmen, die in der schnelllebigen Welt der Technologie nachhaltige Innovationen vorantreiben möchten.

#AI Security
#Autonomous AI
#Trustworhy AI
Johannes Kuhn
March 13, 2024
Read

Kontaktformular

Name*
Email*
Nachricht
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Helfen Sie uns unsere Webseite zu verbessern. Indem Sie “Akzeptieren” klicken, Stimmen sie zu, dass wir ein Cookie auf ihrme Gerät speichern um die Nutzung der Webseite zu Analysieren. Lesen Sie unsere Datenschutzerklärung für mehr Informationen.
Etwas is schief gegangen. Versuchen sie es erneut.