KI-Strategie

Make or Buy: Open-Source vs. proprietäre KI-Lösungen

Systematische Entscheidungsanalyse mit TCO-Berechnung, Entscheidungsmatrix und Hybrid-Strategie für einen Controlling-Use-Case

← Zurück zum Portfolio

Die zentrale Frage jeder KI-Initiative

Unternehmen, die KI einführen wollen, stehen vor einer fundamentalen Entscheidung: Setzen wir auf Open-Source-Modelle mit voller Kontrolle oder auf proprietäre Cloud-Lösungen mit schnellem Einstieg?

Diese Frage ist keine rein technische. Sie betrifft Datenschutz, Kosten, Abhängigkeiten und strategische Flexibilität. Als Controller mit KI-Expertise ist meine Aufgabe, diese Entscheidung wirtschaftlich zu bewerten – nicht aus technologischer Begeisterung, sondern aus Unternehmens-Perspektive.

Die folgende Analyse zeigt anhand eines realen Controlling-Use-Cases, wie eine strukturierte Make-or-Buy-Entscheidung aussehen kann – und warum die Antwort selten "entweder/oder", sondern meist "sowohl als auch" lautet.

Praxisszenario: Automatisierte Monatsberichtserstellung

Ausgangssituation

RegioExpress GmbH – ein mittelständisches Schienenverkehrsunternehmen mit 850 Mitarbeitern. Das Controlling-Team (8 Mitarbeiter) erstellt monatlich umfangreiche Berichte zu Kennzahlen wie Pünktlichkeit, Fahrgastzahlen, Kosten pro Zugkilometer und Energieverbrauch.

Problem: Jeder Monatsabschluss erfordert 3-4 Tage manuelle Arbeit für Datenkonsolidierung, Abweichungsanalyse und Kommentierung. Die Berichte gehen an Geschäftsführung, Betriebsrat und den öffentlichen Auftraggeber.

Ziel: KI-gestützte Automatisierung der Abweichungskommentierung zur Reduzierung des Zeitaufwands um 60-70%.

Die Kandidaten

Open Source

Llama 3.1 70B (Meta)

Ansatz: Self-Hosting auf eigener Infrastruktur

  • Kosten: ~800-1.200 EUR/Monat (Server)
  • Setup: 5.000-8.000 EUR initial
  • Kontextfenster: 128k Token
  • Fine-Tuning möglich
  • Vollständige Datenkontrolle
Proprietär

Claude 3.5 Sonnet (Anthropic)

Ansatz: Cloud-basiert via API

  • Kosten: ~500-800 EUR/Monat (Lizenzen + API)
  • Setup: Keine Initialkosten
  • Kontextfenster: 200k Token
  • Nur Prompt Engineering
  • DSGVO-konform (EU-Server)

Systematischer Vergleich

Kriterium Llama 3.1 (Open Source) Claude 3.5 (Proprietär)
Flexibilität Sehr hoch – Fine-Tuning für spezifische Controlling-Begriffe möglich Mittel – Nur Prompt Engineering, aber exzellente Out-of-the-box Performance
Kosten (kurzfristig) Höher – 5.000-8.000 EUR Setup + 800-1.200 EUR/Monat Niedriger – Keine Setup-Kosten, 500-800 EUR/Monat
Kosten (langfristig) Günstiger bei hohem Volumen – amortisiert sich nach 12-18 Monaten Linear steigend – Preiserhöhungen möglich, Skalierung = höhere Kosten
Datenschutz Sehr hoch – Daten bleiben vollständig im eigenen Netz Hoch – DSGVO-konform, aber Daten verlassen Unternehmen
Support Community – Kein kommerzieller Support, internes Know-how erforderlich Professionell – SLA, direkter Support, Enterprise-Optionen
Time-to-Market 3-4 Monate – Setup, Testing, Integration 4-8 Wochen – Schnelle API-Integration
Abhängigkeit IT-Team + Cloud-Provider (z.B. AWS) Vendor Lock-in bei Anthropic

Entscheidungsmatrix

Gewichtete Bewertung (Skala 1-5, wobei 5 = optimal) unter Berücksichtigung der Unternehmens-Prioritäten:

Kriterium Gewichtung Llama 3.1 Gewichtet Claude 3.5 Gewichtet
Datenschutz & Sicherheit 30% 5 1,50 3 0,90
Time-to-Market 20% 2 0,40 5 1,00
Kosten (3 Jahre TCO) 20% 4 0,80 3 0,60
Analysequalität 15% 4 0,60 5 0,75
Skalierbarkeit 10% 5 0,50 4 0,40
Support & Risikominimierung 5% 2 0,10 5 0,25
Gesamtscore 100% - 3,90 - 3,90

Gewichtungs-Begründung

Total Cost of Ownership (3 Jahre)

Claude 3.5 Sonnet

Llama 3.1 70B

Kritischer Punkt: Die TCO-Rechnung zeigt: Kurzfristig ist Claude günstiger (28.800 vs. 43.000 EUR). Aber bei Skalierung dreht sich das Verhältnis (70.000 vs. 50.000 EUR).

Management-Empfehlung: Hybrid-Strategie

Die Entscheidungsmatrix zeigt einen Gleichstand (3,90:3,90) – was die Komplexität dieser Entscheidung unterstreicht. Meine Empfehlung: Zweistufiger Hybrid-Ansatz.

Phase 1: Claude als Pilot (Monate 1-9)

Warum Claude zuerst?

  • Risikominimierung: Mit begrenztem KI-Know-how würde ein direkter Llama-Start das Projekterfolgsrisiko erhöhen
  • Proof of Concept: Business Case schnell validieren – wenn KI nicht die erwartete Effizienz bringt, haben wir nur 4.000-6.000 EUR investiert statt 15.000-20.000 EUR
  • Lernkurve: Team lernt Prompt Engineering mit nutzerfreundlicher Lösung – Expertise ist später auf Llama übertragbar
  • Time-to-Value: Geschäftsführung sieht Erfolge innerhalb von 8 Wochen, nicht erst nach 4 Monaten

Kritische Erfolgsfaktoren:

Phase 2: Migration zu Llama (ab Monat 6 parallel)

Warum zu Llama wechseln?

  • Datensouveränität: Langfristig ist On-Premise unumgänglich für sensible Betriebsdaten und Auftraggeber-Compliance
  • Kosteneffizienz bei Skalierung: Bei geplanten weiteren Use Cases (Forecasting, Wartungsoptimierung) steigen Claude-Kosten auf ~70.000 EUR, Llama bleibt bei ~50.000 EUR
  • Fine-Tuning-Potenzial: Llama ermöglicht Spezialisierung auf Bahn-Controlling-Terminologie, was Analysequalität weiter steigert
  • Strategische Unabhängigkeit: Kein Vendor Lock-in, keine Abhängigkeit von Preisgestaltung Dritter

Vorbereitung parallel zum Pilot:

Phase 3: Übergang (Monat 9-12)

Checkliste: Make-or-Buy-Entscheidung bei KI

Vor der Entscheidung klären:

Datenschutz & Compliance

Kosten & Budget

Ressourcen & Know-how

Strategische Überlegungen

Wichtig: Es gibt keine universelle "richtige" Antwort. Die beste Lösung hängt von Unternehmenskontext, Ressourcen und strategischen Zielen ab. Eine Hybrid-Strategie minimiert oft Risiken und kombiniert die Vorteile beider Welten.

Fazit

Die Make-or-Buy-Entscheidung bei KI ist keine rein technologische Frage, sondern eine strategische Managemententscheidung mit erheblichen Auswirkungen auf Kosten, Datenschutz und Flexibilität.

Kernerkenntnisse:

Als Controller mit KI-Expertise ist meine Aufgabe nicht, für eine bestimmte Technologie zu werben, sondern die wirtschaftlich und strategisch sinnvollste Lösung zu identifizieren – auch wenn diese "sowohl als auch" statt "entweder oder" lautet.