LLM Startup Investment 2026: Warum Sie wahrscheinlich NICHT in ein Foundation-Model investieren sollten
Eine datenbasierte Analyse für VCs: OpenAI hat $58B, Anthropic $27B, Google $100B+ investiert. Inflection, Adept, Character.AI - alle gescheitert. Wo liegen 2026 die echten Opportunitäten? Spoiler: Nicht bei Foundation Models.
LLM Startup Investment 2026: Die unbequeme Wahrheit über Foundation Models
Ein befreundeter Venture Capitalist fragte mich kürzlich: "Macht es 2026 noch Sinn, in ein Startup zu investieren, das ein eigenes Large Language Model entwickeln möchte?"
Meine kurze Antwort: Nein. Mit sehr wenigen, klar definierten Ausnahmen.
Meine lange Antwort: Dieser Artikel.
Als CTO und Board-Advisor mit über 15 Jahren Erfahrung in der Tech-Branche habe ich den AI-Hype-Zyklus aus nächster Nähe beobachtet - von der anfänglichen Euphorie im Jahr 2023 bis zur aktuellen Konsolidierung 2025. Was wir jetzt erleben, ist ein klassisches "Winner-takes-most"-Szenario, und die Gewinner stehen bereits fest. Der Markt für Foundation Models ist nicht mehr offen für neue Spieler - zumindest nicht für Startups im traditionellen Sinne.
In diesem Artikel präsentiere ich Ihnen eine umfassende Analyse basierend auf aktuellen Marktdaten:
- Die harten Zahlen: Was Foundation Models wirklich kosten - und warum diese Kosten für Startups unbezahlbar sind
- Die Kapitulations-Welle 2024: Warum selbst Milliarden-Dollar-Startups aufgegeben haben
- Das Spezialisierungs-Trugbild: Warum spezialisierte LLMs (Legal, Medical, Finance) meistens keine eigenen Models bauen
- Wo 2026 die echten Investment-Chancen liegen: Application Layer, Infrastructure, Tooling und Agents
- Konkrete Due-Diligence-Fragen: Was Sie AI-Startups fragen sollten, bevor Sie investieren
Wichtiger Disclaimer: Dies ist keine formelle Investment-Beratung im rechtlichen Sinne, sondern eine technisch-ökonomische Analyse aus der Perspektive eines Praktikers, der sowohl die technischen Grundlagen als auch die Business-Realitäten der AI-Industrie kennt.
Teil 1: Die Finanzierungs-Realität - Der Kampf ist bereits entschieden
Die Big Player: Kriegskassen in Milliardenhöhe
Lassen Sie mich mit den Zahlen beginnen, die das Spiel bereits entschieden haben. Die Größenordnungen sind atemberaubend - und für Startups unerreichbar.
OpenAI: Der $58-Milliarden-Gigant mit $300-Milliarden-Bewertung
OpenAI, das Unternehmen hinter ChatGPT, hat insgesamt $58 Milliarden an Funding eingesammelt. Um diese Zahl einzuordnen: Das ist mehr Kapital als das gesamte europäische AI-Ökosystem zusammen aufbringen konnte.
Die Finanzierungs-Timeline zeigt ein atemberaubendes Wachstum:
Oktober 2024: $6,6 Milliarden bei einer Bewertung von $157 Milliarden. Zu diesem Zeitpunkt hatte OpenAI seine Bewertung bereits gegenüber dem Vorjahr fast verdoppelt - von etwa $80 Milliarden auf $157 Milliarden.
März 2025: $40 Milliarden Funding-Runde bei einer Bewertung von $300 Milliarden. Diese Runde wird in Phasen ausgezahlt: zunächst $10 Milliarden, gefolgt von weiteren $30 Milliarden bis Ende 2025. Die Lead-Investoren sind SoftBank mit $7,5 Milliarden und ein Syndikat weiterer Investoren mit $2,5 Milliarden.
August 2025: Zusätzliche $8,3 Milliarden als Teil der $40-Milliarden-Finanzierung.
Die Bewertung von $300 Milliarden übertrifft etablierte deutsche Konzerne wie BMW, Siemens oder SAP. OpenAI ist damit wertvoller als die meisten DAX-Konzerne - als Startup, das erst 2015 gegründet wurde.
Die Geschäftszahlen rechtfertigen diese Bewertung teilweise: OpenAI erzielte 2024 einen Umsatz von $3,7 Milliarden. Der Annual Recurring Revenue (ARR) liegt 2025 bereits bei $13 Milliarden und könnte bis Jahresende auf $20 Milliarden steigen. Das wäre mehr Umsatz als viele etablierte Nasdaq-100-Unternehmen.
Was bedeutet das für Startups? OpenAI hat mehr Kapital zur Verfügung als praktisch jeder VC-Fonds investieren könnte. Ein typischer Seed- oder Series-A-Investor kann realistisch $5-50 Millionen pro Investment bereitstellen. OpenAI gibt diese Summe für Infrastruktur in wenigen Wochen aus.
Anthropic (Claude): Der $27-Milliarden-Herausforderer
Anthropic, das Unternehmen hinter dem Claude-Modell, hat insgesamt $27,3 Milliarden eingesammelt - über 14 Finanzierungsrunden von 77 verschiedenen Investoren.
Die Bewertungsentwicklung ist bemerkenswert:
Anfang 2024: $750 Millionen Series D bei einer Bewertung von $15 Milliarden. Zu diesem Zeitpunkt galt Anthropic als vielversprechender Herausforderer, aber noch deutlich hinter OpenAI.
März 2025: $3,5 Milliarden Series E bei einer Bewertung von $61,5 Milliarden - also mehr als vervierfacht in etwa 12 Monaten. Lead-Investor war Lightspeed Venture Partners, begleitet von Bessemer Venture Partners, Cisco Investments, D1 Capital Partners, Fidelity und weiteren.
September 2025: $13 Milliarden Series F bei einer Bewertung von $183 Milliarden. Die Bewertung hat sich damit in nur 18 Monaten um das Zwölffache erhöht - von $15 Milliarden auf $183 Milliarden. Lead-Investoren waren Iconiq Capital, Fidelity Management and Research und erneut Lightspeed Venture Partners.
Die Major-Investoren zeigen das Ausmaß: Amazon hat sich mit bis zu $4 Milliarden committet, Google hat ebenfalls Milliarden investiert. Anthropic ist nicht nur gut finanziert - es ist durch Tech-Giganten backed, die langfristig denken und praktisch unbegrenzte Taschen haben.
Die Bedeutung für den Markt: Anthropic ist aktuell der einzige ernsthafte Wettbewerber zu OpenAI auf Augenhöhe. Kein anderes Startup hat auch nur annähernd die gleichen Ressourcen. Und selbst Anthropic braucht $27 Milliarden, um konkurrenzfähig zu bleiben - nicht $5 oder $10 Milliarden, sondern fast $30 Milliarden.
Google DeepMind: Der $100-Milliarden-Elefant im Raum
Google verfolgt eine andere Strategie als OpenAI oder Anthropic - nicht als Startup, sondern als Tech-Gigant mit praktisch unbegrenzten Ressourcen.
Die Investitionen sind atemberaubend:
2024: $50 Milliarden Capital Expenditures (CapEx), der Großteil davon für AI-Infrastruktur. Das sind keine hypothetischen Commitments, sondern tatsächlich ausgegebenes Geld - für Server, Rechenzentren, spezialisierte KI-Chips und Netzwerkinfrastruktur.
2025: $75 Milliarden geplante CapEx, wiederum primär für technische Infrastruktur zur Unterstützung von Google Services, Google Cloud und Google DeepMind.
Research & Development: $49,33 Milliarden in 2024, $50,98 Milliarden in 2025 (ein Anstieg von 11,16% year-over-year). Diese R&D-Ausgaben fließen direkt in AI-Forschung, Modell-Training und Produktentwicklung.
Langfristige Aussicht: DeepMind CEO Demis Hassabis hat im April 2024 öffentlich erklärt, dass Google "langfristig mehr als $100 Milliarden" in AI investieren wird. Diese Aussage kam als Reaktion auf Gerüchte über Microsofts und OpenAIs $100-Milliarden-Projekt "Stargate".
Was kauft man für $75 Milliarden pro Jahr?
- Globale Rechenzentren: Hunderte Rechenzentren weltweit, speziell für AI-Workloads optimiert
- Millionen spezialisierte Chips: TPUs (Tensor Processing Units, Googles eigene KI-Chips) und NVIDIA GPUs
- Tausende der weltbesten AI-Researcher: Google DeepMind beschäftigt einige der führenden Köpfe in AI-Forschung, viele mit Gehältern im siebenstelligen Bereich
- Integration in 9+ Google-Produkte mit über 2 Milliarden Nutzern: Google Search, Gmail, Google Docs, YouTube, Android, Chrome, Google Maps, Google Photos und mehr
Googles Strategie: Distribution schlägt Technologie
Der entscheidende Unterschied zu Startups: Google baut nicht nur ein LLM, sondern ein komplettes Ökosystem. Gemini ist direkt in Produkte integriert, die bereits Milliarden von Nutzern haben. Ein Startup kann das beste Modell der Welt bauen - aber wie erreicht es auch nur einen Bruchteil der Distribution, die Google mit einem einzigen Product-Update hat?
Meta (LLaMA): Die $65-Milliarden-Open-Source-Disruption
Meta verfolgt eine radikal andere Strategie als alle anderen Player: Sie verschenken ihr LLM und zerstören damit den Markt für kommerzielle Anbieter.
Die Investitionen sind massiv:
2024: $40 Milliarden AI-bezogene Capital Expenditures. Meta investiert ähnlich viel wie Google, aber mit einer völlig anderen Strategie.
2025: $65 Milliarden AI-Budget. CEO Mark Zuckerberg hat angekündigt, die Ausgaben um bis zu $10 Milliarden zu erhöhen, um die AI-Strategie voranzutreiben.
LLaMA 3 Entwicklungskosten: Schätzungen gehen von $750 Millionen bis $1 Milliarde aus. Die Hardware-Kosten allein - etwa 25.000 NVIDIA H100 GPUs - werden auf $750 Millionen geschätzt. Hinzu kommen Infrastruktur, Energie, Personal und Datenaufbereitung.
LLaMA 4 (in Entwicklung): Noch ressourcenintensiver, mit einem Cluster von über 100.000 H100 GPUs - geschätzte Hardware-Kosten von $3 Milliarden allein.
Downloads: Über 1,2 Milliarden Downloads (Stand April 2025). LLaMA begann im Dezember 2024 mit 650 Millionen Downloads, überschritt Mitte März die 1-Milliarden-Marke und fügte in nur einem Monat weitere 200 Millionen hinzu.
Metas "Open-Source-Kriegsführung"-Strategie:
- Verschenke das Modell: LLaMA ist kostenlos (mit gewissen kommerziellen Einschränkungen für sehr große Unternehmen)
- Zerstöre kommerzielle Konkurrenz: Warum sollte jemand für ein LLM bezahlen, wenn LLaMA kostenlos ist und vergleichbare Qualität bietet?
- Kontrolliere den Standard: Wenn LLaMA zum de-facto Standard wird, kontrolliert Meta die Entwicklung
- Profitiere indirekt: Meta monetarisiert nicht das Modell selbst, sondern die Ökosystem-Kontrolle, Cloud-Infrastruktur (Meta nutzt eigene Server) und die Integration in Meta AI (über 1 Milliarde Nutzer weltweit)
Die Disruption für Startups:
Stellen Sie sich vor, Sie haben $100 Millionen in Ihr eigenes LLM investiert. Sie wollen es für $0,001 pro Token verkaufen. Dann kommt Meta und bietet ein vergleichbares Modell kostenlos an. Ihr Business-Modell ist zerstört.
Selbst Startups mit $1 Milliarde Funding können nicht mit "kostenlos" konkurrieren. Meta kann es sich leisten, LLaMA zu verschenken, weil es andere Umsatzströme hat (Facebook, Instagram, WhatsApp Ads). Ein Startup hat diese Optionen nicht.
Die Rechnung für Startups: Mathematisch unmöglich
Nachdem wir die Kriegskassen der Big Player gesehen haben, schauen wir uns an, was es tatsächlich kostet, ein wettbewerbsfähiges Foundation Model zu trainieren.
Die bekannten Trainingskosten (Stand 2024/2025)
Die öffentlich bekannten oder geschätzten Kosten für das Training führender Modelle:
GPT-4 (2023): $78 bis $100 Millionen nur für das Training. OpenAI hat offiziell bestätigt, dass sie "mehr als $100 Millionen" für die Entwicklung von GPT-4 ausgegeben haben, wobei die reinen Compute-Kosten auf etwa $78 Millionen geschätzt werden.
Gemini Ultra (2023): $191 Millionen Trainingskosten laut einer Stanford-Studie. Google hat diese Zahl nie bestätigt, aber die Schätzung basiert auf der erforderlichen Rechenleistung (geschätzt 5,0 × 10²⁵ FLOPs).
Claude 3.5 (2024): Anthropic CEO Dario Amodei sagte, dass Claude 3.5 "einige Zehnermillionen Dollar" kostete - also geschätzt $30 bis $50 Millionen. Das ist deutlich weniger als GPT-4, was auf Effizienzgewinne hindeutet.
LLaMA 3 (2024): $750 Millionen bis $1 Milliarde, wie oben erwähnt. Der deutlich höhere Preis im Vergleich zu Claude 3.5 liegt an der größeren Modellgröße und dem umfangreicheren Training.
LLaMA 4 (2025, in Entwicklung): $3+ Milliarden allein für Hardware. Die Gesamtkosten könnten bei $4-5 Milliarden liegen.
Zukunftsprognose: Eine Stanford-Studie prognostiziert, dass die Trainingskosten für Frontier-Modelle bis 2027 die $1-Milliarde-Marke überschreiten werden. Der jährliche Anstieg liegt bei Faktor 2-3x - die Kosten verdoppeln bis verdreifachen sich also jedes Jahr.
Die versteckten Kosten: Warum $1 Milliarde nur der Anfang ist
Das eigentliche Problem: Die Trainingskosten sind nur der sichtbare Teil des Eisbergs. Ein wettbewerbsfähiges Foundation-Model-Unternehmen hat massive laufende Kosten.
Lassen Sie mich ein realistisches 3-Jahres-Budget durchrechnen:
Initiales Training: $1 Milliarde für ein konkurrenzfähiges Modell (Stand 2026/2027). Das ist eine einmalige Investition, um überhaupt ins Spiel zu kommen.
Infrastruktur (laufend): $500 Millionen pro Jahr. Sie brauchen Server-Infrastruktur, um das Modell zu hosten und Anfragen zu beantworten. Bei Millionen von Anfragen pro Tag summiert sich das schnell. OpenAI gibt Berichten zufolge etwa $700.000 pro Tag (!) nur für die ChatGPT-Infrastruktur aus - das wären über $250 Millionen pro Jahr nur für den Betrieb.
AI-Talent (laufend): $200 Millionen pro Jahr für etwa 100 Top-Researcher. Warum so viel? Top-AI-Researcher von Google, OpenAI oder Anthropic kosten $2 bis $10 Millionen pro Jahr - Gehalt plus Aktienoptionen. Ein Team von 100 Forschern (minimal für ein konkurrenzfähiges Lab) kostet also leicht $200+ Millionen jährlich.
Continuous Training (laufend): $300 Millionen pro Jahr. Sie können nicht einfach ein Modell trainieren und dann aufhören. Die Welt ändert sich, neue Daten kommen hinzu, Konkurrenten verbessern ihre Modelle. Sie müssen ständig re-trainen und fine-tunen, um relevant zu bleiben.
Datenakquisition (laufend): $100 Millionen pro Jahr. Hochwertige Trainingsdaten kosten Geld - Lizenzen für Text-Corpora, spezialisierte Datensätze, Web-Scraping-Infrastruktur, Datenaufbereitung, menschliches Feedback (RLHF - Reinforcement Learning from Human Feedback).
Compliance & Legal (laufend): $50 Millionen pro Jahr. Der EU AI Act, GDPR, Copyright-Klagen (siehe die laufenden Prozesse gegen OpenAI), Datenschutz, Modell-Audits - all das kostet Geld. Sie brauchen ein großes Legal- und Compliance-Team.
Die 3-Jahres-Rechnung:
- Initiales Training: $1.000.000.000
- Jahr 1: $1.150.000.000 (Infrastruktur + Talent + Training + Daten + Compliance)
- Jahr 2: $1.150.000.000
- Jahr 3: $1.150.000.000
Total Cost of Ownership über 3 Jahre: $4,45 Milliarden
Und selbst mit $4,5 Milliarden haben Sie immer noch:
Keine Distribution: OpenAI hat Microsoft als Partner, Google hat 2+ Milliarden Nutzer in seinen Produkten, Meta hat Facebook/Instagram/WhatsApp. Sie haben... was genau? Selbst wenn Ihr Modell technisch gleichwertig ist, wie erreichen Sie Kunden?
Keine Daten-Flywheel: Google hat Search-Daten, Meta hat Social-Media-Daten, OpenAI hat ChatGPT-Nutzer-Feedback. Diese Daten machen die Modelle besser. Sie müssen Daten kaufen oder lizenzieren - was teuer ist und nie die gleiche Qualität hat.
Kein Talent-Magnet: Die besten AI-Researcher wollen bei OpenAI, Google oder Anthropic arbeiten - nicht bei einem unbekannten Startup. Auch wenn Sie $10 Millionen Gehalt bieten, gehen viele lieber zu einem etablierten Lab mit besserer Infrastruktur und interessanteren Problemen.
Keinen Burggraben: Meta verschenkt LLaMA kostenlos. Warum sollte jemand Ihr Modell nutzen, wenn es ein vergleichbares Open-Source-Modell gibt?
Die brutale Realität: Wenn Ihr Funding unter $5 Milliarden liegt und Sie gegen OpenAI, Google, Anthropic oder Meta antreten, ist Ihr wahrscheinlichstes Outcome ein Acqui-hire oder Shutdown.
Teil 2: Die Kapitulations-Welle 2024 - Als Milliarden nicht genug waren
Das Jahr 2024 hat uns eine ernüchternde Lektion gelehrt: Selbst Startups mit Milliarden an Funding und erstklassigen Teams haben kapituliert. Nicht, weil ihre Technologie schlecht war, sondern weil die ökonomischen Realitäten unüberwindbar waren.
Ein neues Phänomen entstand: "Reverse Acqui-hires". Big Tech kaufte nicht die Produkte oder Technologien dieser Startups - sie kauften die Teams und ließen die Produkte sterben.
Inflection AI: $1,3 Milliarden waren nicht genug
Inflection AI war auf dem Papier ein Dream-Investment. Gegründet von Mustafa Suleyman (ehemaliger DeepMind-Mitgründer) und Karén Simonyan (ebenfalls DeepMind), hatte das Startup die perfekten Voraussetzungen: Top-Talent, visionäre Führung, massive Finanzierung.
Juni 2023: Der Start mit Maximum-Hype
Inflection AI sammelte $1,3 Milliarden in einer Series-A-Runde - eine der größten Series-A-Runden der Geschichte. Die Bewertung lag bei etwa $4 Milliarden. Lead-Investoren waren Microsoft, Reid Hoffman (LinkedIn-Mitgründer) und Bill Gates. Die Investorenliste war ein Who's Who der Tech-Elite.
Die Vision: "Pi" - der freundlichste und empathischste AI-Chatbot. Während ChatGPT auf Produktivität fokussiert war, sollte Pi ein persönlicher Begleiter sein - emotional intelligent, mitfühlend, ein digitaler Freund.
Das Produkt funktionierte. Pi hatte über 1 Million aktive Nutzer. Nutzer-Reviews waren überwiegend positiv. Das Team lieferte.
März 2024: Der Kollaps - nur 9 Monate später
Im März 2024, nur neun Monate nach der Rekord-Finanzierung, kam die Schockmeldung: Microsoft zahlte $653 Millionen an Inflection AI - nicht für eine Übernahme, sondern für ein Acqui-hire.
Was bedeutete das konkret?
- Microsoft stellte CEO Mustafa Suleyman und nahezu das gesamte technische Team ein
- Microsoft lizenzierte die Technologie
- Inflection AI blieb als Hülse zurück - mit nur etwa 10 Mitarbeitern
- Das Unternehmen pivotierte zu einem "Enterprise-Focus", aber Pi als Produkt war de facto tot
Was ging schief? Die brutale Ökonomie
Inflection AI hatte alles: Funding, Talent, Produkt, Nutzer. Was fehlte?
Monetarisierung: Eine Million Nutzer hört sich gut an, aber wie monetarisiert man einen "freundlichen Chatbot"? Nutzer waren nicht bereit, dafür zu zahlen, wenn ChatGPT kostenlos war.
Trainingskosten explodierten: Um mit GPT-4, Claude und Gemini mitzuhalten, hätte Inflection hunderte Millionen in Retraining und Modell-Verbesserungen investieren müssen - ständig.
Die Erkenntnis: Selbst $1,3 Milliarden reichen nicht, um gegen OpenAI (mit Microsoft's $13 Milliarden), Google (mit $100 Milliarden) und Anthropic (mit $27 Milliarden) zu konkurrieren.
Mustafa Suleyman sagte später in Interviews sinngemäß: "Es war zu teuer, um mit Big Tech zu konkurrieren. Wir hatten die Wahl: Weitermachen und in 2 Jahren bankrott sein, oder einen Ausstieg finden."
Microsoft bekam, was es wollte: Ein erstklassiges AI-Team ohne den Aufwand einer vollständigen Übernahme und ohne regulatorische Prüfungen (die FTC hätte eine $4-Milliarden-Übernahme intensiv geprüft).
Die Investoren? $1,3 Milliarden rein, $653 Millionen zurück. Ein Verlust von etwa 50% in weniger als einem Jahr.
Adept: $400 Millionen → Pre-Product-Kapitulation
Wenn Inflection AI zumindest ein funktionierendes Produkt hatte, ist Adept noch bemerkenswerter - ein Startup, das kapitulierte, bevor es überhaupt ein Produkt gelauncht hatte.
2022-2024: Der Aufstieg
Adept sammelte insgesamt $400 Millionen an Funding. Die Vision war ehrgeizig: AI-Agents, die komplexe Aufgaben für Wissensarbeiter übernehmen können - nicht nur Fragen beantworten, sondern tatsächlich handeln.
Das Team wuchs auf etwa 100 Mitarbeiter. Es gab interne Demos, vielversprechende Prototypen. Investoren waren begeistert.
Aber: Kein öffentliches Produkt. Kein Revenue. Keine Kunden. Status: Pre-Product.
Juni 2024: Amazon's Acqui-hire
Amazon stellte CEO David Luan und etwa 80 der 100 Mitarbeiter ein. Amazon lizenzierte die Technologie. Etwa 20 Mitarbeiter blieben bei Adept zurück.
Was aus diesen 20 Mitarbeitern wurde? Bloomberg recherchierte auf LinkedIn: Nur 4 Personen listen Adept noch als ihren Arbeitgeber. Das Unternehmen ist praktisch nicht mehr existent.
Die FTC (Federal Trade Commission) untersucht den Deal wegen möglicher wettbewerbswidriger Praktiken. Die Sorge: Big Tech nutzt Acqui-hires, um Talente einzusammeln und potenzielle Konkurrenten zu eliminieren, ohne formelle Übernahmen durchzuführen (die regulatorisch geprüft würden).
Was bedeutet das?
Ein Startup mit $400 Millionen Funding gab auf, bevor es überhaupt einen zahlenden Kunden hatte. Nicht weil die Technologie nicht funktionierte - die Demos waren gut. Sondern weil das Team realisierte: "Wir können kein wettbewerbsfähiges LLM bauen, und ohne eigenes LLM können wir die AI-Agents nicht so gut machen wie nötig."
Die Gründer hatten die Wahl: Weitere $200-500 Millionen fundraisen (was immer schwieriger wurde) und weitere 2-3 Jahre kämpfen, oder Amazon den Schlüssel übergeben und persönlich gut herauskommen.
Sie wählten letzteres.
Character.AI: Erfolgreich - und trotzdem gescheitert
Character.AI ist vielleicht das schockierendste Beispiel, weil es das Paradoxon zeigt: Selbst mit Product-Market-Fit, Millionen Nutzern und Revenue ist man nicht profitabel genug, um gegen Big Tech zu bestehen.
2022-2024: Der Erfolg
Character.AI war einer der erfolgreichsten AI-Chatbots überhaupt. Nutzer konnten benutzerdefinierte AI-Charaktere erstellen - von historischen Persönlichkeiten bis zu fiktiven Figuren. Das Produkt ging viral.
Die Erfolgs-Metriken:
- Millionen aktive Nutzer
- Hohe Engagement-Raten (Nutzer verbrachten Stunden pro Tag auf der Plattform)
- Product-Market-Fit ✅ (deutlich erkennbar durch organisches Wachstum)
- Revenue ✅ (durch Premium-Subscriptions)
Character.AI hatte alles, was ein erfolgreiches Startup ausmacht.
August 2024: Google's $2,7-Milliarden-Acqui-hire
Google stellte die Gründer Noam Shazeer und Daniel De Freitas ein - für einen Deal im Gesamtwert von $2,7 Milliarden (Gehälter, Bonuses, Aktien über mehrere Jahre).
Die verbleibende Company? Kündigte an, dass sie die LLM-Entwicklung aufgibt. Character.AI wird weiterbetrieben, aber mit externen LLMs (vermutlich Google's Gemini).
Die offizielle Begründung: "It's gotten insanely expensive to compete with Big Tech on model development."
Lassen Sie sich das auf der Zunge zergehen: Ein Unternehmen mit Millionen zahlenden Nutzern sagt, es kann sich nicht leisten, ein eigenes LLM zu betreiben.
Die Ökonomie dahinter:
Character.AI hatte massiven Traffic - Millionen Nutzer, die stundenlang chatten. Jede Chat-Message kostet Geld (Server-Inferenz). Die Kosten skalierten mit dem Erfolg.
Gleichzeitig mussten sie das Modell ständig verbessern, um mit ChatGPT und Claude mitzuhalten. Das bedeutete kontinuierliche Retraining-Kosten in hunderten Millionen.
Revenue durch Subscriptions (z.B. $9,99/Monat) reichte nicht aus, um die Kosten zu decken. Der klassische Venture-Backed-Startup-Ansatz - erst wachsen, später profitabel werden - funktioniert nicht, wenn Ihre Kosten schneller wachsen als Ihr Revenue.
Die Gründer machten die Rechnung und erkannten: "Wir können entweder weiter Geld verbrennen und in 2 Jahren bankrott sein, oder wir acceptieren Google's Angebot und sichern uns persönlich ab."
Das Muster: Warum alle scheiterten
Schauen wir uns die Gemeinsamkeiten an:
| Startup | Funding | Team-Qualität | Produkt | Outcome | Offizielle Begründung |
|---|---|---|---|---|---|
| Inflection | $1,3B | Ex-DeepMind Founders | ✅ 1M Users | MSFT Acqui-hire $653M | "Too expensive to compete" |
| Adept | $400M | Top-Talent | ❌ Pre-Product | AMZN Acqui-hire | Pre-product capitulation |
| Character.AI | Unknown | Ex-Google | ✅ Millionen Users, Revenue | GOOG Acqui-hire $2,7B | "Insanely expensive" |
| Stability AI | $101M | Mixed | ✅ Stable Diffusion | Turmoil, CEO exit | Unprofitable, competition |
Das erschreckende Muster:
- Funding hilft nicht: Selbst $1,3 Milliarden waren nicht genug (Inflection)
- Talent hilft nicht: Ex-DeepMind und Ex-Google-Gründer schafften es nicht (Inflection, Character.AI)
- Product-Market-Fit hilft nicht: Millionen Nutzer und Revenue waren nicht genug (Character.AI)
- Alle erkannten die gleiche Wahrheit: Man kann nicht gegen Gegner antreten, die 10-100x mehr Kapital haben
Die mathematische Realität: Wenn ein Startup weniger als $5 Milliarden Funding hat und gegen OpenAI, Google, Anthropic oder Meta antritt, ist das wahrscheinlichste Outcome ein Acqui-hire oder Shutdown.
Die Investoren-Perspektive: Diese "Exits" via Acqui-hire sind für VCs oft Verlustgeschäfte. Inflection: $1,3B rein, $653M zurück = ~50% Verlust. Selbst wenn Character.AI's $2,7B fair verteilt wurden (was unwahrscheinlich ist), ist das kein großartiger Return für die investierten hunderte Millionen.
Die Lehre für 2026: Foundation Models sind ein Minenfeld. Selbst die bestfinanzierten, bestgeführten Startups scheitern.
Teil 3: Das Spezialisierungs-Trugbild - Warum Legal- und Medical-AI keine eigenen LLMs bauen
Ein häufiges Gegenargument lautet: "Okay, generische LLMs sind zu teuer. Aber was ist mit spezialisierten LLMs? Legal AI, Medical AI, Finance AI - haben die nicht einen Moat durch Domain-Expertise?"
Das ist eine sehr gute Frage. Und die Antwort ist nuanciert: Ja, Spezialisierung funktioniert - aber NICHT durch den Bau eigener Foundation Models.
Lassen Sie mich das am Beispiel Legal AI zeigen, dem aktuell erfolgreichsten vertikalen AI-Bereich.
Legal AI: Harvey & CoCounsel - Erfolg ohne eigenes Foundatio Model
Im Februar 2025 wurde die erste umfassende Benchmark-Studie für Legal AI Tools veröffentlicht. Die Ergebnisse waren beeindruckend - und aufschlussreich.
Harvey Assistant - das führende Legal-AI-Startup:
- Document Q&A: 94,8% Accuracy (nahezu menschliches Niveau)
- Case Law Search: 97% der Anwälte bevorzugten Harvey's Ergebnisse gegenüber herkömmlichen Recherche-Tools
- Overall Performance: Höchste Bewertung in 5 von 6 Aufgabenkategorien
- Training Data: 10 Milliarden Tokens an spezialisiertem Legal-Data integriert
CoCounsel 2.0 (Thomson Reuters):
- Document Q&A: 89,6% Accuracy
- Document Summarization: 77,2% Accuracy
- Average Score: 79,5% über alle getesteten Aufgaben - die höchste Durchschnittsbewertung in der Studie
- Konsistenz: Durchweg Top-Performer über verschiedene Legal-Task-Kategorien
LawGeex (Contract Review):
- Forrester Consulting Studie: 75% Reduktion der Contract-Review-Zeit
- ROI für Kanzleien: Anwälte können sich auf komplexere Aufgaben konzentrieren
Der Erfolg ist real und messbar. Spezialisierung auf Legal AI funktioniert eindeutig.
ABER: Keines dieser Unternehmen baut ein eigenes Foundation Model.
Die Realität hinter Harvey's Erfolg
Harvey ist transparent über seine Architektur (in öffentlichen Statements und Interviews): Sie bauen kein eigenes Foundation Model, sondern nutzen ein sophisticated Ensemble-System basierend auf bestehenden Modellen.
Harvey's tatsächliche Architektur:
Harvey hat eine Partnerschaft mit OpenAI und nutzt primär GPT-4 als Basis-Modell. Zusätzlich verwenden sie Claude (Anthropic) und eigene Fine-tuned Versionen in Zusammenarbeit mit OpenAI.
Die "Secret Sauce" ist nicht das Modell selbst, sondern:
10 Milliarden Tokens spezialisierter Legal-Daten: Harvey hat Zugang zu proprietären Rechts-Datenbanken, historischen Fällen, Vertragsvorlagen etc.
Ensemble-Approach: Jede Anfrage wird nicht von einem Modell beantwortet, sondern von 30 bis 1.500 verschiedenen Modell-Calls (je nach Komplexität). Das System orchestriert mehrere Modelle:
- GPT-4: Für allgemeines Document-Understanding
- Custom Fine-tune (in Partnerschaft mit OpenAI): Für spezifische Legal-Aufgaben wie Case-Law-Recherche
- Claude: Für Risk-Assessment und Gegenargumente
Prompt Engineering: Spezialisierte Prompts, die legal-spezifisches Wissen abfragen
RAG (Retrieval-Augmented Generation): Das System sucht relevante Rechts-Dokumente in Echtzeit und füttert sie ins Modell
Human-in-the-Loop: Anwälte validieren Outputs, dieses Feedback fließt zurück ins System
Das Ergebnis: In Benchmark-Tests bevorzugten 97% der Anwälte die Outputs des custom-trained Case Law Modells gegenüber Standard-GPT-4. Aber das Modell ist ein Fine-tune von GPT-4, nicht ein komplett eigenes Foundation Model.
Die Kosten-Rechnung: Warum kein eigenes Foundation Model?
Lassen Sie mich zwei Szenarien durchrechnen - basierend auf realistischen Kostenannahmen:
Szenario A: Eigenes Legal Foundation Model trainieren
Dieses Szenario würde bedeuten: Ein komplettes LLM von Grund auf trainieren, spezialisiert auf Legal-Domäne.
Initiale Trainingskosten: $500 Millionen für ein mid-size Modell (kleiner als GPT-4, aber groß genug für komplexe Legal-Aufgaben). Das ist ein conservative Estimate - Meta's LLaMA 3 kostete $750M-$1B.
Infrastruktur: $100 Millionen pro Jahr für Server, GPUs, Hosting. Bei Millionen von Anfragen täglich (Harvey wird von tausenden Anwälten genutzt) summiert sich das.
Daten-Akquisition: $50 Millionen für hochwertige Legal-Daten. Lizenzen für Rechtsdatenbanken, historische Fälle, Verträge etc. sind teuer, da sie oft proprietär sind.
AI-Researcher und Engineers: $50 Millionen pro Jahr für ein Team von etwa 25 Top-Researchern und 50 Engineers. Legal-AI ist komplex, Sie brauchen sowohl AI-Expertise als auch Legal-Domain-Expertise.
3-Jahres-Total:
- Initiales Training: $500.000.000
- Jahr 1: $200.000.000 (Infrastruktur + Talent + Daten)
- Jahr 2: $200.000.000
- Jahr 3: $200.000.000
Gesamt: $1,15 Milliarden über 3 Jahre
Szenario B: Fine-tuning + RAG auf OpenAI/Anthropic (Harvey's tatsächlicher Ansatz)
OpenAI API-Kosten: $5 Millionen pro Jahr. Bei hohem Volumen (Harvey macht pro Anfrage 30-1.500 Modell-Calls!) können die API-Kosten erheblich sein. OpenAI bietet Enterprise-Pricing, aber selbst dann: bei Millionen Anfragen pro Monat landet man schnell bei Millionen-Kosten pro Jahr.
Fine-tuning Costs: $2 Millionen (einmalig). OpenAI bietet Fine-tuning Services. Mit 10 Milliarden Tokens an Legal-Daten ist das nicht billig, aber machbar.
Daten-Preparation: $3 Millionen. Die Legal-Daten müssen aufbereitet, strukturiert und annotiert werden - das ist arbeitsintensiv.
Engineering-Team: $10 Millionen pro Jahr für ein Team von etwa 10-15 hochqualifizierten Engineers. Sie brauchen keine AI-Researcher (OpenAI macht das Research), sondern Prompt-Engineers, System-Architekten und Domain-Experten.
3-Jahres-Total:
- Fine-tuning (einmalig): $2.000.000
- Daten-Prep (einmalig): $3.000.000
- Jahr 1: $15.000.000 (API-Kosten + Team)
- Jahr 2: $15.000.000
- Jahr 3: $15.000.000
Gesamt: $50 Millionen über 3 Jahre
Der Vergleich:
- Custom LLM: $1.150.000.000
- Fine-tuned Approach: $50.000.000
- Ersparnis: $1.100.000.000
Das ist 23-mal günstiger!
Und das Beste: Der Fine-tuned Approach liefert vergleichbare oder sogar bessere Ergebnisse, weil:
- Sie profitieren von OpenAI's kontinuierlichen Verbesserungen (wenn GPT-5 rauskommt, können Sie Ihre Fine-tunes darauf migrieren)
- Sie haben keine Infrastruktur-Kopfschmerzen
- Sie können sich auf Domain-Expertise konzentrieren (Legal-Wissen) statt AI-Research
Harvey's Erfolg beweist: Spezialisierung funktioniert, aber der Wert liegt in proprietären Daten, Domain-Expertise und Workflow-Integration - nicht im Foundation Model selbst.
Medical AI: Die gleiche Story
Der Medical-AI-Bereich zeigt das gleiche Muster. Die erfolgreichen Startups bauen keine eigenen Foundation Models, sondern nutzen bestehende Modelle mit medizinischer Spezialisierung.
Hippocratic AI (Healthcare Workflows):
- Nutzt: GPT-4, Claude und eigene Fine-tunes auf diesen Modellen
- Focus: Healthcare-spezifische Workflows, nicht LLM-Training
- Funding: $137M Series B (Mai 2024)
- Use-Case: AI-gestützte Patientenkommunikation, Triage, Follow-ups
Nabla (Medical Copilot):
- Nutzt: GPT-4 API
- Focus: Medical Scribes, automatische klinische Dokumentation
- Funding: $30M+ (2023/2024)
- Use-Case: Ärzte diktieren während der Konsultation, Nabla erstellt strukturierte medizinische Notizen
Glass Health (Differential Diagnosis):
- Nutzt: GPT-4
- Focus: Clinical Decision Support, Differential Diagnosis Tool
- Funding: Seed/Series A (Beträge nicht öffentlich)
- Use-Case: Ärzte geben Symptome ein, System schlägt mögliche Diagnosen vor
Alle Gemeinsamkeiten:
- Nutzen bestehende Foundation Models (GPT-4, Claude, Gemini)
- Investieren in Domain-Daten: Medizinische Lehrbücher, klinische Guidelines, Fallstudien
- Fokus auf Workflows: Integration in Electronic Health Records (EHR), klinische Workflows
- NICHT in LLM-Training: Keines dieser Startups trainiert ein Foundation Model von Grund auf
Warum? Die gleiche Ökonomie wie bei Legal AI:
Ein eigenes Medical Foundation Model würde $1+ Milliarden kosten. Fine-tuning + RAG kostet $20-50 Millionen. Der Return ist ähnlich, aber die Kosten sind 20-50x niedriger.
Zusätzlich: Regulatorische Aspekte. Medical AI unterliegt in vielen Ländern der Medizinprodukte-Regulierung (FDA in den USA, CE-Kennzeichnung in Europa). Ein Fine-tuned System auf einem bereits validierten Basis-Modell ist regulatorisch einfacher zu handhaben als ein komplett eigenes Model.
Die Lehre: Spezialisierung ≠ Eigenes Foundation Model
Die erfolgreichen Startups im Legal-, Medical- und Finance-Bereich zeigen alle das gleiche Muster:
Was funktioniert:
- Spezialisierung auf eine Industrie (Legal, Medical, Finance)
- Proprietäre Domain-Daten (Rechtsdatenbanken, medizinische Lehrbücher, Finanz-Transaktionen)
- Workflow-Integration (Salesforce, SAP, Epic EHR, etc.)
- Fine-tuning + RAG auf bestehenden Modellen
- Domain-Expertise im Team (Anwälte, Ärzte, Finanzexperten)
Was NICHT funktioniert:
- Versuch, ein eigenes Foundation Model zu trainieren
- "Our model is better than GPT-4"-Pitch
- Fokus auf Modell-Technologie statt Business-Value
Die Take-away für VCs: Wenn ein Legal-/Medical-/Finance-AI-Startup pitcht, dass sie ein eigenes specialized Foundation Model bauen, ist das ein Red Flag. Die erfolgreichen Player tun das nicht - warum sollte ein Startup mit weniger Kapital es besser können?
Teil 5: Die Ausnahmen - Wann KÖNNTE ein LLM-Investment Sinn machen?
Ich habe bisher ein sehr negatives Bild gezeichnet. Und das ist bewusst - weil die Realität für 95% der LLM-Startups tatsächlich negativ ist. Aber es gibt Ausnahmen. Sehr seltene, sehr spezifische Ausnahmen, in denen ein Investment in ein LLM-Startup tatsächlich Sinn machen könnte.
Lassen Sie mich transparent sein: Diese Ausnahmen erfordern außergewöhnliche Umstände. Sie sind nicht die Regel, sondern absolute Outlier.
Ausnahme 1: Sie haben $5+ Milliarden und einen 10-Jahres-Horizont
Die erste Ausnahme ist einfach: Wenn Sie bereit sind, Milliarden zu investieren und ein Jahrzehnt zu warten, könnten Sie theoretisch ein konkurrenzfähiges LLM aufbauen.
Die europäischen Beispiele: Mistral AI und Cohere
Diese beiden Unternehmen zeigen, dass es möglich ist - aber auch, wie schwierig und kapitalintensiv es ist.
Mistral AI - Der europäische Champion:
Mistral AI hat insgesamt $3,05 Milliarden über 7 Finanzierungsrunden von 41 Investoren eingesammelt. Die Bewertungsentwicklung war beeindruckend:
- Juni 2023: $260 Millionen Seed-Valuation - rekordverdächtig für ein europäisches AI-Startup
- Juni 2024: $6,2 Milliarden Valuation nach einer €600 Millionen-Runde
- September 2025: $14 Milliarden Valuation nach einer €2 Milliarden-Investition
Das ist ein 53-faches Wachstum der Bewertung in etwa 2 Jahren - auf dem Papier ein spektakulärer Erfolg.
Die Investoren sind hochkarätig: IBM, NVIDIA, Cisco, Andreessen Horowitz und weitere Tech-Größen.
Die Geschäftszahlen - und warum sie Sorgen bereiten sollten:
- Revenue 2024: $30 Millionen
- Revenue 2025 (Prognose): $60 Millionen
Klingt nach Wachstum. Aber jetzt die Realität: Bei $3 Milliarden Funding und einer geschätzten Burn Rate von $250+ Millionen pro Jahr bedeutet das:
Burn Rate vs. Revenue: Mistral verbrennt etwa 4-8x mehr Geld pro Jahr als sie einnehmen. Selbst wenn sie $60 Millionen Revenue machen, kostet sie der Betrieb $250-300 Millionen.
Runway-Rechnung: Mit $3 Milliarden Funding und $250 Millionen jährlichem Burn haben sie theoretisch 12 Jahre Runway. Das klingt gut - aber nur, wenn sie nicht gegen Konkurrenten antreten müssen, die ihre Investitionen verdoppeln oder verdreifachen.
Die Mistral-These - warum sie dennoch gewinnen könnten:
EU AI Act und Regulatory Advantage: Die Europäische Union bevorzugt zunehmend lokale AI-Anbieter. Datensouveränität wird ein immer wichtigeres Thema. Europäische Unternehmen und Regierungen könnten gesetzlich verpflichtet werden, EU-basierte AI zu nutzen.
Datensouveränität: Viele europäische Unternehmen sind nervös bei dem Gedanken, ihre sensiblen Daten an US-amerikanische Anbieter (OpenAI, Google, Anthropic) zu senden. Mistral bietet eine Alternative.
Open-Source-Strategie: Ähnlich wie Meta verschenkt Mistral viele ihrer Modelle als Open Source. Das schafft Adoption und könnte langfristig zum Standard in Europa werden.
Realistische Einschätzung: Mistral könnte der "europäische Champion" werden - aber das ist ein Nischenmarkt verglichen mit dem globalen AI-Markt. Erfolgswahrscheinlichkeit: 20-30%, und selbst im Erfolgsfall wahrscheinlich kein 10x-Return für frühe Investoren.
Cohere - Der Enterprise-Fokus als Differentiator:
Cohere hat $1,54 Milliarden über 7 Runden von 28 Investoren eingesammelt. Die Bewertungsentwicklung:
- Juli 2024: $5,5 Milliarden Valuation mit $500 Millionen Series D
- August 2025: $6,8 Milliarden Valuation mit weiteren $500 Millionen
- September 2025: $7 Milliarden Valuation nach $100 Millionen Extension
Investoren inkludieren AMD Ventures, NVIDIA, Salesforce Ventures und das Healthcare of Ontario Pension Plan.
Die Geschäftszahlen - deutlich besser als Mistral:
- Revenue 2024: $30 Millionen (gleich wie Mistral)
- Revenue 2025 (Prognose): $200 Millionen
Das ist ein 6,7x Wachstum - deutlich beeindruckender. Wenn diese Prognose stimmt, könnte Cohere tatsächlich einen Weg zur Profitabilität finden.
Die Cohere-These:
Enterprise-First statt Consumer: Cohere zielt nicht auf Endnutzer, sondern auf Unternehmen. Das bedeutet höhere Preise, längere Verträge, vorhersagbareren Revenue.
AI Sovereignty: Als kanadisches Unternehmen positioniert sich Cohere als Alternative zu US-Anbietern - wichtig für Regierungen und regulierte Industrien.
Customization und Control: Cohere bietet mehr Anpassungsmöglichkeiten als die OpenAI API - wichtig für Enterprises mit speziellen Anforderungen.
Realistische Einschätzung: Von allen LLM-Startups außerhalb des "Big 4" (OpenAI, Anthropic, Google, Meta) hat Cohere die besten Chancen. Erfolgswahrscheinlichkeit: 30-40%, vor allem wenn der Enterprise-Market wirklich stark wächst.
Die Investment-Perspektive für beide:
Wenn Sie in Mistral oder Cohere investieren, investieren Sie nicht in ein typisches Startup. Sie investieren in ein Quasi-Public-Company-Play mit enormem Kapitalaufwand und langer Timeline.
Die Fragen, die Sie stellen müssen:
- Sind Sie bereit, weitere $2-5 Milliarden nachzulegen, wenn nötig? (Wahrscheinlich ja, denn diese Unternehmen werden mehr Kapital brauchen)
- Ist Ihr Fonds groß genug für $100-500 Millionen Checks? (Bei $1B+ Valuations sind kleinere Checks sinnlos)
- Haben Sie einen 10-Jahres-Horizont ohne Rückgabedruck? (Diese Unternehmen werden nicht in 5 Jahren exitieren)
Wenn Sie auch nur eine dieser Fragen mit "Nein" beantworten, sind Mistral und Cohere nichts für Sie.
Ausnahme 2: Extreme Spezialisierung mit massivem Regulatory Moat
Die zweite Ausnahme ist noch seltener: Ein derart spezialisiertes LLM in einem derart regulierten Markt, dass Big Tech nicht einfach einsteigen kann.
Wann funktioniert das?
Es müssen alle der folgenden Kriterien erfüllt sein - nicht nur eines oder zwei, sondern wirklich alle:
Kriterium 1: Extreme Regulierung mit jahrelangem Approval-Prozess
Nicht einfach "reguliert", sondern extreme Regulierung. Beispiele:
Medizinprodukte: FDA-Approval in den USA kann 5-10 Jahre dauern. CE-Kennzeichnung in Europa ebenfalls Jahre. Ein LLM als Medizinprodukt (z.B. für diagnostische Zwecke) würde massive klinische Studien erfordern.
Finanzdienstleistungen: BaFin-Zulassung in Deutschland, SEC-Approval in den USA. Für AI-Systeme, die Trading-Entscheidungen treffen oder Kredit-Scores berechnen, sind die Hürden enorm.
Verteidigung und Geheimdienste: Sicherheitsfreigaben (Security Clearance) auf höchstem Niveau. Daten dürfen das Land nicht verlassen, Personal muss überprüft werden, Infrastruktur muss air-gapped sein.
Warum das ein Moat ist: Selbst wenn OpenAI ein besseres Modell hat, können sie es nicht einfach im medizinischen Kontext einsetzen - sie müssten durch denselben jahrelangen Approval-Prozess. Das verschafft Ihnen Zeit.
Kriterium 2: On-Premise / Air-Gapped Deployment erforderlich
Das bedeutet: Keine Cloud-APIs erlaubt. Das Modell muss im eigenen Rechenzentrum des Kunden laufen.
Beispiele:
- Militär: Streng geheime Informationen dürfen nicht über das Internet laufen
- Banken: Manche Transaktionsdaten sind so sensitiv, dass sie das Bankennetzwerk nicht verlassen dürfen
- Regierungsbehörden: Viele europäische Regierungen verlangen, dass Daten auf europäischem Boden bleiben
Warum das ein Moat ist: OpenAI's Geschäftsmodell basiert auf Cloud-APIs. Sie können kein On-Premise-Modell anbieten, weil ihr gesamtes Geschäftsmodell auf centralisierten Servern basiert. Meta's LLaMA ist Open Source, aber erfordert massive Hardware - nicht jede Organisation kann 100+ GPUs betreiben.
Kriterium 3: Proprietäre Daten, die nicht geteilt werden können
Die Trainingsdaten sind so sensitiv, dass sie nicht an OpenAI oder andere externe Anbieter geschickt werden können.
Beispiele:
- Geheimdienste: Nachrichtendienst-Dokumente, die klassifiziert sind
- Pharma: Patentierte Forschungsdaten, die nicht public werden dürfen
- Finance: Proprietary Trading-Strategien
Warum das ein Moat ist: Fine-tuning von GPT-4 erfordert, dass Sie Ihre Daten an OpenAI schicken. Wenn Ihre Daten zu sensitiv sind, ist das keine Option.
Kriterium 4: Team mit echter Domain-Expertise (nicht nur AI)
Das Team muss die Domäne besser verstehen als die AI-Technologie. Beispiel:
- Für Medical AI: Ärzte und klinische Forscher, die AI verstehen
- Für Defense AI: Ex-Militär und Intelligence-Officers, die AI verstehen
- Für Finance AI: Trader und Risk-Manager, die AI verstehen
Warum das wichtig ist: OpenAI hat die besten AI-Researcher der Welt - aber sie haben keine Ärzte mit 20 Jahren klinischer Erfahrung. Sie haben keine Ex-CIA-Officers. In extrem regulierten Märkten ist Domain-Wissen wichtiger als AI-Wissen.
Ein realistisches Beispiel: Militär-LLM für Intelligence-Analyse
Stellen Sie sich vor: Ein Startup baut ein LLM speziell für militärische Nachrichtenanalyse.
- Daten: Klassifizierte Geheimdienstberichte, Satellitenbilder, abgefangene Kommunikation
- Deployment: Air-gapped, in gesicherten Militärbasen
- Regulierung: Top-Secret-Clearance für alle Mitarbeiter erforderlich
- Team: Ex-CIA und NSA-Analysten, die zu AI-Experten wurden
Warum OpenAI das nicht machen kann:
- Ihre Mitarbeiter haben nicht die nötigen Security Clearances (das dauert Jahre)
- Sie können kein Cloud-basiertes Modell für klassifizierte Daten anbieten
- Sie haben keine Domain-Expertise in Geheimdienstanalyse
Warum das Startup gewinnen könnte:
- Sie haben die Clearances
- Sie haben ein On-Premise-Deployment
- Sie haben Ex-Intelligence-Officers im Team
- Ihr Kunde (das Militär) zahlt Premium-Preise und hat massive Budgets
ABER - und das ist wichtig - selbst dann ist die Frage: Brauchen Sie wirklich ein eigenes Foundation Model?
Oft ist die Antwort: Nein, auch hier reicht Fine-tuning von Open-Source-Modellen.
Meta's LLaMA ist Open Source. Sie können es herunterladen, On-Premise deployen, auf Ihren klassifizierten Daten fine-tunen, und haben ein funktionierendes System - für $50-100 Millionen statt $1+ Milliarde.
Mistral und Cohere bieten ebenfalls On-Premise-Deployments ihrer Modelle an.
Ein komplett eigenes Foundation Model von Grund auf ist selbst in diesen extremen Szenarien selten gerechtfertigt.
Die Investment-Perspektive:
Wenn ein Startup mit dieser Ausnahme pitcht, fragen Sie:
- "Warum reicht Fine-tuning von LLaMA/Mistral On-Premise nicht aus?" - Die Antwort sollte sehr konkret sein
- "Welche regulatorischen Approvals haben Sie bereits?" - Nicht "werden wir bekommen", sondern "haben bereits"
- "Wie groß ist der adressierbare Markt?" - Oft sind diese Ultra-Nischen-Märkte sehr klein (z.B. nur US-Militär = ein Kunde)
- "Was ist Ihr Path zu $100M+ Revenue?" - Bei einem oder zwei Kunden wird das schwierig
Realistische Einschätzung: Selbst wenn alle Kriterien erfüllt sind, ist das Investment-Risiko hoch. Erfolgswahrscheinlichkeit: < 20%, und selbst im Erfolgsfall wahrscheinlich kein spektakulärer Return (3-8x über 7-10 Jahre).
Ausnahme 3: Sie sind ein Big-Tech-Unternehmen (und kein Startup)
Die dritte "Ausnahme" ist eigentlich keine für VCs - aber der Vollständigkeit halber:
Wer kann sich LLMs außerhalb der "Big 4" leisten?
Apple: Hat die Ressourcen ($162 Milliarden Cash), die Motivation (AI Sovereignty, Integration in iOS/macOS) und die Distribution (2+ Milliarden Apple-Geräte weltweit)
Alibaba und Tencent: In China ist der Markt faktisch von OpenAI abgeschnitten (Regulierung). Chinesische Tech-Giganten müssen eigene LLMs bauen. Sie haben das Kapital und den geschützten Heimmarkt.
SAP: Mit $10+ Milliarden jährlichem Free Cash Flow könnten sie theoretisch ein Enterprise-LLM bauen, tief integriert in ihre ERP-Software. Die Frage ist, ob sie es wollen.
Oracle: Ähnlich wie SAP - massive Ressourcen, Cloud-Infrastruktur, Enterprise-Kunden. Ein Oracle-LLM tief integriert mit ihren Datenbanken könnte Sinn machen.
Warum das keine VC-Opportunität ist:
Diese Unternehmen brauchen kein Venture Capital. Wenn Apple ein LLM bauen will, schreiben sie einen $5-Milliarden-Check aus ihrer Cash-Reserve. VCs sind hier nicht im Spiel.
Für VCs bedeutet das aber: Jedes Startup, das nicht die Ressourcen eines Apple oder Alibaba hat, wird scheitern (außer in den sehr seltenen Ausnahmen 1 und 2 oben).
Die zentrale Lehre aus den Ausnahmen:
Ja, es gibt theoretische Szenarien, in denen ein LLM-Investment Sinn machen könnte. Aber:
Ausnahme 1 (Mistral/Cohere-Level): Erfordert Multi-Milliarden-Checks, 10-Jahres-Horizont, und die Bereitschaft, neben Google/Microsoft/Amazon zu investieren. Nur für die größten Fonds relevant.
Ausnahme 2 (Regulatory Moat): Extrem selten, erfordert dass alle Kriterien erfüllt sind, und selbst dann oft unnötig (Fine-tuning reicht).
Ausnahme 3 (Big Tech): Keine VC-Opportunität.
Für 95%+ der VCs gilt: LLM-Investments sind ein No-Go.
Teil 6: Due Diligence für AI-Startups - Die richtigen Fragen stellen
Wenn Ihnen trotz allem ein AI-Startup pitcht - sei es mit eigenem LLM oder mit AI-Application-Layer - was sollten Sie fragen?
Hier ist ein praktischer Due-Diligence-Framework, entwickelt aus den Learnings der letzten 2 Jahre.
Die 10 kritischen Fragen für jeden AI-Startup-Pitch
Frage 1: "Baut ihr euer eigenes Foundation Model, oder nutzt ihr bestehende?"
Warum diese Frage wichtig ist: Das ist die fundamentalste Frage. Die Antwort bestimmt, ob Sie überhaupt weitermachen sollten.
Red Flag Antworten:
- "Ja, wir bauen unser eigenes Foundation Model von Grund auf"
- "Unser Model ist besser als GPT-4"
- "Wir trainieren auf proprietären Daten" (ohne zu spezifizieren, ob es Fine-tuning oder Full Training ist)
Green Flag Antworten:
- "Nein, wir nutzen OpenAI/Anthropic/Meta und fokussieren auf Workflow-Integration und Domain-Daten"
- "Wir machen Fine-tuning auf GPT-4 mit unseren 10 Milliarden Tokens an Legal-Daten"
- "Wir haben einen Multi-LLM-Approach - je nach Use-Case nutzen wir GPT-4, Claude oder LLaMA"
Was Sie tun sollten:
Wenn die Antwort eine Red Flag ist, fragen Sie sofort: "Warum reicht Fine-tuning von bestehenden Modellen nicht aus?" Die Antwort sollte extrem spezifisch sein - idealerweise einer der Ausnahme-Fälle aus Teil 5 (Regulatory Moat, On-Premise-Requirement, etc.).
Wenn keine überzeugende Antwort kommt, beenden Sie das Meeting. Ihr Zeit ist wertvoll, und die Erfolgswahrscheinlichkeit liegt bei < 5%.
Frage 2: "Was hindert OpenAI daran, euer Feature morgen als Update zu launchen?"
Warum diese Frage wichtig ist: Sie testet den Moat. AI bewegt sich schnell. Was heute unmöglich scheint, kann in 6 Monaten ein OpenAI-Feature sein.
Red Flag Antworten:
- "Unser Modell ist technisch besser" (Technologie ist kein Moat, wenn der Competitor 100x mehr Budget hat)
- "Wir sind first mover" (First-Mover-Advantage existiert nicht in AI - Fast-Follower mit mehr Ressourcen gewinnen)
- "Das ist zu niche für OpenAI" (OpenAI kann Features für Nischen in Wochen bauen)
Green Flag Antworten:
- "Wir haben 10-jährige exklusive Daten-Partnerships mit den Top 5 Kanzleien - diese Daten kann OpenAI nicht bekommen"
- "Wir sind tief in Salesforce integriert mit einer 3-Jahres-Exklusivität - Kunden müssten ihre gesamten Workflows ändern, um zu wechseln"
- "Unser Produkt ist FDA-approved als Medizinprodukt - das dauert 5-7 Jahre. OpenAI müsste durch denselben Prozess"
- "Wir haben Network Effects - je mehr Anwälte unser System nutzen, desto besser wird es durch deren Feedback, das private bleibt"
Was Sie evaluieren sollten:
Der Moat muss structural sein, nicht technologisch. Fragen Sie sich:
- Daten: Sind sie proprietär und nicht replizierbar? (z.B. exklusive Partnerships)
- Regulation: Gibt es einen Approval-Prozess, der Jahre dauert?
- Integration: Ist das Produkt so tief in kritische Workflows integriert, dass Switching-Kosten prohibitiv hoch sind?
- Network Effects: Wird das Produkt besser, je mehr Leute es nutzen - auf eine Art, die Competitors nicht kopieren können?
Wenn die Antwort keine dieser Kategorien klar adressiert, ist der Moat schwach.
Frage 3: "Wie viel Kapital braucht ihr für die nächsten 18 Monate, und wofür?"
Warum diese Frage wichtig ist: Capital Efficiency ist in AI entscheidend. Wenn ein Pre-Product-Startup $100M+ braucht, ist das ein massives Warnsignal.
Red Flag Antworten:
- "$200M für Model-Training" (bei einem Pre-Product-Startup)
- "$100M, und wir haben noch keinen klaren Plan" (keine Klarheit über Verwendung)
- "Wir brauchen $500M für unsere Series A" (unrealistische Erwartungen)
Green Flag Antworten:
- "$15M: $5M für Engineering-Team (10 Leute), $5M für Go-to-Market (Sales + Marketing), $3M für OpenAI API-Kosten, $2M Runway-Buffer"
- "$8M für Product-Development bis PMF, dann weitere $20M für Scale"
- "Wir haben aktuell $2M Runway, brauchen $10M um zu $5M ARR zu kommen, dann sind wir profitable"
Was Sie evaluieren sollten:
Rechnen Sie die Burn Rate und den Path to Revenue:
- Burn Rate: Wie viel verbrennen sie pro Monat? $500k ist normal für ein 15-Personen-Team. $5M ist ein Warnsignal pre-revenue.
- Runway: Wie lange reicht das Geld? < 12 Monate ist gefährlich (sie werden in permanentem Fundraising-Modus sein).
- Path to Profitability: Haben sie einen konkreten Plan, wann sie Break-Even erreichen? "Nach Series C" ist vage. "Bei $10M ARR mit 60% Gross Margin" ist konkret.
Die Regel: Für Application-Layer-Startups (nicht Foundation Models) sollte der Kapitalbedarf für 18 Monate unter $20M liegen bis Product-Market-Fit. Alles darüber deutet auf Ineffizienz oder auf Foundation-Model-Ambitionen hin.
Frage 4: "Wie monetarisiert ihr, und was ist der ROI für eure Kunden?"
Warum diese Frage wichtig ist: Viele AI-Startups haben coole Technologie, aber kein Business Model. In einem Markt, wo OpenAI die Preise aggressiv senkt, brauchen Sie ein solides Revenue-Model.
Red Flag Antworten:
- "API-Calls, wir berechnen $0.001 pro Token" (Race to the bottom - OpenAI kann Sie jederzeit undercutten)
- "Wir sind aktuell kostenlos, werden später monetarisieren" (wie genau?)
- "Wir verkaufen Daten" (ethisch und rechtlich problematisch in vielen Bereichen)
Green Flag Antworten:
- "SaaS-Subscription: $500/Monat pro Anwalt, Kunden sparen durchschnittlich $5.000/Monat durch Effizienzgewinn - 10x ROI"
- "Nutzungsbasiertes Pricing mit Base-Fee: $10k/Jahr + $50 pro 1.000 analysierte Dokumente. Bei 10.000 Dokumenten pro Jahr kostet es $510k, erspart aber $2M an Manual-Review-Kosten"
- "Enterprise-Deals: $250k-$1M ARR Verträge, 3-Jahres-Laufzeit, ROI ist messbar durch 40% schnellere Contract-Review"
Was Sie evaluieren sollten:
- Value-Based Pricing: Berechnen sie basierend auf dem Wert, den sie schaffen? (Gut) Oder basierend auf Kosten? (Schlecht)
- ROI-Klarheit: Können Kunden den ROI klar messen? "10x schnellere Analyse" ist messbar. "Bessere Insights" ist vage.
- Pricing Power: Können sie Preise erhöhen, oder sind sie in einem Commodity-Markt gefangen?
Die Regel: Der ROI für Kunden sollte mindestens 3-5x sein. Wenn Sie $500/Monat kosten, sollten Sie mindestens $1.500-2.500/Monat an Wert schaffen (Zeitersparnis, Effizienz, verhinderte Fehler).
Frage 5: "Was passiert, wenn Meta euren Use-Case mit LLaMA kostenlos anbietet?"
Warum diese Frage wichtig ist: Meta's Open-Source-Strategie ist ein Existenzrisiko für viele AI-Startups. Wenn Ihr Business Model "wir haben ein gutes LLM" ist, sind Sie verwundbar.
Red Flag Antworten:
- "Das wird nicht passieren" (Es ist bereits passiert in vielen Bereichen)
- "Unser Modell ist besser" (Für wie lange?)
- Keine Antwort / Ausweichen
Green Flag Antworten:
- "Unsere Value Proposition ist nicht das Modell, sondern die 10 Jahre an exklusiven Legal-Daten und die Integration in Clio (Legal Practice Management Software), die wir haben"
- "LLaMA ist großartig, wir nutzen es als eines unserer Backend-Modelle. Unser Wert ist die Workflow-Orchestrierung und die Domain-Expertise"
- "Selbst wenn Meta ein kostenloses Legal-LLM anbietet, fehlt ihnen die FDA-Approval, die wir haben - das dauert 5-7 Jahre"
Was Sie evaluieren sollten:
Die Antwort sollte auf Differenziatoren fokussieren, die nicht das Modell selbst sind:
- Daten: Haben sie Daten, die Meta nie bekommen wird?
- Integration: Sind sie in Tools integriert, die Meta nicht einfach replizieren kann?
- Regulation: Haben sie Approvals, die Jahre dauern?
- Workflow-Expertise: Verstehen sie den Workflow ihrer Kunden besser als ein generischer LLM-Anbieter?
Wenn die Antwort primär "unser Modell ist besser" ist, haben Sie kein defensibles Business.
Frage 6: "Wie erreicht ihr Kunden ohne $100M+ Marketing-Budget wie OpenAI?"
Warum diese Frage wichtig ist: OpenAI hat ChatGPT viral gemacht, aber sie haben auch massive Budgets für Marketing. Ein Startup braucht einen realistischeren Go-to-Market.
Red Flag Antworten:
- "Virales Wachstum" (ohne konkrete Mechanismen)
- "SEO und Content Marketing" (das funktioniert bei B2B Enterprise kaum)
- "Wir bauen es, und sie werden kommen" (Field of Dreams ist kein GTM-Plan)
Green Flag Antworten:
- "Direktvertrieb in Top 100 Anwaltskanzleien in Deutschland - wir haben bereits Meetings mit 15 davon durch unser Gründer-Netzwerk"
- "Partnership mit Salesforce - sie werden unser Tool in ihrem AppExchange featuren, das gibt uns Zugang zu 150.000 Salesforce-Kunden"
- "PLG (Product-Led Growth) mit Freemium - einzelne Anwälte können kostenlos starten, dann verkaufen wir Enterprise-Lizenzen an die Kanzlei basierend auf Usage"
Was Sie evaluieren sollten:
Distribution ist oft wichtiger als Technologie. Fragen Sie:
- Haben sie einen unfairen Vorteil? (Netzwerk der Gründer, bestehende Kunden-Relationships, Partnerships)
- Ist der GTM-Plan spezifisch? "Top 100 Kanzleien" ist spezifisch. "SMBs in Deutschland" ist zu vage.
- Haben sie erste Traktion? LOIs (Letters of Intent), Pilot-Kunden, oder sogar Revenue zeigen, dass der GTM funktioniert.
Die Regel: Für B2B-Startups sollte der GTM-Plan direkter Vertrieb oder Partnerships sein, nicht "virales Wachstum". Für B2C kann PLG funktionieren, aber nur mit einem klaren Hook und niedrigen Customer Acquisition Costs.
Frage 7: "Warum seid ihr nicht zu OpenAI/Google/Anthropic gegangen?"
Warum diese Frage wichtig ist: Die besten AI-Researcher werden von Big Tech rekrutiert - mit $2-10M Gehaltspaketen. Warum gründen sie stattdessen ein Startup?
Red Flag Antworten:
- "Weil wir besser sind als sie" (Arroganz ohne Substanz)
- "Weil wir Entrepreneur-Geist haben" (vage)
- Ausweichen / Keine klare Antwort
Green Flag Antworten:
- "Weil ich die letzten 15 Jahre als Partner in einer Top-Kanzlei war und diesen Workflow in- und auswendig kenne. OpenAI hat brillante AI-Forscher, aber keine Anwälte mit 15 Jahren Erfahrung"
- "Weil wir das Problem aus erster Hand bei unserem vorherigen Startup hatten - wir sind Domain-Experten, nicht AI-Researcher. Wir nutzen die besten verfügbaren Modelle und bauen die beste Workflow-Integration"
- "Ich war bei Google AI, aber dort arbeitet man an Forschung. Ich wollte ein echtes Problem für Kunden lösen, nicht Paper veröffentlichen"
Was Sie evaluieren sollten:
Das Team sollte Domain-Expertise > AI-Expertise haben, es sei denn, sie bauen tatsächlich ein Foundation Model (was Sie vermeiden sollten).
- Für Legal AI: Ex-Anwälte, die AI verstehen > AI-Researchers, die Legal aufschnappen
- Für Medical AI: Ärzte, die AI verstehen > AI-Researchers, die Medizin aufschnappen
- Für Sales AI: Ex-Sales-Leaders, die AI verstehen > AI-Researchers, die Sales aufschnappen
Die Regel: Wenn das Team primär aus Ex-Big-Tech-AI-Researchers besteht, fragen Sie kritisch nach, warum sie nicht bei Big Tech geblieben sind. Oft ist die Antwort "wir wollten unser eigenes LLM bauen" - und das ist ein Red Flag.
Frage 8: "Wie sieht ein erfolgreicher Exit für euch aus?"
Warum diese Frage wichtig ist: Diese Frage zeigt, ob die Gründer realistisch sind oder träumen.
Red Flag Antworten:
- "Acqui-hire bei Google oder Microsoft" (Das ist kein Erfolg für Investoren)
- "$100B IPO wie OpenAI" (Unrealistisch für 99,9% der Startups)
- "Wir werden das nächste OpenAI" (Träumerei)
Green Flag Antworten:
- "IPO bei $5-10B Valuation in 7-10 Jahren, basierend auf $500M-$1B ARR"
- "Strategische Acquisition durch Thomson Reuters, LexisNexis oder ähnliche Industry-Player bei $2-5B - sie brauchen AI-Capabilities und wir haben den besten Legal-AI Stack"
- "Wir bauen ein profitables, wachsendes Unternehmen. Exit ist sekundär, aber wenn, dann nur zu einem Preis, der 10x+ Return für frühe Investoren bedeutet"
Was Sie evaluieren sollten:
- Realistisch: Ist der Exit realistisch gegeben die Marktgröße und Traction?
- Strategische Buyer: Gibt es offensichtliche strategische Buyer, die für das Produkt (nicht nur das Team) zahlen würden?
- Timeline: Ist die Timeline realistisch? (7-10 Jahre für IPO ist realistisch, 3-5 Jahre ist meist zu optimistisch)
Die Warnung: Wenn die Antwort "Acqui-hire" einschließt, ist das ein massives Red Flag. Acqui-hires sind gut für Gründer (sie bekommen Jobs bei Big Tech), aber schlecht für Investoren (meist < 50% des investierten Kapitals zurück).
Frage 9: "Wie viel brennt ihr monatlich, und habt ihr einen klaren Path zu Profitabilität?"
Warum diese Frage wichtig ist: Burn Rate ist in AI oft außer Kontrolle - besonders wenn das Startup API-Kosten bei OpenAI hat, die mit Usage skalieren.
Red Flag Antworten:
- "$10M+ pro Monat" (bei einem Pre-Revenue-Startup)
- "Das hängt von unserem Wachstum ab" (keine Kontrolle über Burn)
- "Wir werden profitabel nach Series D" (zu vage, zu weit weg)
Green Flag Antworten:
- "$800k/Monat: $400k Gehälter (20 Leute), $200k OpenAI API, $100k Cloud-Infra, $100k Marketing. Bei $10M ARR mit 70% Gross Margin sind wir profitable"
- "$1.5M/Monat aktuell, aber wir haben klare Unit Economics: CAC $5k, LTV $50k (10x). Wir brennen nur, weil wir in Wachstum investieren"
- "Wir sind bereits profitabel bei $3M ARR und 65% Gross Margin. Wir raisen, um zu skalieren, nicht um zu überleben"
Was Sie evaluieren sollten:
Unit Economics sind entscheidend:
- CAC (Customer Acquisition Cost): Wie viel kostet es, einen Kunden zu gewinnen?
- LTV (Lifetime Value): Wie viel Revenue bringt ein Kunde über seine Lebenszeit?
- LTV/CAC Ratio: Sollte mindestens 3x sein, idealerweise 5x+
- Gross Margin: Bei SaaS sollte sie > 70% sein. Wenn sie niedriger ist, liegt es oft an hohen API-Kosten
Die Warnung: Viele AI-Startups haben negative Unit Economics - sie verlieren Geld bei jedem Kunden wegen hoher API-Kosten. Sie hoffen, dass sie groß genug werden, um bessere Deals mit OpenAI zu bekommen, oder dass sie irgendwann ein eigenes Modell bauen. Beide Annahmen sind oft falsch.
Frage 10: "Was passiert, wenn OpenAI seine Preise 10x erhöht - oder 10x senkt?"
Warum diese Frage wichtig ist: Dependency auf externe LLM-Provider ist ein Risiko. Diese Frage testet, ob das Startup ein Dependency-Problem hat.
Red Flag Antworten:
- "Dann sind wir tot" (komplette Abhängigkeit)
- "Das wird nicht passieren" (OpenAI hat bereits mehrfach Preise drastisch gesenkt - und könnte sie auch erhöhen)
- Keine Antwort / Ausweichen
Green Flag Antworten:
- "Wir sind Multi-LLM: 60% unserer Calls gehen zu OpenAI, 30% zu Anthropic, 10% zu unserem eigenen Fine-tune von LLaMA. Wir können in 2-3 Wochen komplett auf Anthropic oder LLaMA umschwenken"
- "Wir haben Hedge-Verträge mit OpenAI und Anthropic. Wenn einer die Preise erhöht, können wir zum anderen wechseln"
- "Unsere Gross Margin ist 75%. Selbst wenn OpenAI Preise 5x erhöht, wären wir immer noch bei 50% Gross Margin - schmerzhaft, aber nicht tödlich"
Was Sie evaluieren sollten:
Provider-Lock-In ist ein großes Risiko:
- Sind sie auf einen einzigen Provider angewiesen? (Gefährlich)
- Haben sie eine Abstraction Layer, die Provider-Wechsel ermöglicht? (Gut)
- Haben sie einen Backup-Plan? (Konkret, nicht theoretisch)
Die Regel: Startups sollten nie zu 100% auf einem Provider dependent sein. Ein Mix aus OpenAI, Anthropic und Open-Source (LLaMA) ist ideal.
Die Synthese: Ein Scoring-System
Nach diesen 10 Fragen können Sie ein simples Scoring machen:
Green Flags zählen: Wie viele der 10 Fragen wurden mit "Green Flag" beantwortet?
- 8-10 Green Flags: Sehr vielversprechend, Deep Dive lohnt sich
- 5-7 Green Flags: Gemischt, weitere Due Diligence erforderlich
- 3-4 Green Flags: Skeptisch, wahrscheinlich Pass
- 0-2 Green Flags: Harter Pass, Zeit nicht weiter verschwenden
Kritische Red Flags (jede einzelne ist ein Grund für "Pass"):
- "Wir bauen unser eigenes Foundation Model" (ohne extreme Rechtfertigung wie in Teil 5)
- "Bei einem Acqui-hire wären wir glücklich"
- "Wir verbrennen $10M+/Monat ohne Revenue"
- "Wir sind 100% dependent auf OpenAI und haben keinen Backup-Plan"
Wenn auch nur eine dieser kritischen Red Flags auftaucht, sollten Sie sehr skeptisch sein.
Fazit: Die unbequeme Wahrheit - und wo die echten Chancen liegen
Lassen Sie mich zu meiner ursprünglichen Frage zurückkehren: "Macht es 2026 noch Sinn, in ein Startup zu investieren, das ein eigenes LLM entwickeln möchte?"
Nach 25 Minuten Analyse, hunderten Datenpunkten und Milliarden investierter Dollar an gescheiterten Versuchen lautet meine Antwort: Nein. Für 95%+ aller VCs ist das ein klares No-Go.
Die Zahlen lügen nicht
Lassen Sie mich die nackten Fakten zusammenfassen:
Was Foundation Models wirklich kosten:
- Initiales Training: $1 Milliarde+ (Tendenz steigend - $3B+ für LLaMA 4)
- 3-Jahres Total Cost of Ownership: $4,5 Milliarden
- Jährliche Kosten verdoppeln bis verdreifachen sich (2-3x Growth)
- Prognose 2027: $1B+ nur fürs Training eines competitive Modells
Was die Big Player investiert haben:
- OpenAI: $58 Milliarden (Valuation: $300B, ARR: $20B)
- Anthropic: $27,3 Milliarden (Valuation: $183B)
- Google DeepMind: $100+ Milliarden Long-Term Commitment
- Meta LLaMA: $65 Milliarden Budget 2025 - und sie verschenken es kostenlos
Was mit gut-finanzierten Startups passiert ist:
- Inflection AI: $1,3B raised → Microsoft Acqui-hire für $653M (-50% für Investoren)
- Adept: $400M raised → Amazon Acqui-hire, Pre-Product-Kapitulation
- Character.AI: Millionen User, Revenue → Google Acqui-hire $2,7B ("insanely expensive")
Das Muster ist klar: Selbst Milliarden reichen nicht. Selbst Product-Market-Fit reicht nicht. Selbst Revenue reicht nicht.
Warum ist das so?
Die Gründe sind strukturell, nicht temporär:
1. Das Kapital-Rennen ist verloren
Ein typischer Top-Tier-VC-Fonds hat $500M-$2B unter Management. OpenAI allein hat $58 Milliarden aufgenommen. Google gibt $75 Milliarden pro Jahr nur für Infrastructure aus.
Selbst wenn Sie $500 Millionen investieren - das ist weniger als 1% von dem, was Google ausgibt. In einem Kapital-intensiven Race können Sie nicht gewinnen, wenn Ihr Budget um den Faktor 100+ kleiner ist.
2. Die Technologie ist nicht der Moat
Der häufigste Fehler: "Unser Modell ist besser als GPT-4."
Selbst wenn das stimmt (was selten der Fall ist) - für wie lange? OpenAI, Google und Anthropic haben hunderte der weltbesten AI-Researcher. Was ein Startup in 6 Monaten entwickelt, entwickeln diese Teams in Wochen.
Technologie-Vorsprünge in AI halten maximal 3-6 Monate. Das ist kein Moat, das ist eine Momentaufnahme.
3. Meta zerstört die Ökonomie
Meta verschenkt LLaMA - ein Modell, das Milliarden gekostet hat - komplett kostenlos. Warum? Weil Meta andere Umsatzströme hat (Facebook/Instagram Ads) und strategisch von der Ecosystem-Kontrolle profitiert.
Für ein Startup, das sein Modell verkaufen muss, ist das tödlich. Sie können nicht gegen "kostenlos" konkurrieren, wenn "kostenlos" von vergleichbarer Qualität ist.
4. Distribution ist unmöglich
OpenAI hat Microsoft als Partner (Azure-Integration, Office-Integration). Google hat 2+ Milliarden Nutzer in Search, Gmail, Docs. Meta hat 3+ Milliarden Social-Media-Nutzer.
Ein Startup hat... was genau? Selbst mit dem besten Modell der Welt - wie erreichen Sie auch nur 0,1% der Distribution dieser Giganten?
Die Ausnahmen sind extrem selten
Ja, es gibt theoretische Szenarien, in denen ein LLM-Investment funktionieren könnte:
Mistral/Cohere-Level: Erfordert Multi-Milliarden-Commitments, 10-Jahres-Horizont, und Co-Investment mit Tech-Giganten. Erfolgswahrscheinlichkeit: 20-40%, und selbst im Erfolgsfall wahrscheinlich moderate Returns. Nur für die allergrößten Fonds überhaupt relevant.
Extreme Regulatory Moats: Militär, FDA-approved Medical Devices, BaFin-regulierte Finance. Erfordert, dass alle vier Kriterien erfüllt sind (Regulation + On-Premise + Classified Data + Domain Team). Selbst dann ist oft Fine-tuning ausreichend. Erfolgswahrscheinlichkeit < 20%.
Für die überwältigende Mehrheit der VCs sind diese Ausnahmen nicht relevant.
Wo das Geld 2026 wirklich ist
Die gute Nachricht: AI ist die größte Opportunität seit dem Internet. Aber die Opportunität liegt nicht in Foundation Models.
Sie liegt in dem, was man damit baut.
Die erfolgreichen AI-Investments 2024/2025:
Harvey (Legal AI): $100M+ raised, $1,5B Valuation
- Nutzt OpenAI + Fine-tuning (KEIN eigenes Foundation Model)
- Moat: 10B Tokens Legal-Daten, Workflow-Integration, 97% Lawyer-Preferred
- Path: $50M TCO über 3 Jahre statt $1,15B für eigenes Modell
Sierra (AI Agents): $110M raised, $4,5B Valuation nach 1 Jahr!
- Nutzt OpenAI + Anthropic (KEIN eigenes Foundation Model)
- Moat: Workflow-Orchestrierung, Enterprise-Sales, Gründer-Distribution
- Growth: 0 → $4,5B Valuation in 12 Monaten
Pinecone (Vector Database): $138M raised, $750M Valuation
- Infrastructure-Play, plattform-agnostisch
- Moat: Jedes AI-Startup braucht Vector DBs, Switching Costs hoch
- Market: $2,2B (2024) → $10,6B (2032)
Das Muster der Gewinner:
- Nutzen bestehende LLMs (OpenAI, Anthropic, Meta) - keine eigene Foundation Models
- Fokus auf Domain-Expertise (Legal, Medical, Sales) - nicht AI-Research
- Proprietäre Daten + Workflow-Integration - das ist der echte Moat
- Capital-Efficient: $10-50M bis Product-Market-Fit, nicht $500M+
- Messbare ROI für Kunden: 3-10x Return, nicht vage "bessere Insights"
Meine konkreten Empfehlungen für VCs
1. Harte Regel: "Eigenes Foundation Model" = Instant Pass
Wenn ein Startup pitcht, dass sie ein eigenes Foundation Model von Grund auf bauen, beenden Sie das Meeting - außer:
- Sie haben bereits $5B+ committed von Tech-Giganten
- ODER sie erfüllen alle vier Kriterien für Regulatory Moats (extrem selten)
99% der "wir bauen ein LLM"-Pitches sind zum Scheitern verurteilt.
2. Fokus auf Application Layer
Die besten Opportunities liegen in:
- Vertical AI (Legal, Medical, Finance, Sales, HR) - $10-50M Checks, 10-20x Return-Potential
- AI Infrastructure (Vector DBs, Observability, Fine-tuning Platforms) - $20-100M Checks, 5-10x Return
- AI Developer Tools (IDEs, Testing, Workflow-Integration) - $10-30M Checks, 15-30x Return
- AI Agents (frühe Phase, aber vielversprechend) - $20-50M Checks, 10-25x Return-Potential
3. Die 10 kritischen Fragen nutzen
Verwenden Sie den Due-Diligence-Framework aus Teil 6. Nach 10 Fragen sollten Sie wissen, ob es ein Go oder Pass ist.
Green Flags zählen:
- 8-10 Green Flags → Deep Dive
- 5-7 → Weitere DD
- 3-4 → Wahrscheinlich Pass
- 0-2 → Harter Pass
Kritische Red Flags (eine reicht für Pass):
- "Wir bauen eigenes Foundation Model"
- "Acqui-hire wäre okay"
- "$10M+ Burn/Monat ohne Revenue"
- "100% OpenAI-dependent"
4. Team-Composition beachten
Für Application-Layer-Startups gilt: Domain-Expertise > AI-Expertise
- Legal AI: Ex-Anwälte, die AI verstehen
- Medical AI: Ärzte, die AI verstehen
- Sales AI: Ex-Sales-Leaders, die AI verstehen
Wenn das Team primär aus Ex-Google/OpenAI-AI-Researchers besteht, fragen Sie kritisch: "Warum seid ihr nicht dort geblieben?" Oft lautet die Antwort "wir wollten unser eigenes LLM bauen" - Red Flag.
5. Capital Efficiency obsessiv tracken
Application-Layer-Startups sollten:
- < $20M brauchen bis Product-Market-Fit
- < $2M/Monat Burn pre-revenue
- Path to Profitability bei $10-20M ARR haben
Alles darüber deutet auf Foundation-Model-Ambitionen oder Ineffizienz hin.
Die Meta-Lehre: Picks and Shovels
Erinnern Sie sich an den kalifornischen Goldrausch 1849:
- 95% der Goldsucher scheiterten oder gingen bankrott
- Levi Strauss (Jeans) wurde reich
- Die Hersteller von Schaufeln und Spitzhacken wurden reich
In AI 2026:
- 95% der LLM-Startups scheitern oder werden acqui-hired
- Application-Layer-Startups (die "Architekten") werden erfolgreich
- Infrastructure-Startups (die "Picks and Shovels") werden profitabel
Investieren Sie in die Architekten, nicht in die Zement-Fabriken.
Die Zement-Fabriken (Foundation Models) gehören bereits Google, Microsoft, Meta und Amazon. Als VC haben Sie dort keine Chance mehr.
Aber die Architekten - die Unternehmen, die mit diesen Foundation Models erstaunliche, vertikale, workflow-integrierte Lösungen bauen - das ist Ihre Opportunität.
Ein letzter Gedanke
Ich verstehe die Verlockung. Ein Startup pitcht mit brillantem Team, beeindruckender Technologie, und der Vision, "das nächste OpenAI" zu werden. Es ist aufregend. Es ist sexy. Es könnte theoretisch ein 100x-Return sein.
Aber Venture Capital ist keine Lotterie. Es ist ein Spiel von Wahrscheinlichkeiten.
Die Wahrscheinlichkeit, dass ein LLM-Startup erfolgreich wird:
- Ohne $5B+ Funding: < 5%
- Mit Acqui-hire als wahrscheinlichstem Outcome: 70%+
- Mit positivem Return für Investoren: < 10%
Die Wahrscheinlichkeit, dass ein Application-Layer-AI-Startup in etablierten Verticals erfolgreich wird:
- Mit $50M Funding und gutem Team: 20-30%
- Mit strategischem Exit oder IPO: 15-25%
- Mit positivem Return (3x+) für Investoren: 40-50%
Als Investor müssen Sie sich fragen: Will ich auf 5% oder auf 40% Chancen setzen?
Die Antwort sollte klar sein.
Die AI-Revolution ist real. Sie ist massiv. Sie wird Billionen an Wert schaffen.
Aber dieser Wert wird nicht bei den Foundation-Model-Herstellern entstehen - sondern bei denen, die diese Models nutzen, um echte Probleme zu lösen.
Harvey löst Legal-Problems. Sierra automatisiert Customer Service. Pinecone macht RAG-Systeme möglich.
Das sind die Gewinner. Das sind Ihre Opportunitäten.
Sie evaluieren ein AI-Startup und sind unsicher, ob es ein Foundation-Model-Play oder ein Application-Layer-Play ist? Sie brauchen eine zweite Meinung zu einem Pitch? Als Board-Advisor und ehemaliger CTO mit 15+ Jahren Tech-Erfahrung berate ich VCs und Unternehmen zu AI-Strategie und Architektur-Entscheidungen.
Kontaktieren Sie mich für eine vertrauliche Ersteinschätzung - ich helfe Ihnen, Red Flags zu erkennen und die echten Opportunitäten zu identifizieren.
alex@bierhaus.de