Kurzfassung: geprüft am 10. Mai 2026: Wenn du einen Default brauchst, wähle nach Aufgabe, nicht nach Marke. Claude Opus 4.7 ist der sicherste Startpunkt für schwieriges Coding und lange professionelle Arbeit. GPT-5.2 ist der aktuelle offizielle OpenAI-Vergleichspunkt, nicht GPT-5.5. Gemini 3.1 Pro ist stark, wenn Recherche, multimodale Eingaben und langer Kontext zählen. DeepSeek V4 Flash ist der Kosten-Default für 1M-Kontext-API-Arbeit, während V4 Pro bei schwierigeren Aufgaben während des Rabatts getestet werden sollte.
- Anthropic sagt, Claude Opus 4.7 startete am 16. April 2026 und behält Opus-4.6-Preise: $5 Input und $25 Output pro 1M Tokens
- OpenAIs offizielle Preisseite listet GPT-5.2 mit $1.75 Input, $0.175 Cached Input und $14 Output pro 1M Tokens
- OpenAIs offizielle Preisseite listet GPT-5.5 in dieser Aktualisierung nicht
- Google listet Gemini 3.1 Pro Preview mit $2/$12 pro 1M Tokens bis 200K Prompt und $4/$18 oberhalb von 200K
- Googles Modellseite listet 1M Input Tokens, 64K Output Tokens und starke GPQA-, BrowseComp-, SWE-Bench- und Terminal-Bench-Werte
- DeepSeek V4 Flash ist mit $0.14 Cache-Miss Input und $0.28 Output pro 1M Tokens gelistet
- DeepSeek V4 Pro hat bis zum 31. Mai 2026 75% Rabatt: $0.435 Cache-Miss Input und $0.87 Output pro 1M Tokens
- DeepSeek sagt, dass deepseek-chat und deepseek-reasoner nach dem 24. Juli 2026 um 15:59 UTC auslaufen
Diese Seite behält den alten Slug, weil Google diese URL kennt. Der Inhalt brauchte aber eine Korrektur: OpenAIs aktuelle öffentliche Preisseite listet kein GPT-5.5, deshalb nutzt dieses Update GPT-5.2.
Ich habe offizielle Seiten von Anthropic, OpenAI, Google und DeepSeek geprüft. Wenn ein Anbieter Benchmark-Ergebnisse nennt, behandle ich sie als Anbieter-Claims, nicht als unabhängigen Beweis. Ziel ist nicht ein universeller Gewinner. Ziel ist, welches Modell du für welche Aufgabe zuerst testen solltest.
Kurze Antwort
Nach Workload wählen, nicht nach Marke.
Bestes Modell nach Use Case
| Use Case | Erstes Modell zum Testen | Grund |
|---|---|---|
| Schwieriges Coding und langfristige Softwarearbeit | Claude Opus 4.7 | Anthropic positioniert es als stärkeres Opus-Modell für Coding, Agenten und professionelle Aufgaben |
| OpenAI-Ökosystem oder Codex-Workflows | GPT-5.2 oder GPT-5.2 Codex | OpenAIs offizielle Preisseite listet GPT-5.2 und GPT-5.2 Codex, nicht GPT-5.5 |
| Recherche, multimodales Reasoning und Google-Tools | Gemini 3.1 Pro | Google listet starke GPQA-, BrowseComp-, SWE-Bench- und 1M-Kontext-Unterstützung |
| Günstigste 1M-Kontext-API-Arbeit | DeepSeek V4 Flash | DeepSeeks offizieller Preis liegt weit unter westlichen Flaggschiffmodellen |
| Experimente mit offenen DeepSeek-Gewichten | DeepSeek V4 Pro oder Flash | DeepSeek verlinkt offene Gewichte aus der offiziellen V4 Release Note |
Warum dieser Artikel GPT-5.2 nutzt, nicht GPT-5.5
Die alte Version vertraute zu stark auf einen Modellnamen, den OpenAI aktuell nicht listet.
Die vorherige Version sprach über GPT-5.5-Preise und Benchmarks, als wären sie belastbare offizielle Fakten. Das ist nicht mehr sicher. OpenAIs offizielle Preisseite listet GPT-5.2, GPT-5.1, GPT-5, GPT-5.2 Codex, GPT-5.1 Codex und verwandte Modelle. GPT-5.5 steht dort nicht.
Korrektur
Die URL enthält weiter gpt-5-5, aber der Artikel nutzt GPT-5.2 als aktuellen offiziellen OpenAI-Referenzpunkt. So vermeiden wir unsichere GPT-5.5-Preisclaims, ohne die bestehende URL zu ändern.
Brauchen Sie Hilfe bei der Umsetzung?
Über 50 Umsetzungen · 60 % schneller · 2–4 Wochen
Aktueller Preisstand
Offizielle öffentliche Seiten, geprüft am 10. Mai 2026.
API-Preise pro 1M Tokens
| Modell | Input | Cached Input | Output | Notizen |
|---|---|---|---|---|
| Claude Opus 4.7 | $5.00 | Nicht im Announcement gelistet | $25.00 | Anthropic sagt: gleiche Preise wie Opus 4.6 |
| GPT-5.2 | $1.75 | $0.175 | $14.00 | OpenAI offizielle Preisseite |
| GPT-5.2 Pro | $21.00 | - | $168.00 | OpenAI Premium-Pro-Tier |
| Gemini 3.1 Pro Preview, <=200K Prompt | $2.00 | $0.20 Context Cache | $12.00 | Google Gemini API Standardpreis |
| Gemini 3.1 Pro Preview, >200K Prompt | $4.00 | $0.40 Context Cache | $18.00 | Google Gemini API Standardpreis |
| DeepSeek V4 Flash | $0.0028 Cache-Hit / $0.14 Cache-Miss | - | $0.28 | DeepSeek offizieller Preis |
| DeepSeek V4 Pro Rabatt | $0.003625 Cache-Hit / $0.435 Cache-Miss | - | $0.87 | 75% Rabatt bis 31. Mai 2026 |
Bei reinen API-Kosten gewinnt DeepSeek V4 Flash deutlich. Unter klassischen gehosteten Frontier-Modellen ist GPT-5.2 günstiger als Opus 4.7 nach Listenpreis. Gemini 3.1 Pro wird teurer, sobald Prompts über 200K Tokens gehen, bringt aber Google-Stack, 1M Input und starke offizielle Benchmark-Claims.
Benchmark-Claims
Nützlich, aber vom Anbieter berichtet.
Offiziell genannte Stärken
| Modell | Gemeldete Stärken | Vorsicht |
|---|---|---|
| Claude Opus 4.7 | Anthropic beschreibt Verbesserungen bei Coding, Vision, mehrstufiger Arbeit, Instruction Following und professionellen Aufgaben | Prompt-Migration testen, weil strengeres Instruction Following Verhalten ändern kann |
| GPT-5.2 | OpenAI-Preisseite bestätigt aktuelle öffentliche Verfügbarkeit und Codex-Varianten | Keine alten GPT-5.5-Claims übernehmen |
| Gemini 3.1 Pro | Google listet GPQA Diamond 94.3%, SWE-Bench Verified 80.6%, Terminal-Bench 68.5%, BrowseComp 85.9% | Preview-Modell: Verhalten und Preis können sich ändern |
| DeepSeek V4 Pro | DeepSeek sagt, V4 Pro führe aktuelle offene Modelle bei Weltwissen und schlage offene Modelle in Math/STEM/Coding | Detailtabellen in Textform sind auf der offiziellen Seite begrenzt |
| DeepSeek V4 Flash | DeepSeek sagt, Flash komme beim Reasoning nahe an V4 Pro und liege bei einfachen Agentenaufgaben gleichauf | Vor Ersatz eines teureren Modells im eigenen Workload testen |
Coding und Agenten
Claude für harte Coding-Aufgaben, DeepSeek für günstige Worker, GPT-5.2 für OpenAI-Workflows.
Für schwieriges Coding würde ich mit Claude Opus 4.7 starten, wenn das Budget passt. Anthropic richtet den Release klar auf fortgeschrittene Softwareentwicklung, lange Aufgaben, besseres Instruction Following und professionelle Arbeit aus. Für große Codebases ist es der sicherste High-End-Test.
Wenn dein Workflow bereits in OpenAI-Tools hängt, nutze GPT-5.2 oder GPT-5.2 Codex als aktuellen offiziellen Referenzpunkt. Alte GPT-5.5-Claims sollten keine Kauf- oder Routingentscheidung treiben, solange OpenAI das Modell nicht offiziell dokumentiert.
Wenn du ein Routing-System baust, ist DeepSeek V4 Flash der naheliegende günstige Worker. Nutze es für Implementierungsaufgaben, Long-Context-Extraktion und Agentenaufrufe mit hohem Volumen. Eskaliere zu DeepSeek V4 Pro oder einem westlichen Flaggschiff, wenn Planung, Urteil oder Zuverlässigkeit wichtiger sind.
Recherche und langer Kontext
Gemini und DeepSeek sind beide wichtig, aber aus verschiedenen Gründen.
Gemini 3.1 Pro hat in dieser Gruppe das stärkste offizielle Rechercheprofil: Google listet 94.3% auf GPQA Diamond, 85.9% auf BrowseComp mit Suche und Python, 1M Input Tokens und 64K Output Tokens. Das macht es zu einem starken ersten Test für Recherche, multimodale Workloads und Google-integrierte Aufgaben.
DeepSeek V4 ist der Kosten-Ausreißer bei langem Kontext. Wenn dein Workload vor allem "viel lesen, extrahieren, zusammenfassen, umformen" ist, verdient V4 Flash den ersten Benchmark-Lauf, weil der Preisunterschied die Produktökonomie verändert.
Geprüfte offizielle Quellen
Primärquellen für die faktische Aktualisierung.
- Anthropic: Introducing Claude Opus 4.7
- Anthropic: Claude Opus 4.7 model page
- OpenAI API pricing
- Google DeepMind: Gemini 3.1 Pro
- Google Gemini API pricing
- DeepSeek V4 Preview Release
- DeepSeek Models & Pricing
Fazit
Es gibt keinen universellen Gewinner.
Wenn du eine einfache Regel brauchst: Claude Opus 4.7 für hartes Coding und professionelle Arbeit, GPT-5.2 für aktuelle OpenAI-Workflows, Gemini 3.1 Pro für Recherche und multimodale Long-Context-Aufgaben, DeepSeek V4 Flash für günstiges 1M-Kontext-API-Volumen.
Die alte GPT-5.5-Einordnung war das Hauptrisiko dieses Posts. Das ist korrigiert. Für DeepSeek-Migrationsdetails lies den DeepSeek V4 Guide. Für breitere Workflow-Auswahl nutze den AI Model Picker. Für monatliche Kosten vergleiche die Modelle im KI-Kostenrechner.
Weiterlesen
Stay ahead of the AI curve
We test new AI tools every week and share honest results. Join our newsletter.