Übersicht gängiger KI-Plattformen (Stand April 2026) - Arbeitsdokument
Hinweis:
Diese Tabelle beschreibt Plattformen, nicht Modellfamilien. Eine Plattform kann eigene Modelle anbieten, Drittmodelle bündeln oder vor allem die lokale Ausführung vereinfachen. (Ollama Dokumentation)
Plattform | Anbieter | Typ | Typischer Einsatz | Lokal / Cloud | Typische Besonderheiten |
|---|---|---|---|---|---|
Ollama | Ollama | Laufzeitumgebung und Modellplattform | Lokales Ausführen von LLMs, API-Nutzung, optional Cloud-Erweiterung | Lokal und Cloud | Lokale API standardmäßig unter
, zusätzlich Cloud-API; Motto: „Start local. Scale with cloud.“ ( ) |
LM Studio | Element Labs / LM Studio | Desktop-Plattform für lokale Modelle | Modelle lokal laden, testen und per UI oder lokaler API nutzen | Vor allem lokal | Verfügbar für macOS, Windows und Linux; unterstützt auch Remote-Instanzen über LM Link . ( ) |
OpenRouter | OpenRouter | Modell-Router / Unified API | Zugriff auf viele Modelle über eine einheitliche API | Cloud | Bietet „one API for any model“ und Zugriff auf Hunderte Modelle mit einheitlicher Schnittstelle. ( ) |
Perplexity API | Perplexity | Such- und Antwortplattform / API | Webgestützte Antworten, Suche, Research, Agenten-Workflows | Cloud | Plattform für Sonar , Search , Agent und Embeddings ; Fokus auf webbasierter Recherche und zitierfähigen Antworten. ( ) |
OpenAI Platform | OpenAI | Modell- und API-Plattform | Produktive KI-Anwendungen, Agenten, multimodale Workflows | Cloud | Stellt Frontier-Modelle über API bereit; aktuelle Modellübersicht startet mit GPT-5.4. ( ) |
Claude Platform | Anthropic | Modell- und API-Plattform | Claude-basierte Anwendungen, Workflows, Assistenzsysteme | Cloud | Entwicklerplattform rund um die Claude API; aktuelle Modelle laufen auch über API und Partnerplattformen. ( ) |
Gemini API / Google AI Studio | Modell- und Entwicklerplattform | Prototyping, API-Nutzung, multimodale Anwendungen | Cloud | Google AI Studio dient für Tests und Schlüsselverwaltung; Gemini API stellt die Modelle bereit. ( ) | |
Vertex AI | Google Cloud | Enterprise-AI-Plattform | Produktive KI-Anwendungen, verwaltete Bereitstellung, Zugriff auf Google- und Partnermodelle | Cloud | Vollständig verwaltete Plattform mit Gemini sowie 200+ Foundation Models und Partner-Modellen wie Claude. ( ) |
Hugging Face | Hugging Face | Modell-Hub und Inferenzplattform | Modelle finden, testen, hosten und dediziert bereitstellen | Cloud, teils lokal ergänzend | Inference Providers bieten Zugriff auf Hunderte Modelle; Inference Endpoints sind dedizierte Produktionsendpunkte. ( ) |
Kurze Einordnung
Kategorie | Typische Plattformen | Einordnung |
|---|---|---|
Lokal zuerst | Ollama, LM Studio | Schwerpunkt auf lokalem Betrieb und privater Nutzung. ( ) |
Einheitliche Modellschnittstelle | OpenRouter | Sinnvoll, wenn viele Modelle über eine API genutzt werden sollen. ( ) |
Recherche- und Suchplattform | Perplexity | Fokus auf Websuche, Research und zitiergestützte Antworten. ( ) |
Herstellerplattformen | OpenAI Platform, Claude Platform, Gemini API | Direkter Zugang zu den jeweiligen Originalmodellen. ( ) |
Enterprise-Plattformen | Vertex AI, Hugging Face | Für produktive Bereitstellung, Verwaltung und Skalierung mehrerer Modelle geeignet. ( ) |
Sehr kurze Fassung f
Plattformen sind von Modellfamilien zu unterscheiden. Während Modellfamilien die eigentlichen KI-Modelle bezeichnen, stellen Plattformen die Umgebung für Auswahl, Ausführung, Routing, Hosting oder API-Zugriff bereit. Manche Plattformen sind lokal ausgerichtet, andere bündeln viele Fremdmodelle oder bieten eigene Hersteller-APIs an. (Ollama Dokumentation)