Skip to main content

Übersicht gängiger KI-Plattformen (Stand April 2026) - Arbeitsdokument

Übersicht gängiger KI-Plattformen

Hinweis:
Diese Tabelle beschreibt Plattformen, nicht Modellfamilien. Eine Plattform kann eigene Modelle anbieten, Drittmodelle bündeln oder vor allem die lokale Ausführung vereinfachen. (Ollama Dokumentation)

Plattform

Anbieter

Typ

Typischer Einsatz

Lokal / Cloud

Typische Besonderheiten

Ollama

Ollama

Laufzeitumgebung und Modellplattform

Lokales Ausführen von LLMs, API-Nutzung, optional Cloud-Erweiterung

Lokal und Cloud

Lokale API standardmäßig unter

localhost

, zusätzlich Cloud-API; Motto: „Start local. Scale with cloud.“ (

Ollama Dokumentation

)

LM Studio

Element Labs / LM Studio

Desktop-Plattform für lokale Modelle

Modelle lokal laden, testen und per UI oder lokaler API nutzen

Vor allem lokal

Verfügbar für macOS, Windows und Linux; unterstützt auch Remote-Instanzen über

LM Link

. (

LM Studio

)

OpenRouter

OpenRouter

Modell-Router / Unified API

Zugriff auf viele Modelle über eine einheitliche API

Cloud

Bietet „one API for any model“ und Zugriff auf Hunderte Modelle mit einheitlicher Schnittstelle. (

OpenRouter

)

Perplexity API

Perplexity

Such- und Antwortplattform / API

Webgestützte Antworten, Suche, Research, Agenten-Workflows

Cloud

Plattform für

Sonar

,

Search

,

Agent

und

Embeddings

; Fokus auf webbasierter Recherche und zitierfähigen Antworten. (

Perplexity

)

OpenAI Platform

OpenAI

Modell- und API-Plattform

Produktive KI-Anwendungen, Agenten, multimodale Workflows

Cloud

Stellt Frontier-Modelle über API bereit; aktuelle Modellübersicht startet mit GPT-5.4. (

OpenAI

)

Claude Platform

Anthropic

Modell- und API-Plattform

Claude-basierte Anwendungen, Workflows, Assistenzsysteme

Cloud

Entwicklerplattform rund um die Claude API; aktuelle Modelle laufen auch über API und Partnerplattformen. (

Anthropic

)

Gemini API / Google AI Studio

Google

Modell- und Entwicklerplattform

Prototyping, API-Nutzung, multimodale Anwendungen

Cloud

Google AI Studio dient für Tests und Schlüsselverwaltung; Gemini API stellt die Modelle bereit. (

Google AI for Developers

)

Vertex AI

Google Cloud

Enterprise-AI-Plattform

Produktive KI-Anwendungen, verwaltete Bereitstellung, Zugriff auf Google- und Partnermodelle

Cloud

Vollständig verwaltete Plattform mit Gemini sowie 200+ Foundation Models und Partner-Modellen wie Claude. (

Google Cloud

)

Hugging Face

Hugging Face

Modell-Hub und Inferenzplattform

Modelle finden, testen, hosten und dediziert bereitstellen

Cloud, teils lokal ergänzend

Inference Providers bieten Zugriff auf Hunderte Modelle; Inference Endpoints sind dedizierte Produktionsendpunkte. (

Hugging Face

)

Kurze Einordnung

Kategorie

Typische Plattformen

Einordnung

Lokal zuerst

Ollama, LM Studio

Schwerpunkt auf lokalem Betrieb und privater Nutzung. (

Ollama Dokumentation

)

Einheitliche Modellschnittstelle

OpenRouter

Sinnvoll, wenn viele Modelle über eine API genutzt werden sollen. (

OpenRouter

)

Recherche- und Suchplattform

Perplexity

Fokus auf Websuche, Research und zitiergestützte Antworten. (

Perplexity

)

Herstellerplattformen

OpenAI Platform, Claude Platform, Gemini API

Direkter Zugang zu den jeweiligen Originalmodellen. (

OpenAI

)

Enterprise-Plattformen

Vertex AI, Hugging Face

Für produktive Bereitstellung, Verwaltung und Skalierung mehrerer Modelle geeignet. (

Google Cloud

)

Sehr kurze Fassung f

Plattformen sind von Modellfamilien zu unterscheiden. Während Modellfamilien die eigentlichen KI-Modelle bezeichnen, stellen Plattformen die Umgebung für Auswahl, Ausführung, Routing, Hosting oder API-Zugriff bereit. Manche Plattformen sind lokal ausgerichtet, andere bündeln viele Fremdmodelle oder bieten eigene Hersteller-APIs an. (Ollama Dokumentation)