Übersicht gängiger KI-Plattformen (Stand April 2026) - Arbeitsdokument
Hinweis:
Diese Tabelle beschreibt Plattformen, nicht Modellfamilien. Eine Plattform kann eigene Modelle anbieten, Drittmodelle bündeln oder vor allem die lokale Ausführung vereinfachen. (Ollama Dokumentation)Kurze Einordnung
Übersicht gängiger KI-Plattformen mit Anbindung
Plattform | Anbieter | Typ | Typischer Einsatz | Lokal / Cloud | Anbindung / Ansprache | Typische Besonderheiten |
|---|---|---|---|---|---|---|
Ollama | Ollama | Laufzeitumgebung und Modellplattform | Lokales Ausführen von LLMs, | Lokal und Cloud | Lokale REST-API
, zusätzlich OpenAI-kompatible ; ) | Lokaler Betrieb, OpenAI-Kompatibilität, Tool-Support |
LM Studio |
| Desktop-Plattform für lokale Modelle | Modelle lokal laden, testen und per UI oder lokaler API nutzen | Vor allem lokal | Lokaler API-Server
REST API , über eigene Client-Bibliotheken und
Anthropic-kompatible Endpunkte . ( ) | Starker Fokus auf lokale/private Nutzung |
OpenRouter | OpenRouter | Modell-Router / Unified API | Zugriff auf viele Modelle über eine einheitliche API | Cloud |
, OpenAI SDK nutzbar ist; OpenRouter beschreibt die Schemas als sehr ähnlich zur OpenAI Chat API. ( ) | Ein API-Zugang für viele Modelle und Provider |
Perplexity API | Perplexity | Such- und Antwortplattform / API |
| Cloud | REST und SDKs
, Search ,
und Embeddings
Sonar OpenAI-kompatiblen Clients nutzbar. ( ) | Fokus auf webgestützte Antworten und Recherche |
OpenAI Platform | OpenAI | Modell- und API-Plattform | Produktive KI-Anwendungen, Agenten, multimodale Workflows | Cloud |
sowie offizielle SDKs ; zentrale Schnittstelle ist die Responses API . ( ) | Herstellerplattform mit breiter Tool- und Agentenunterstützung |
Claude Platform | Anthropic | Modell- und API-Plattform | Claude-basierte | Cloud |
SDKs ; ) | Herstellerplattform für Claude-Modelle |
Gemini API / Google AI Studio | Modell- und Entwicklerplattform | Prototyping, | Cloud | REST API und offizielle SDKs ; Google AI Studio dient ) | Schneller Einstieg über AI Studio | |
Vertex AI | Google Cloud | Enterprise-AI-Plattform | Produktive KI-Anwendungen, verwaltete | Cloud |
Google-Cloud-/Vertex-AI-APIs und Google Vertex AI . ( ) | Enterprise-Betrieb und Multi-Modell-Umgebungen |
Hugging Face Inference Providers | Hugging Face | Modell-Hub und Inferenzplattform | Modelle |
|
einheitliche und Client-SDKs ; Hugging Face nennt ausdrücklich einen OpenAI-kompatiblen Endpoint für Inference ) | Viele Modelle, viele Inferenzpartner |
IONOS AI Model Hub | IONOS | Europäische Modell- und API-Plattform | API-Zugriff auf Modelle in europäischer Cloud | Cloud | API-first ; IONOS bietet eine reguläre API sowie eine OpenAI-kompatible API . ( ) | Europäischer Fokus, OpenAI-Kompatibilität |
STACKIT AI Model Serving | STACKIT | Europäische AI-Serving-Plattform | Sichere Modellnutzung in der STACKIT Cloud | Cloud | Modelle sind über API nutzbar; STACKIT nennt die Schnittstelle ausdrücklich OpenAI-kompatibel . ( ) | Europäische/souveräne Cloud-Ausrichtung |
Amazon Bedrock | AWS | Voll gemanagte GenAI-Plattform | Zugriff auf viele Foundation Models in AWS | Cloud | AWS API , API Keys , regionale Endpunkte und AWS SDKs wie Boto3; Amazon dokumentiert zusätzlich OpenAI-kompatible Service-Endpunkte in Teilen des Angebots. ( ) | Viele Drittmodelle unter AWS-Steuerung |
noris network KI as a Service | noris network | Infrastruktur- und Serviceplattform | KI-Betrieb für Unternehmen, souveräne Hosting-/Cloud-Umgebungen | Cloud / Private Cloud / Managed | Anbieter beschreibt KI as a Service , Private-Cloud- und GPU-nahe Betriebsmodelle; die konkrete technische Ansprache ist eher projekt- bzw. serviceabhängig als über eine standardisierte öffentliche Entwickler-API dokumentiert. ( ) | Fokus auf Betrieb, Hosting und Souveränität |
KurzePraktische EinordnungKurzregel für „API, n8n etc.“
| Typische Plattformen | Einordnung |
|---|---|---|
| OpenAI, Anthropic, Gemini, Perplexity, OpenRouter, Bedrock, IONOS, STACKIT | Standardweg für Anwendungen und Automatisierung. ( ) |
OpenAI-kompatibel | Ollama, LM |
) |
|
|
) |
|
OpenAI über den offiziellen OpenAI-Node |
OpenAI-Node ; HTTP Request Node nutzbar, sofern sie eine REST-API anbieten. ( ) |
|
|
|
|
|
) |
Neutrale Formulierung
Anbindung / Ansprache
KI-Plattformen werden typischerweise über REST-APIs, offizielle SDKs oder OpenAI-kompatible Schnittstellen angesprochen. Für Automatisierungswerkzeuge wie n8n ist dies relevant, weil entweder ein dedizierter Anbieter-Node genutzt werden kann oder ein generischer HTTP-Request-Ansatz. OpenAI-kompatible Plattformen sind dabei besonders integrationsfreundlich, da bestehende Clients und Workflows häufig mit geringem Anpassungsaufwand weiterverwendet werden können. (n8n Docs)
Sehr kurze Fassung f
Plattformen sind von Modellfamilien zu unterscheiden. Während Modellfamilien die eigentlichen KI-Modelle bezeichnen, stellen Plattformen die Umgebung für Auswahl, Ausführung, Routing, Hosting oder API-Zugriff bereit. Manche Plattformen sind lokal ausgerichtet, andere bündeln viele Fremdmodelle oder bieten eigene Hersteller-APIs an. (Ollama Dokumentation)