Übersicht gängiger KI-Plattformen (Stand April 2026) - Arbeitsdokument
Hinweis:
Diese Tabelle beschreibt Plattformen, nicht Modellfamilien. Eine Plattform kann eigene Modelle anbieten, Drittmodelle bündeln oder vor allem die lokale Ausführung vereinfachen. (Ollama Dokumentation)Kurze Einordnung
Übersicht gängiger KI-Plattformen mit Anbindung
Plattform | Anbieter | Typ | Typischer Einsatz | Lokal / Cloud | Anbindung / Ansprache | Typische Besonderheiten |
|---|---|---|---|---|---|---|
Ollama | Ollama | Laufzeitumgebung und Modellplattform | Lokales Ausführen von LLMs, optional Cloud-Nutzung | Lokal und Cloud | Lokale REST-API über
, zusätzlich OpenAI-kompatible Endpunkte ; dadurch oft auch über Tools nutzbar, die OpenAI-kompatible APIs erwarten. Lokal ist standardmäßig keine Authentifizierung nötig. ( ) | Lokaler Betrieb, OpenAI-Kompatibilität, Tool-Support |
LM Studio | LM Studio | Desktop-Plattform für lokale Modelle | Modelle lokal laden, testen und per UI oder lokaler API nutzen | Vor allem lokal | Lokaler API-Server auf
oder im Netzwerk; nutzbar per REST API , über eigene Client-Bibliotheken und über OpenAI- sowie Anthropic-kompatible Endpunkte . ( ) | Starker Fokus auf lokale/private Nutzung |
OpenRouter | OpenRouter | Modell-Router / Unified API | Zugriff auf viele Modelle über eine einheitliche API | Cloud | Einheitliche API , die ausdrücklich mit dem OpenAI SDK nutzbar ist; OpenRouter beschreibt die Schemas als sehr ähnlich zur OpenAI Chat API. ( ) | Ein API-Zugang für viele Modelle und Provider |
Perplexity API | Perplexity | Such- und Antwortplattform / API | Websuche, Recherche, Sonar, Agenten-Workflows | Cloud | REST und SDKs ; Perplexity nennt vier Kern-APIs: Agent , Search , Sonar und Embeddings . Die Sonar API ist zusätzlich mit OpenAI-kompatiblen Clients nutzbar. ( ) | Fokus auf webgestützte Antworten und Recherche |
OpenAI Platform | OpenAI | Modell- und API-Plattform | Produktive KI-Anwendungen, Agenten, multimodale Workflows | Cloud | REST, Streaming, Realtime APIs sowie offizielle SDKs ; zentrale Schnittstelle ist die Responses API . ( ) | Herstellerplattform mit breiter Tool- und Agentenunterstützung |
Claude Platform | Anthropic | Modell- und API-Plattform | Claude-basierte Anwendungen und Assistenzsysteme | Cloud | Messages API plus offizielle SDKs ; Anthropic dokumentiert den Einstieg über API-Key, Quickstart und Client-SDKs. ( ) | Herstellerplattform für Claude-Modelle |
Gemini API / Google AI Studio | Modell- und Entwicklerplattform | Prototyping, multimodale Anwendungen, API-Nutzung | Cloud | REST API und offizielle SDKs ; Google AI Studio dient als schneller Einstieg und zur API-Key-Erstellung. ( ) | Schneller Einstieg über AI Studio | |
Vertex AI | Google Cloud | Enterprise-AI-Plattform | Produktive KI-Anwendungen, verwaltete Bereitstellung | Cloud | Typisch über Google-Cloud-/Vertex-AI-APIs und SDKs; Anthropic dokumentiert Claude-Integrationen ausdrücklich auch über Google Vertex AI . ( ) | Enterprise-Betrieb und Multi-Modell-Umgebungen |
Hugging Face Inference Providers | Hugging Face | Modell-Hub und Inferenzplattform | Modelle testen, serverless nutzen oder produktiv anbinden | Cloud | Zugriff über einheitliche API und Client-SDKs ; Hugging Face nennt ausdrücklich einen OpenAI-kompatiblen Endpoint für Inference Providers. ( ) | Viele Modelle, viele Inferenzpartner |
IONOS AI Model Hub | IONOS | Europäische Modell- und API-Plattform | API-Zugriff auf Modelle in europäischer Cloud | Cloud | API-first ; IONOS bietet eine reguläre API sowie eine OpenAI-kompatible API . ( ) | Europäischer Fokus, OpenAI-Kompatibilität |
STACKIT AI Model Serving | STACKIT | Europäische AI-Serving-Plattform | Sichere Modellnutzung in der STACKIT Cloud | Cloud | Modelle sind über API nutzbar; STACKIT nennt die Schnittstelle ausdrücklich OpenAI-kompatibel . ( ) | Europäische/souveräne Cloud-Ausrichtung |
Amazon Bedrock | AWS | Voll gemanagte GenAI-Plattform | Zugriff auf viele Foundation Models in AWS | Cloud | AWS API , API Keys , regionale Endpunkte und AWS SDKs wie Boto3; Amazon dokumentiert zusätzlich OpenAI-kompatible Service-Endpunkte in Teilen des Angebots. ( ) | Viele Drittmodelle unter AWS-Steuerung |
noris network KI as a Service | noris network | Infrastruktur- und Serviceplattform | KI-Betrieb für Unternehmen, souveräne Hosting-/Cloud-Umgebungen | Cloud / Private Cloud / Managed | Anbieter beschreibt KI as a Service , Private-Cloud- und GPU-nahe Betriebsmodelle; die konkrete technische Ansprache ist eher projekt- bzw. serviceabhängig als über eine standardisierte öffentliche Entwickler-API dokumentiert. ( ) | Fokus auf Betrieb, Hosting und Souveränität |
Praktische Kurzregel für „API, n8n etc.“
Anbindungsart | Typische Plattformen | Einordnung |
|---|---|---|
Direkt per REST/API | OpenAI, Anthropic, Gemini, Perplexity, OpenRouter, Bedrock, IONOS, STACKIT | Standardweg für Anwendungen und Automatisierung. ( ) |
OpenAI-kompatibel | Ollama, LM Studio, OpenRouter, Perplexity Sonar, Hugging Face Inference Providers, IONOS, STACKIT | Besonders praktisch, weil viele vorhandene Tools und Clients weiterverwendet werden können. ( ) |
SDKs / Client-Bibliotheken | OpenAI, Anthropic, Gemini, Hugging Face, AWS, LM Studio, Perplexity | Sinnvoll für produktive Anwendungen statt reiner HTTP-Aufrufe. ( ) |
n8n direkt | Am einfachsten mit OpenAI über den offiziellen OpenAI-Node | n8n hat einen offiziellen OpenAI-Node ; für andere Dienste ist meist der HTTP Request Node nutzbar, sofern sie eine REST-API anbieten. ( ) |
n8n indirekt über OpenAI-Kompatibilität | Ollama, LM Studio, OpenRouter, Perplexity Sonar, IONOS, STACKIT, teils Hugging Face | In der Praxis oft möglich, wenn in n8n ein OpenAI-kompatibler Endpoint oder notfalls der HTTP Request Node verwendet wird; offiziell dokumentiert ist bei n8n selbst vor allem der OpenAI-Node und der generische HTTP Request Node. ( ) |
Neutrale Formulierung
Anbindung / Ansprache
KI-Plattformen werden typischerweise über REST-APIs, offizielle SDKs oder OpenAI-kompatible Schnittstellen angesprochen. Für Automatisierungswerkzeuge wie n8n ist dies relevant, weil entweder ein dedizierter Anbieter-Node genutzt werden kann oder ein generischer HTTP-Request-Ansatz. OpenAI-kompatible Plattformen sind dabei besonders integrationsfreundlich, da bestehende Clients und Workflows häufig mit geringem Anpassungsaufwand weiterverwendet werden können. (n8n Docs)
Sehr kurze Fassung
Plattformen sind von Modellfamilien zu unterscheiden. Während Modellfamilien die eigentlichen KI-Modelle bezeichnen, stellen Plattformen die Umgebung für Auswahl, Ausführung, Routing, Hosting oder API-Zugriff bereit. Manche Plattformen sind lokal ausgerichtet, andere bündeln viele Fremdmodelle oder bieten eigene Hersteller-APIs an. (Ollama Dokumentation)
No comments to display
No comments to display