Skip to main content

Übersicht gängiger KI-Plattformen (Stand April 2026) - Arbeitsdokument

Hinweis:
Diese Tabelle beschreibt Plattformen, nicht Modellfamilien. Eine Plattform kann eigene Modelle anbieten, Drittmodelle bündeln oder vor allem die lokale Ausführung vereinfachen. (Ollama Dokumentation)Kurze Einordnung

Übersicht gängiger KI-Plattformen mit Anbindung

Plattform

Anbieter

Typ

Typischer Einsatz

Lokal / Cloud

Anbindung / Ansprache

Typische Besonderheiten

Ollama

Ollama

Laufzeitumgebung und Modellplattform

Lokales Ausführen von LLMs, API-Nutzung, optional Cloud-ErweiterungNutzung

Lokal und Cloud

Lokale REST-API

standardmäßig unterüber

localhost

, zusätzlich Cloud-API;

OpenAI-kompatible Motto:Endpunkte

; „Startdadurch local.oft Scaleauch withüber cloud.“Tools nutzbar, die OpenAI-kompatible APIs erwarten. Lokal ist standardmäßig keine Authentifizierung nötig. (

Ollama Dokumentation

)

Lokaler Betrieb, OpenAI-Kompatibilität, Tool-Support

LM Studio

Element Labs / LM Studio

Desktop-Plattform für lokale Modelle

Modelle lokal laden, testen und per UI oder lokaler API nutzen

Vor allem lokal

Lokaler API-Server

Verfügbar fürauf macOS,

localhost

Windowsoder im Netzwerk; nutzbar per

REST API

, über eigene Client-Bibliotheken und Linux; unterstützt auch Remote-Instanzen über

LMOpenAI-

Linksowie

Anthropic-kompatible Endpunkte

. (

LM Studio

)

Starker Fokus auf lokale/private Nutzung

OpenRouter

OpenRouter

Modell-Router / Unified API

Zugriff auf viele Modelle über eine einheitliche API

Cloud

Bietet „oneEinheitliche API

, fordie any model“ und Zugriff auf Hunderte Modelleausdrücklich mit einheitlicherdem Schnittstelle.

OpenAI SDK

 nutzbar ist; OpenRouter beschreibt die Schemas als sehr ähnlich zur OpenAI Chat API. (

OpenRouter

)

Ein API-Zugang für viele Modelle und Provider

Perplexity API

Perplexity

Such- und Antwortplattform / API

WebgestützteWebsuche, Antworten,Recherche, Suche, Research,Sonar, Agenten-Workflows

Cloud

REST und SDKs

Plattform; fürPerplexity nennt vier Kern-APIs:

SonarAgent

,

Search

,

AgentSonar

und

Embeddings

;. FokusDie auf

Sonar webbasierterAPI

Rechercheist undzusätzlich zitierfähigenmit Antworten.

OpenAI-kompatiblen Clients

 nutzbar. (

Perplexity

)

Fokus auf webgestützte Antworten und Recherche

OpenAI Platform

OpenAI

Modell- und API-Plattform

Produktive KI-Anwendungen, Agenten, multimodale Workflows

Cloud

StelltREST, Frontier-ModelleStreaming, überRealtime APIs

 sowie offizielle

SDKs

; zentrale Schnittstelle ist die

Responses API bereit; aktuelle Modellübersicht startet mit GPT-5.4.

. (

OpenAI Entwickler

)

Herstellerplattform mit breiter Tool- und Agentenunterstützung

Claude Platform

Anthropic

Modell- und API-Plattform

Claude-basierte Anwendungen,Anwendungen Workflows,und Assistenzsysteme

Cloud

EntwicklerplattformMessages rundAPI

umplus dieoffizielle Claude

SDKs

; API;Anthropic aktuelledokumentiert Modelleden laufen auchEinstieg über APIAPI-Key, Quickstart und Partnerplattformen.Client-SDKs. (

AnthropicClaude API Docs

)

Herstellerplattform für Claude-Modelle

Gemini API / Google AI Studio

Google

Modell- und Entwicklerplattform

Prototyping, API-Nutzung, multimodale AnwendungenAnwendungen, API-Nutzung

Cloud

REST API

 und offizielle

SDKs

; Google AI Studio dient fürals Testsschneller Einstieg und Schlüsselverwaltung;zur Gemini API stellt die Modelle bereit.API-Key-Erstellung. (

Google AI for Developers

)

Schneller Einstieg über AI Studio

Vertex AI

Google Cloud

Enterprise-AI-Plattform

Produktive KI-Anwendungen, verwaltete Bereitstellung, Zugriff auf Google- und PartnermodelleBereitstellung

Cloud

VollständigTypisch verwalteteüber Plattform mit Gemini sowie 200+ Foundation Models

Google-Cloud-/Vertex-AI-APIs

und Partner-ModellenSDKs; wieAnthropic Claude.dokumentiert Claude-Integrationen ausdrücklich auch über

Google Vertex AI

. (

Google CloudAnthropic

)

Enterprise-Betrieb und Multi-Modell-Umgebungen

Hugging Face Inference Providers

Hugging Face

Modell-Hub und Inferenzplattform

Modelle finden, testen, hostenserverless undnutzen dediziertoder bereitstellenproduktiv anbinden

Cloud, teils lokal ergänzendCloud

Inference Providers bieten Zugriff aufüber Hunderte

einheitliche Modelle;API

 und

Client-SDKs

; Hugging Face nennt ausdrücklich einen

OpenAI-kompatiblen Endpoint

 für Inference Endpoints sind dedizierte Produktionsendpunkte.Providers. (

Hugging Face

)

Viele Modelle, viele Inferenzpartner

IONOS AI Model Hub

IONOS

Europäische Modell- und API-Plattform

API-Zugriff auf Modelle in europäischer Cloud

Cloud

API-first

; IONOS bietet eine reguläre API sowie eine

OpenAI-kompatible API

. (

docs.ionos.com

)

Europäischer Fokus, OpenAI-Kompatibilität

STACKIT AI Model Serving

STACKIT

Europäische AI-Serving-Plattform

Sichere Modellnutzung in der STACKIT Cloud

Cloud

Modelle sind über

API

 nutzbar; STACKIT nennt die Schnittstelle ausdrücklich

OpenAI-kompatibel

. (

Docs

)

Europäische/souveräne Cloud-Ausrichtung

Amazon Bedrock

AWS

Voll gemanagte GenAI-Plattform

Zugriff auf viele Foundation Models in AWS

Cloud

AWS API

,

API Keys

, regionale Endpunkte und

AWS SDKs

 wie Boto3; Amazon dokumentiert zusätzlich OpenAI-kompatible Service-Endpunkte in Teilen des Angebots. (

AWS Dokumentation

)

Viele Drittmodelle unter AWS-Steuerung

noris network KI as a Service

noris network

Infrastruktur- und Serviceplattform

KI-Betrieb für Unternehmen, souveräne Hosting-/Cloud-Umgebungen

Cloud / Private Cloud / Managed

Anbieter beschreibt

KI as a Service

, Private-Cloud- und GPU-nahe Betriebsmodelle; die konkrete technische Ansprache ist eher

projekt- bzw. serviceabhängig

 als über eine standardisierte öffentliche Entwickler-API dokumentiert. (

STACKIT

)

Fokus auf Betrieb, Hosting und Souveränität

KurzePraktische EinordnungKurzregel für „API, n8n etc.“

KategorieAnbindungsart

Typische Plattformen

Einordnung

LokalDirekt zuerstper REST/API

OpenAI, Anthropic, Gemini, Perplexity, OpenRouter, Bedrock, IONOS, STACKIT

Standardweg für Anwendungen und Automatisierung. (

OpenAI Entwickler

)

OpenAI-kompatibel

Ollama, LM StudioStudio, OpenRouter, Perplexity Sonar, Hugging Face Inference Providers, IONOS, STACKIT

SchwerpunktBesonders aufpraktisch, lokalemweil Betriebviele vorhandene Tools und privaterClients Nutzung.weiterverwendet werden können. (

Ollama Dokumentation

)

EinheitlicheSDKs Modellschnittstelle/ Client-Bibliotheken

OpenRouterOpenAI, Anthropic, Gemini, Hugging Face, AWS, LM Studio, Perplexity

Sinnvoll,Sinnvoll wennfür vieleproduktive ModelleAnwendungen überstatt einereiner API genutzt werden sollen.HTTP-Aufrufe. (

OpenRouterOpenAI Entwickler

)

Recherche-n8n und Suchplattformdirekt

PerplexityAm einfachsten mit

OpenAI

 über den offiziellen OpenAI-Node

Fokusn8n aufhat Websuche,einen Researchoffiziellen und

OpenAI-Node

; zitiergestütztefür Antworten.andere Dienste ist meist der

HTTP Request Node

 nutzbar, sofern sie eine REST-API anbieten. (

Perplexityn8n Docs

)

Herstellerplattformenn8n indirekt über OpenAI-Kompatibilität

OpenAIOllama, Platform,LM ClaudeStudio, Platform,OpenRouter, GeminiPerplexity API

DirekterSonar, ZugangIONOS, zuSTACKIT, den jeweiligen Originalmodellen. (

OpenAI

)

Enterprise-Plattformen

Vertex AI,teils Hugging Face

FürIn produktiveder Bereitstellung,Praxis Verwaltungoft möglich, wenn in n8n ein OpenAI-kompatibler Endpoint oder notfalls der HTTP Request Node verwendet wird; offiziell dokumentiert ist bei n8n selbst vor allem der OpenAI-Node und Skalierungder mehrerergenerische ModelleHTTP geeignet.Request Node. (

Googlen8n CloudDocs

)

Neutrale Formulierung

Anbindung / Ansprache
KI-Plattformen werden typischerweise über REST-APIs, offizielle SDKs oder OpenAI-kompatible Schnittstellen angesprochen. Für Automatisierungswerkzeuge wie n8n ist dies relevant, weil entweder ein dedizierter Anbieter-Node genutzt werden kann oder ein generischer HTTP-Request-Ansatz. OpenAI-kompatible Plattformen sind dabei besonders integrationsfreundlich, da bestehende Clients und Workflows häufig mit geringem Anpassungsaufwand weiterverwendet werden können. (n8n Docs)



Sehr kurze Fassung f

Plattformen sind von Modellfamilien zu unterscheiden. Während Modellfamilien die eigentlichen KI-Modelle bezeichnen, stellen Plattformen die Umgebung für Auswahl, Ausführung, Routing, Hosting oder API-Zugriff bereit. Manche Plattformen sind lokal ausgerichtet, andere bündeln viele Fremdmodelle oder bieten eigene Hersteller-APIs an. (Ollama Dokumentation)