# Innovation mit KI – Praxis, Projekte, Perspektiven

<span>„Innovation mit KI – Praxis, Projekte, Perspektiven“ zeigt, wie künstliche Intelligenz heute konkret eingesetzt werden kann. Das Buch verbindet technische Grundlagen mit praktischen Beispielen aus Unternehmen und Organisationen. Ein besonderer Fokus liegt dabei auf Datenschutz und IT-Sicherheit, um verantwortungsvolle Innovation zu ermöglichen. Leserinnen und Leser erfahren, wie aus Ideen umsetzbare Projekte entstehen und welche Werkzeuge dabei unterstützen. Chancen und Risiken von KI werden realistisch eingeordnet, ergänzt durch praxisnahe Tipps und weiterführende Ressourcen auf </span>**gerds-it.de**.

# KI auf dem Windows-Notebook – Chancen nutzen, Datenschutz wahren, Sicherheit stärken

### Warum überhaupt KI lokal betreiben?

<span style="white-space: pre-wrap;">Viele Unternehmen und Organisationen wollen die Chancen von KI nutzen, ohne dabei Datenschutz, DSGVO und IT-Sicherheit zu gefährden. Cloud-Dienste sind bequem, bedeuten aber immer, dass sensible Daten das eigene Haus verlassen – ein Risiko, das gerade im geschäftlichen Umfeld schwer vertretbar ist. </span>**Lokale Sprachmodelle**<span style="white-space: pre-wrap;"> laufen dagegen direkt auf dem eigenen Notebook oder Server: Daten bleiben intern, Zugriffe sind kontrollierbar, und auch offline ist die Nutzung möglich. </span>

### Was wird dafür benötigt?

- **Hardware**<span style="white-space: pre-wrap;">: ein aktuelles Windows-Notebook oder ein Server mit mindestens 16 GB RAM/VRAM (für Modelle wie </span>**gpt-oss-20b**<span style="white-space: pre-wrap;"> ausreichend).</span>
- **Software**<span style="white-space: pre-wrap;">: eine lokale KI-Plattform wie </span>**Ollama**<span style="white-space: pre-wrap;"> (Open Source, flexibel) oder </span>**LM Studio**<span style="white-space: pre-wrap;"> (GUI-basiert, einfach).</span>
- **Modelle**<span style="white-space: pre-wrap;">: frei verfügbare Open-Weight-Modelle (z. B. </span>**gpt-oss-20b**<span style="white-space: pre-wrap;">, </span>**Phi-3**<span style="white-space: pre-wrap;">, </span>**Mixtral**) je nach Anwendungsfall.
- **Organisation**: Updates oder RAG-Anbindung, um Modelle mit aktuellem Wissen zu versorgen.

<span style="white-space: pre-wrap;">💡 Damit entsteht eine </span>**unabhängige und sichere KI-Umgebung**, die Innovation ermöglicht, ohne die Kontrolle über die eigenen Daten zu verlieren.

<span style="white-space: pre-wrap;">Lokale Sprachmodelle gibt es mittlerweile in vielen Varianten – von schlanken Community-Projekten bis hin zu professionell gepflegten Plattformen. Für die Praxis im Innovation Lab sind vor allem Lösungen interessant, die </span>**datenschutzfreundlich, einfach nutzbar und breit verfügbar**<span style="white-space: pre-wrap;"> sind. Unter den bekanntesten Tools stechen </span>**Ollama**<span style="white-space: pre-wrap;"> und </span>**LM Studio**<span style="white-space: pre-wrap;"> hervor, weil sie jeweils einen anderen Ansatz verfolgen: maximale Transparenz und Integration auf der einen Seite, besonders einfache Bedienung auf der anderen.</span>  
<span style="white-space: pre-wrap;">Um den Überblick zu vervollständigen, sind in der folgenden Tabelle auch weitere relevante Projekte wie </span>**GPT4All**<span style="white-space: pre-wrap;">, </span>**KoboldCpp**<span style="white-space: pre-wrap;">, </span>**Text Generation WebUI**<span style="white-space: pre-wrap;"> und </span>**Jan AI**<span style="white-space: pre-wrap;"> enthalten. Neben technischen Merkmalen zeigt die Übersicht auch, mit welcher Besonderheit sich die Anbieter selbst positionieren.</span>

#### KI-Plattformen:

<table id="bkmrk-merkmalollamalm-stud"><colgroup><col style="width: 96px;"></col><col></col><col></col><col></col><col></col><col></col><col></col></colgroup><tbody><tr><th>Merkmal

</th><th>**Ollama**</th><th>**LM Studio**</th><th>**GPT4All**</th><th>**KoboldCpp**</th><th>**Text Generation WebUI**</th><th>**Jan AI**</th></tr><tr><td>**Lizenzmodell**

</td><td>Open Source (MIT)

</td><td>Proprietär, kostenlos, Enterprise-Pläne

</td><td>Open Source (Apache 2.0)

</td><td>Open Source

</td><td>Open Source

</td><td>Proprietär, kostenlos

</td></tr><tr><td>**Quellcode**

</td><td>Offen

</td><td>Geschlossen

</td><td>Offen

</td><td>Offen

</td><td>Offen

</td><td>Geschlossen

</td></tr><tr><td>**Bedienung**

</td><td>CLI + API

</td><td>GUI

</td><td>GUI

</td><td>CLI

</td><td>Web-Oberfläche (umfangreich)

</td><td>GUI

</td></tr><tr><td>**Plattformen**

</td><td>Linux, macOS, Windows

</td><td>Windows, macOS, Linux (Beta)

</td><td>Windows, macOS, Linux

</td><td>Windows, macOS, Linux

</td><td>Windows, macOS, Linux

</td><td>Windows, macOS

</td></tr><tr><td>**Datenschutz**

</td><td>Komplett lokal

</td><td>Lokal

</td><td>Lokal

</td><td>Lokal

</td><td>Lokal

</td><td>Lokal

</td></tr><tr><td>**Stärken**

</td><td>Transparent, flexibel, integrationsfähig

</td><td>Einfach, schnell, nutzerfreundlich

</td><td>Viele Modelle, einfache Installation

</td><td>Leichtgewichtig, ressourcenschonend

</td><td>Sehr flexibel, viele Erweiterungen

</td><td>Moderne Oberfläche, intuitive Nutzung

</td></tr><tr><td>**Schwächen**

</td><td>Einstieg erfordert technisches Know-how

</td><td>Proprietär, weniger transparent

</td><td>Weniger „polished“, Community-getrieben

</td><td>Fokus auf Nischen (z. B. Rollenspiele)

</td><td>Komplexe Einrichtung, eher für Enthusiasten

</td><td>Noch geringe Verbreitung, unreifer

</td></tr><tr><td>**Zielgruppe**

</td><td>Entwickler, Integratoren

</td><td>Einsteiger, Teams

</td><td>Experimentierfreudige Anwender

</td><td>Technikaffine mit wenig Ressourcen

</td><td>Power-User, Bastler

</td><td>Early Adopter

</td></tr><tr><td>**Besonderheit (Hersteller)**

</td><td>**„Privacy-first AI“ – volle lokale Kontrolle und einfache Modellintegration**

</td><td>**„AI for everyone“ – lokale Nutzung so einfach wie ChatGPT in der Cloud**

</td><td>**„Open ecosystem for local LLMs“ – Zugang zu vielen Modellen über eine App**

</td><td>**„Lightweight &amp; fast“ – KI auf nahezu jeder Hardware nutzbar**

</td><td>**„Maximum flexibility“ – unzählige Erweiterungen und Schnittstellen**

</td><td>**„Next-gen local AI“ – elegante, moderne Benutzeroberfläche für KI**

</td></tr><tr><td>**Webseite**

</td><td>[ollama.com](https://ollama.com/)

</td><td>[lmstudio.ai](https://lmstudio.ai/)

</td><td>[gpt4all.io](https://gpt4all.io/)

</td><td>[github.com/LostRuins/koboldcpp](https://github.com/LostRuins/koboldcpp)

</td><td>[github.com/oobabooga/text-generation-webui](https://github.com/oobabooga/text-generation-webui)

</td><td>[jan.ai](https://jan.ai/)

</td></tr></tbody></table>

---

<span style="white-space: pre-wrap;">Die Wahl des richtigen Sprachmodells ist entscheidend, um KI sinnvoll und sicher einzusetzen. Während manche Modelle als </span>**Allrounder**<span style="white-space: pre-wrap;"> überzeugen, sind andere auf </span>**Effizienz**<span style="white-space: pre-wrap;"> oder </span>**Forschung**<span style="white-space: pre-wrap;"> spezialisiert. Für das Innovation Lab sind vor allem Modelle relevant, die </span>**lokal laufen**<span style="white-space: pre-wrap;">, um Datenschutz und IT-Sicherheit zu gewährleisten. </span>

<span style="white-space: pre-wrap;">Die Landschaft der Sprachmodelle entwickelt sich rasant. Während LLaMA, Mistral oder Falcon wichtige Meilensteine waren, bestimmen heute vor allem neue </span>**Open-Weight-Modelle**<span style="white-space: pre-wrap;"> wie </span>**gpt-oss-20b**<span style="white-space: pre-wrap;"> von OpenAI und die </span>**aktuellen Phi-3-Varianten**<span style="white-space: pre-wrap;"> das Innovationsgeschehen. Diese Modelle sind nicht nur leistungsstark, sondern auch auf </span>**lokale Nutzung**<span style="white-space: pre-wrap;"> optimiert – ein entscheidender Vorteil für Datenschutz, DSGVO und IT-Sicherheit. Die folgende Tabelle stellt die </span>**wichtigsten aktuellen Modelle**<span style="white-space: pre-wrap;"> vor und ergänzt ältere Klassiker, die weiterhin in speziellen Szenarien relevant sein können.</span>

<span style="white-space: pre-wrap;">Die unterschiedlichsten Modelle können auch im Innovations Lab getestet werden: </span>[Zukunftswerkstatt KI](gerds-ki.de)

---

### Vergleichstabelle: Top-Innovationsmodelle (2025)Sprachmodelle 2025 – Herstellerfokus &amp; Innovation

<table id="bkmrk-modellbesonderheit-%2F"><colgroup><col></col><col></col><col></col><col></col><col></col><col></col></colgroup><tbody><tr><th>Modell

</th><th>Besonderheit / Fokus laut Hersteller

</th><th>Erstveröff.

</th><th>Ollama

</th><th>LM Studio

</th><th>Datenschutz &amp; IT-Sicherheit

</th></tr><tr><td>**gpt-oss-20b (OpenAI)**

</td><td>Erstes Open-Weight-MoE von OpenAI, Apache-2.0, optimiert für 16 GB RAM/VRAM

</td><td>2025

</td><td>✔️

</td><td>✔️

</td><td>Lokal, offen, DSGVO-konform

</td></tr><tr><td>**LLaMA 3.1 (Meta)**

</td><td>Größtes offenes Modell (bis 405 B), multilingual, Open-Weight, breite Community

</td><td>2025

</td><td>✔️

</td><td>✔️

</td><td>Lokal, Open Source, Lizenzbedingungen beachten

</td></tr><tr><td>**Qwen-3 (Alibaba)**

</td><td>Neueste Generation, Multilingualität &amp; lange Kontexte (&gt;128k Tokens), starke Benchmarks

</td><td>2025

</td><td>✔️

</td><td>✔️

</td><td>Lokal, Apache-2.0, DSGVO-konform

</td></tr><tr><td>**DeepSeek-R1-Distill-7B**

</td><td>Kompaktes Modell mit starkem Reasoning, ressourcenschonend, Notebook-freundlich

</td><td>2025

</td><td>✔️

</td><td>✔️

</td><td>Lokal, quelloffen, effizient

</td></tr><tr><td>**Phi-3 (Microsoft)**

</td><td>Effizienz auf geringster Hardware, Edge-tauglich, optimiert für Alltagseinsatz

</td><td>2025

</td><td>✔️

</td><td>✔️

</td><td>Lokal, sicher nutzbar

</td></tr><tr><td>**Mixtral 8x22B (Mistral)**

</td><td>High-End-MoE-Leistung, offene Gewichte, Spitzenmodell für Forschung

</td><td>2024

</td><td>✔️

</td><td>✔️

</td><td>Lokal, Open Source

</td></tr><tr><td>**Falcon (TII)**

</td><td>Forschungsmodell aus VAE, Open Source, früher Benchmarkführer

</td><td>2023

</td><td>✔️

</td><td>✔️

</td><td>Lokal, sicher, aber weniger innovativ

</td></tr><tr><td>**Qwen-2.5 (Alibaba)**

</td><td>Vorgänger von Qwen-3, stabil, weit verbreitet, gute Integration

</td><td>2024

</td><td>✔️

</td><td>✔️

</td><td>Lokal, Apache-2.0

</td></tr><tr><td>**GPT4All (Nomic)**

</td><td>Community-getrieben, einfache GUI-App, ideal für Einsteiger &amp; Experimente

</td><td>ab 2023

</td><td>Teilweise

</td><td>✔️

</td><td>Lokal, Qualität je nach Quelle

</td></tr></tbody></table>

---

### Sprachmodelle 2025 – Innovation im Überblick

<table id="bkmrk-modellzweck-%2F-empfeh"><colgroup><col></col><col></col><col></col></colgroup><tbody><tr><th>Modell

</th><th>Zweck / Empfehlung

</th><th>Aktualität &amp; Umgang mit neuen Themen

</th></tr><tr><td>**gpt-oss-20b (OpenAI, 2025)**

</td><td>Modernes Allround-Modell, optimiert für Notebooks (16 GB RAM/VRAM), produktive Arbeit mit DSGVO-Anspruch

</td><td>Neu (2025), Trainingsstand sehr aktuell; Inhalte bis Anfang 2025, kein Live-Webzugriff

</td></tr><tr><td>**LLaMA 3.1 (Meta, 2025)**

</td><td>Offenes Spitzenmodell mit Community-Support, Allrounder für Text, Forschung &amp; Prototyping

</td><td>Trainingsstand 2024/25; große Community hält es durch Feintuning und Adaptionen aktuell

</td></tr><tr><td>**Qwen-3 (Alibaba, 2025)**

</td><td>Neueste Generation mit starkem Multilingual-Fokus und langen Kontexten (&gt;128k Tokens); sehr leistungsfähig auch in Nicht-Englisch

</td><td>Neu (2025), frisch trainiert; erste Benchmarks zeigen deutliche Sprünge gegenüber 2.5

</td></tr><tr><td>**DeepSeek-R1-Distill-7B (2025)**

</td><td>Kompakt &amp; effizient, gutes Reasoning bei wenig Ressourcen, Notebook-freundlich

</td><td>Neu (2025), stark auf aktuelles Reasoning optimiert; weniger Fokus auf Breitenwissen

</td></tr><tr><td>**Phi-3 (Microsoft, 2025)**

</td><td>Ressourcenschonend, ideal für schwächere Hardware oder Edge-Geräte

</td><td>2024/25; Microsoft pflegt regelmäßige Updates, aber ohne Live-Web

</td></tr><tr><td>**Mixtral 8x22B (Mistral, 2024)**

</td><td>High-End-Modell für Forschung &amp; komplexe Analysen, braucht starke GPU

</td><td>Trainingsstand 2023/24; leistungsfähig, aber nicht tagesaktuell

</td></tr><tr><td>**Falcon (TII, 2023)**

</td><td>Forschung &amp; Business-Texte, solider Klassiker

</td><td>Stand 2023; heute weniger innovativ, aber für bestimmte Szenarien noch brauchbar

</td></tr><tr><td>**Qwen-2.5 (Alibaba, 2024)**

</td><td>Vorgänger von Qwen-3, sehr verbreitet, stabil und breit integriert (Ollama/LM Studio)

</td><td>Trainingsstand 2024; weiterhin stabil nutzbar, aber nicht mehr top-aktuell

</td></tr><tr><td>**GPT4All-Modelle (Nomic, seit 2023)**

</td><td>Einfacher Einstieg, Experimente &amp; Lernen mit GUI-App

</td><td>Basieren meist auf älteren Modellen; Aktualität abhängig von Community-Updates

</td></tr></tbody></table>

---

### 🛠 Praxis: Wie halte ich lokale KI-Modelle aktuell?

<span style="white-space: pre-wrap;">Lokale Sprachmodelle haben ein </span>**festes Wissensstand-Datum**<span style="white-space: pre-wrap;"> – sie lernen nicht automatisch Neues dazu. Damit sie dennoch aktuell und nützlich bleiben, gibt es drei Wege:</span>

1. **Neue Modellversion installieren**
    - <span style="white-space: pre-wrap;">Regelmäßig erscheinen Updates (z. B. </span>**LLaMA-3**<span style="white-space: pre-wrap;">, </span>**Phi-3**<span style="white-space: pre-wrap;">, </span>**gpt-oss-20b**).
    - Diese müssen manuell heruntergeladen und eingerichtet werden.
2. **Feintuning oder Adapter nutzen**
    - <span style="white-space: pre-wrap;">Mit </span>**LoRA**<span style="white-space: pre-wrap;">- oder </span>**QLoRA**-Techniken lässt sich ein bestehendes Modell schnell auf eigene Daten (z. B. Firmenwissen) anpassen.
    - Vorteil: kostengünstig und gezielt.
3. **RAG (Retrieval Augmented Generation)**
    - Das Modell bleibt unverändert, erhält aber bei jeder Anfrage aktuelle Dokumente oder Daten aus einer Wissensdatenbank.
    - So können auch Nachrichten von heute verarbeitet werden, obwohl das Modell selbst sie nicht „kennt“.

<span style="white-space: pre-wrap;">💡 </span>**Vergleich zur Cloud**<span style="white-space: pre-wrap;">: Während Cloud-Modelle automatisch durch den Anbieter aktualisiert werden, bedeutet lokale Nutzung </span>**mehr Eigenverantwortung**<span style="white-space: pre-wrap;"> – dafür bleiben alle Daten </span>**unter deiner Kontrolle**<span style="white-space: pre-wrap;"> und DSGVO-konform.</span>

# KI Modellfamilien - Übersicht (Stand April 2026) - Arbeitsdokument

## Übersicht gängiger KI-Modellfamilien

<p class="callout warning">Diese Übersicht beschreibt verbreitete KI-Modellfamilien, ihre Herkunft, typische Ausprägungen, die grundsätzliche lokale Nutzbarkeit, den inhaltlichen Fokus sowie eine grobe Einordnung ihrer Verbreitung.  
Sie dient der schnellen Orientierung und erhebt keinen Anspruch auf Vollständigkeit.</p>

### Grundsätzliche Hinweise

- <span style="white-space: pre-wrap;">Modellbezeichnungen sind </span>**nicht einheitlich standardisiert**.
- Viele Namen bestehen aus einer Kombination aus:
    - **Modellfamilie**
    - **Versions- oder Generationsnummer**
    - **Größenangabe**
    - **Spezialisierung oder Einsatzschwerpunkt**
- <span style="white-space: pre-wrap;">Begriffe wie </span>`<span class="editor-theme-code">mini</span>`<span style="white-space: pre-wrap;">, </span>`<span class="editor-theme-code">pro</span>`<span style="white-space: pre-wrap;">, </span>`<span class="editor-theme-code">thinking</span>`<span style="white-space: pre-wrap;">, </span>`<span class="editor-theme-code">reasoning</span>`<span style="white-space: pre-wrap;">, </span>`<span class="editor-theme-code">vision</span>`<span style="white-space: pre-wrap;"> oder </span>`<span class="editor-theme-code">turbo</span>`<span style="white-space: pre-wrap;"> sind häufig </span>**anbieterspezifisch**.
- <span style="white-space: pre-wrap;">Die lokale Nutzbarkeit hängt zusätzlich von Faktoren wie </span>**Quantisierung**<span style="white-space: pre-wrap;">, </span>**Kontextlänge**<span style="white-space: pre-wrap;">, </span>**RAM**<span style="white-space: pre-wrap;">, </span>**VRAM**<span style="white-space: pre-wrap;"> und </span>**CPU/GPU-Leistung**<span style="white-space: pre-wrap;"> ab.</span>

---

## Tabelle: Gängige Modellfamilien

<table id="bkmrk-modellfamilieherkunf"><colgroup><col></col><col></col><col></col><col></col><col></col><col></col><col></col></colgroup><tbody><tr><th>Modellfamilie

</th><th>Herkunft / Anbieter

</th><th>Typische Ausprägungen

</th><th>Lokal nutzbar

</th><th>Grobe lokale Anforderung

</th><th>Verbreitung

</th><th>Typischer Fokus

</th></tr><tr><td>**Llama**

</td><td>Meta

</td><td>z. B. 1B, 3B, 8B, 70B

</td><td>Ja

</td><td>kleine bis mittlere Varianten gut lokal nutzbar; große Varianten eher für starke Systeme

</td><td>sehr hoch

</td><td>Allround, Chat, Assistenz, Basis für viele lokale Setups

</td></tr><tr><td>**Qwen**

</td><td>Alibaba / Qwen Team

</td><td>z. B. 0.6B, 4B, 8B, 14B, 32B, MoE-Varianten

</td><td>Ja

</td><td>kleine und mittlere Varianten gut lokal; größere Varianten deutlich anspruchsvoller

</td><td>sehr hoch

</td><td>multilingual, Coding, Reasoning, Tools

</td></tr><tr><td>**DeepSeek**

</td><td>DeepSeek

</td><td>z. B. kleine Distill-Modelle, größere Reasoning-Varianten

</td><td>Ja, vor allem kleine Varianten

</td><td>kleine Modelle gut lokal; große Modelle nur eingeschränkt sinnvoll lokal

</td><td>hoch

</td><td>Reasoning, Analyse, Mathematik

</td></tr><tr><td>**Gemma**

</td><td>Google DeepMind / Google

</td><td>z. B. 2B, 4B, 12B, 27B, Gemma-4-Varianten

</td><td>Ja

</td><td>kleine Modelle lokal gut einsetzbar; größere Varianten benötigen mehr Speicher

</td><td>mittel bis hoch

</td><td>allgemeine Nutzung, Reasoning, teils multimodal

</td></tr><tr><td>**Mistral**

</td><td>Mistral AI

</td><td>z. B. 7B, Small, Large, Mixtral, Devstral, Magistral

</td><td>Teilweise

</td><td>offene kleinere Modelle lokal gut nutzbar; große Varianten eher nicht

</td><td>hoch

</td><td>Allround, Coding, Reasoning

</td></tr><tr><td>**Phi**

</td><td>Microsoft

</td><td>z. B. Mini-, Multimodal- und Reasoning-Varianten

</td><td>Ja

</td><td>meist vergleichsweise ressourcenschonend

</td><td>mittel bis hoch

</td><td>effiziente lokale Nutzung, kompakte Modelle

</td></tr><tr><td>**GPT / o-Serie**

</td><td>OpenAI

</td><td>z. B. GPT-4.x, mini, nano, o-Modelle

</td><td>in der Regel nein

</td><td>primär Cloud-/API-Nutzung

</td><td>sehr hoch

</td><td>allgemeine Nutzung, Reasoning, Produktivbetrieb

</td></tr><tr><td>**Claude**

</td><td>Anthropic

</td><td>Haiku, Sonnet, Opus

</td><td>in der Regel nein

</td><td>primär Cloud-/API-Nutzung

</td><td>hoch

</td><td>Sprachverständnis, Analyse, Assistenz

</td></tr><tr><td>**Gemini**

</td><td>Google

</td><td>Flash, Pro

</td><td>in der Regel nein

</td><td>primär Cloud-/API-Nutzung

</td><td>hoch

</td><td>allgemeine Nutzung, multimodale Verarbeitung

</td></tr><tr><td>**Grok**

</td><td>xAI

</td><td>verschiedene Grok-Varianten

</td><td>in der Regel nein

</td><td>primär Cloud-/API-Nutzung

</td><td>mittel

</td><td>allgemeine Nutzung, Echtzeit-/Plattformintegration

</td></tr><tr><td>**Command / Aya**

</td><td>Cohere

</td><td>Command, Aya

</td><td>eher nein

</td><td>primär API-/Unternehmensnutzung

</td><td>mittel

</td><td>Enterprise, RAG, mehrsprachige Anwendungen

</td></tr></tbody></table>

---

## Einordnung der Größenangaben

### <span style="white-space: pre-wrap;">Bedeutung von </span>`<span class="editor-theme-code">B</span>`

<span style="white-space: pre-wrap;">Das Kürzel </span>**B**<span style="white-space: pre-wrap;"> steht in der Regel für </span>**Billion**<span style="white-space: pre-wrap;">, also </span>**Milliarden Parameter**.

Beispiele:

- **7B**<span style="white-space: pre-wrap;"> = 7 Milliarden Parameter</span>
- **14B**<span style="white-space: pre-wrap;"> = 14 Milliarden Parameter</span>
- **70B**<span style="white-space: pre-wrap;"> = 70 Milliarden Parameter</span>

Grundsätzlich gilt:

- kleinere B-Werte = geringerer Ressourcenbedarf
- größere B-Werte = tendenziell höhere Leistungsfähigkeit, aber auch höherer Speicherbedarf

### <span style="white-space: pre-wrap;">Bedeutung von Angaben wie </span>`<span class="editor-theme-code">A4B</span>`

<span style="white-space: pre-wrap;">Zusätze wie </span>**A4B**<span style="white-space: pre-wrap;"> oder ähnliche Schreibweisen kommen häufig bei </span>**Mixture-of-Experts-Modellen (MoE)**<span style="white-space: pre-wrap;"> vor.</span>

Dabei gilt typischerweise:

- <span style="white-space: pre-wrap;">die erste Größenangabe beschreibt die </span>**Gesamtgröße des Modells**
- <span style="white-space: pre-wrap;">die A-Angabe beschreibt die </span>**aktiv genutzten Parameter pro Verarbeitungsschritt**

Beispiel:

- **26B A4B**<span style="white-space: pre-wrap;"> = Modell mit 26 Milliarden Parametern insgesamt, davon sind pro Schritt etwa 4 Milliarden aktiv</span>

Wichtig ist dabei:

- <span style="white-space: pre-wrap;">auch wenn nur ein Teil aktiv genutzt wird, muss lokal oft </span>**das gesamte Modell geladen werden**
- dadurch kann der Speicherbedarf weiterhin hoch bleiben

---

## Typische Zusatzbezeichnungen

<table id="bkmrk-k%C3%BCrzel-%2F-begriff%C3%9Cbli"><colgroup><col></col><col></col></colgroup><tbody><tr><th>Kürzel / Begriff

</th><th>Übliche Bedeutung

</th></tr><tr><td>**B**

</td><td>Milliarden Parameter

</td></tr><tr><td>**AxxB**

</td><td>aktivierte Milliarden Parameter, häufig bei MoE

</td></tr><tr><td>**MoE**

</td><td>Mixture of Experts

</td></tr><tr><td>**mini / nano / small / flash / fast**

</td><td>kleinere, schnellere oder günstigere Variante

</td></tr><tr><td>**pro / large / opus / ultra / heavy**

</td><td>leistungsstärkere Variante

</td></tr><tr><td>**reasoning / thinking**

</td><td>auf mehrstufiges Denken oder Problemlösen optimiert

</td></tr><tr><td>**vision**

</td><td>Bildverarbeitung möglich

</td></tr><tr><td>**multimodal**

</td><td>Verarbeitung mehrerer Eingabetypen, z. B. Text und Bild

</td></tr><tr><td>**instruct / IT**

</td><td>für Anweisungen bzw. Chatnutzung optimiert

</td></tr><tr><td>**preview**

</td><td>Vorabversion

</td></tr><tr><td>**turbo**

</td><td>meist auf Geschwindigkeit optimiert, jedoch nicht einheitlich definiert

</td></tr></tbody></table>

---

## Grobe Einschätzung lokaler Anforderungen

Die folgende Übersicht dient als praxisnahe Orientierung für lokale Nutzung, etwa mit Ollama oder vergleichbaren Laufzeitumgebungen:

<table id="bkmrk-modellgr%C3%B6%C3%9Fegrobe-ein"><colgroup><col></col><col></col></colgroup><tbody><tr><th>Modellgröße

</th><th>Grobe Einschätzung

</th></tr><tr><td>**1B bis 4B**

</td><td>leicht lokal nutzbar

</td></tr><tr><td>**7B bis 8B**

</td><td>gut lokal nutzbar

</td></tr><tr><td>**12B bis 14B**

</td><td>mittlere Anforderungen

</td></tr><tr><td>**26B bis 32B**

</td><td>hohe Anforderungen

</td></tr><tr><td>**70B und größer**

</td><td>meist nur mit leistungsstarker Hardware sinnvoll

</td></tr><tr><td>**MoE-Modelle**

</td><td>abhängig von Gesamtgröße und aktivem Anteil; Speicherbedarf kann trotz Effizienz hoch bleiben

</td></tr></tbody></table>

---

## Verbreitung der Modellfamilien

Die Verbreitung lässt sich nur grob einordnen, da keine einheitlichen Vergleichswerte über alle Anbieter hinweg vorliegen.

### Sehr stark verbreitet

- Llama
- Qwen
- DeepSeek
- GPT

### Stark verbreitet

- Claude
- Gemini
- Mistral
- Gemma

### Mittel bis stark verbreitet

- Phi
- Cohere Command / Aya
- Grok

---

## Typische Fokusse nach Modellfamilie

<table id="bkmrk-modellfamilietypisch"><colgroup><col></col><col></col></colgroup><tbody><tr><th>Modellfamilie

</th><th>Typischer Schwerpunkt

</th></tr><tr><td>**Llama**

</td><td>allgemeine lokale Nutzung, Allround

</td></tr><tr><td>**Qwen**

</td><td>multilingual, Coding, Reasoning

</td></tr><tr><td>**DeepSeek**

</td><td>Reasoning, Analyse

</td></tr><tr><td>**Gemma**

</td><td>allgemeine Nutzung, effiziente moderne Open-Modelle

</td></tr><tr><td>**Mistral**

</td><td>Allround, teils Coding und Reasoning

</td></tr><tr><td>**Phi**

</td><td>kompakte, effiziente Modelle

</td></tr><tr><td>**GPT**

</td><td>allgemeine Nutzung, starke Cloud-Modelle

</td></tr><tr><td>**Claude**

</td><td>Sprachverständnis, Analyse, Assistenz

</td></tr><tr><td>**Gemini**

</td><td>multimodal, allgemeine Nutzung

</td></tr><tr><td>**Grok**

</td><td>plattformnahe Assistenz, allgemeine Nutzung

</td></tr><tr><td>**Command / Aya**

</td><td>Enterprise, RAG, Mehrsprachigkeit

</td></tr></tbody></table>

---

## Aktuelle Hauptversionen gängiger Modellfamilien

**Stand: 21. April 2026**

<table id="bkmrk-modellfamilieaktuell"><colgroup><col></col><col></col><col></col></colgroup><tbody><tr><th>Modellfamilie

</th><th>Aktuelle Hauptversion / aktuelle Linie

</th><th>Typische aktuelle Varianten

</th></tr><tr><td>**OpenAI GPT / o-Serie**

</td><td>**GPT-5.4** <span style="white-space: pre-wrap;"> als aktuelle Frontier-Modelllinie; zusätzlich </span>

**GPT-5.4-mini** <span style="white-space: pre-wrap;"> und </span>

**GPT-5.4-nano**<span style="white-space: pre-wrap;">. Die ältere Reasoning-Linie </span>

**o3 / o4-mini**<span style="white-space: pre-wrap;"> ist weiterhin dokumentiert, wird aber in den OpenAI-Modellseiten teils bereits als abgelöst eingeordnet. (</span>[OpenAI Entwickler](https://developers.openai.com/api/docs/models?utm_source=chatgpt.com "Models | OpenAI API"))

</td><td>GPT-5.4, GPT-5.4-mini, GPT-5.4-nano, o3, o4-mini

</td></tr><tr><td>**Claude**

</td><td>**Claude 4.7** <span style="white-space: pre-wrap;"> ist aktuell die neueste genannte Generation; Anthropic hebt insbesondere </span>

**Claude Opus 4.7**<span style="white-space: pre-wrap;"> hervor. In den Modelllinien bleiben außerdem </span>**Sonnet** <span style="white-space: pre-wrap;">und </span>**Haiku**

<span style="white-space: pre-wrap;"> als Klassen relevant. (</span>[Claude API Docs](https://docs.anthropic.com/ru/release-notes/claude-apps?utm_source=chatgpt.com "Release notes | Claude Help Center"))

</td><td>Opus 4.7, Sonnet 4.5+, Haiku 4.5+

</td></tr><tr><td>**Gemini**

</td><td>**Gemini 3.1 Pro**<span style="white-space: pre-wrap;"> ist aktuell die neueste hervorgehobene Pro-Generation in den Gemini-API-Modellseiten. Zusätzlich werden </span>

**Gemini 3 Flash**<span style="white-space: pre-wrap;"> und </span>**Gemini 3.1 Flash-Lite** <span style="white-space: pre-wrap;"> geführt. Parallel ist </span>**Gemini 2.5 Pro**

<span style="white-space: pre-wrap;"> weiterhin dokumentiert. (</span>[Google AI for Developers](https://ai.google.dev/gemini-api/docs/models?utm_source=chatgpt.com "Models | Gemini API - Google AI for Developers"))

</td><td>Gemini 3.1 Pro, Gemini 3 Flash, Gemini 3.1 Flash-Lite, Gemini 2.5 Pro

</td></tr><tr><td>**Gemma**

</td><td>**Gemma 4**<span style="white-space: pre-wrap;"> ist die aktuelle Hauptgeneration. Google listet für diese Generation die Größen </span>**E2B,**<span style="white-space: pre-wrap;"> </span>**E4B**,**31B**<span style="white-space: pre-wrap;"> und </span>**26B A4B**. ([Google AI for Developers](https://ai.google.dev/gemma/docs/releases?utm_source=chatgpt.com "Gemma releases | Google AI for Developers"))

</td><td>Gemma 4 E2B, E4B, 31B, 26B A4B

</td></tr><tr><td>**Llama**

</td><td>**Llama 4**<span style="white-space: pre-wrap;"> ist die aktuelle Hauptgeneration. Meta nennt derzeit insbesondere </span>

**Llama 4 Scout**<span style="white-space: pre-wrap;"> und </span>**Llama 4 Maverick**<span style="white-space: pre-wrap;"> als veröffentlichte Modelle. (</span>[ai.meta.com](https://ai.meta.com/blog/llama-4-multimodal-intelligence/?utm_source=chatgpt.com "The Llama 4 herd: The beginning of a new era of natively ..."))

</td><td>Llama 4 Scout, Llama 4 Maverick

</td></tr><tr><td>**Mistral**

</td><td><span style="white-space: pre-wrap;">Bei Mistral ist die aktuelle Hauptlinie breit aufgefächert. In den Modellübersichten werden besonders </span>**Mistral Large 3**<span style="white-space: pre-wrap;">, </span>**Devstral 2**<span style="white-space: pre-wrap;"> und </span>**Mistral Medium 3.1**

<span style="white-space: pre-wrap;"> als aktuelle Featured-Modelle hervorgehoben. (</span>[Mistral AI](https://mistral.ai/models?utm_source=chatgpt.com "Models - from cloud to edge"))

</td><td>Mistral Large 3, Devstral 2, Mistral Medium 3.1

</td></tr><tr><td>**Qwen**

</td><td>**Qwen3** <span style="white-space: pre-wrap;"> ist die aktuelle Hauptgeneration der allgemeinen Qwen-Familie. Daneben existiert mit </span>**Qwen3-Coder**<span style="white-space: pre-wrap;"> eine spezialisierte Coding-Linie. (</span>[Qwen](https://qwenlm.github.io/blog/qwen3/?utm_source=chatgpt.com "Qwen3: Think Deeper, Act Faster"))

</td><td>Qwen3-0.6B bis 32B, Qwen3-30B-A3B, Qwen3-235B-A22B, Qwen3-Coder

</td></tr><tr><td>**DeepSeek**

</td><td>**DeepSeek-V3.2**<span style="white-space: pre-wrap;"> ist die aktuelle allgemeine Hauptlinie laut DeepSeek. Zusätzlich wird </span>

**DeepSeek-V3.2-Speciale** <span style="white-space: pre-wrap;"> genannt. In der Praxis bleibt auch </span>**DeepSeek-R1**<span style="white-space: pre-wrap;"> als Reasoning-Linie sehr relevant. (</span>[DeepSeek](https://www.deepseek.com/en/?utm_source=chatgpt.com "DeepSeek"))

</td><td>DeepSeek-V3.2, DeepSeek-V3.2-Speciale, DeepSeek-R1

</td></tr><tr><td>**Phi**

</td><td>**Phi-4**

<span style="white-space: pre-wrap;"> wird von Microsoft als aktuelle Hauptgeneration der Phi-Familie hervorgehoben. (</span>

[Microsoft Azure](https://azure.microsoft.com/en-us/products/phi?utm_source=chatgpt.com "Phi Open Models - Small Language Models")

)

</td><td>Phi-4, Phi-4-mini, weitere spezialisierte Phi-4-Varianten je Plattform

</td></tr><tr><td>**Grok**

</td><td>**Grok 4.1**

<span style="white-space: pre-wrap;"> ist aktuell die neueste genannte Hauptversion in den xAI-News; zuvor wurde </span>

**Grok 4**

<span style="white-space: pre-wrap;"> eingeführt. (</span>

[xAI](https://x.ai/news/grok-4-1?utm_source=chatgpt.com "Grok 4.1")

)

</td><td>Grok 4.1, Grok 4 Heavy, Grok Code Fast 1

</td></tr><tr><td>**Command / Aya**

</td><td><span style="white-space: pre-wrap;">Bei Cohere ist </span>

**Command A**

<span style="white-space: pre-wrap;"> die aktuelle zentrale Hauptlinie; zusätzlich gibt es spezialisierte Varianten wie </span>

**Command A Reasoning**

<span style="white-space: pre-wrap;"> und </span>

**Command A Vision**

<span style="white-space: pre-wrap;">. </span>

**Aya**

<span style="white-space: pre-wrap;"> bleibt die mehrsprachige Modellfamilie. (</span>

[Cohere](https://cohere.com/command?utm_source=chatgpt.com "Cohere Command Models: AI-Powered Solutions for ...")

)

</td><td>Command A, Command A Reasoning, Command A Vision, Aya

</td></tr></tbody></table>

---

## DSGVO-Einordnung beim Einsatz von KI-Modellen

<table id="bkmrk-einsatzszenariobeisp"><colgroup><col></col><col></col><col style="width: 216px;"></col><col></col><col style="width: 90px;"></col></colgroup><tbody><tr><th>Einsatzszenario

</th><th>Beispiel

</th><th>DSGVO-Einordnung

</th><th>Typische Prüfpunkte

</th><th>Risikoniveau

</th></tr><tr><td>**Rein lokal, offline**

</td><td>Modell läuft auf eigenem Rechner oder internem Server ohne externe Datenübertragung

</td><td><span style="white-space: pre-wrap;">Datenschutzrechtlich meist </span>

**am einfachsten**

<span style="white-space: pre-wrap;"> zu bewerten, weil keine automatische Übermittlung an einen externen KI-Anbieter erfolgt. Die DSGVO bleibt dennoch anwendbar, sobald personenbezogene Daten verarbeitet werden. (</span>

[EDPB](https://www.edpb.europa.eu/news/news/2024/edpb-opinion-ai-models-gdpr-principles-support-responsible-ai_en?utm_source=chatgpt.com "EDPB opinion on AI models: GDPR principles support ...")

)

</td><td>Rechtsgrundlage, Zweckbindung, Zugriffskontrolle, Protokollierung, Löschkonzept, Berechtigungskonzept

</td><td>**Niedrig bis mittel**

</td></tr><tr><td>**Lokal im Unternehmensnetz, mit mehreren Nutzern**

</td><td>Interner KI-Server für Mitarbeitende

</td><td>Ebenfalls vergleichsweise günstig, aber organisatorisch anspruchsvoller als Einzelnutzung. Es sind interne Rollen, Berechtigungen und Schutzmaßnahmen sauber zu regeln. (

[CNIL](https://www.cnil.fr/en/ai-system-development-cnils-recommendations-to-comply-gdpr?utm_source=chatgpt.com "AI system development: CNIL's recommendations to ...")

)

</td><td>Rollen und Verantwortlichkeiten, TOMs, Zugriffstrennung, Logging, Datenschutzinformationen, interne Richtlinien

</td><td>**Mittel**

</td></tr><tr><td>**Selbst gehostet in eigenem Rechenzentrum oder bei EU-Hoster**

</td><td>Eigene KI-Anwendung auf VPS oder dediziertem Server in der EU

</td><td>Häufig gut beherrschbar, sofern Hosting, Fernzugriffe und Administratorenzugänge sauber geregelt sind. Auch bei EU-Hosting sind Verträge und technische Maßnahmen erforderlich. (

[CNIL](https://www.cnil.fr/en/ai-system-development-cnils-recommendations-to-comply-gdpr?utm_source=chatgpt.com "AI system development: CNIL's recommendations to ...")

)

</td><td>AV-Vertrag, Serverstandort, Admin-Zugriffe, Verschlüsselung, Backups, Löschung, Incident-Prozesse

</td><td>**Mittel**

</td></tr><tr><td>**Externe API / Cloud innerhalb der EU**

</td><td>KI-Dienst mit Verarbeitung in der EU

</td><td>DSGVO-relevant und regelmäßig prüfungsbedürftig. EU-Standort erleichtert die Bewertung, ersetzt aber keine Prüfung von Rechtsgrundlage, Transparenz und Verträgen. (

[EDPB](https://www.edpb.europa.eu/news/news/2024/edpb-opinion-ai-models-gdpr-principles-support-responsible-ai_en?utm_source=chatgpt.com "EDPB opinion on AI models: GDPR principles support ...")

)

</td><td>Anbieterrolle, AV-Vertrag oder Rollenabgrenzung, Zweckbindung, Datennutzung durch Anbieter, Speicherfristen, Betroffenenrechte

</td><td>**Mittel bis hoch**

</td></tr><tr><td>**Externe API / Cloud mit Drittlandtransfer**

</td><td>US- oder sonstiger Nicht-EU-Anbieter

</td><td><span style="white-space: pre-wrap;">Regelmäßig </span>

**prüfungsintensiver**

, weil zusätzlich Fragen zu internationaler Datenübermittlung, Schutzmechanismen und Anbieterzugriffen zu klären sind. Für US-Anbieter kann das EU-US Data Privacy Framework relevant sein, sofern der konkrete Empfänger darunter fällt. (

[European Commission](https://ec.europa.eu/commission/presscorner/detail/en/ip_23_3721?utm_source=chatgpt.com "Adequacy decision for safe EU-US data flows")

)

</td><td>Drittlandtransfer, Zertifizierung/Transfermechanismus, Vertragslage, Subprozessoren, Transparenz, Datennutzung für Training oder Verbesserung

</td><td>**Hoch**

</td></tr><tr><td>**Nutzung mit anonymisierten oder wirksam pseudonymisierten Daten**

</td><td>Vorverarbeitete Fälle ohne direkte Personenbeziehbarkeit

</td><td>Kann die datenschutzrechtlichen Risiken deutlich senken. Ob Daten oder sogar ein Modell als anonym gelten, ist jedoch im Einzelfall zu prüfen; die EDPB behandelt diese Frage ausdrücklich als fallbezogene Bewertung. (

[EDPB](https://www.edpb.europa.eu/news/news/2024/edpb-opinion-ai-models-gdpr-principles-support-responsible-ai_en?utm_source=chatgpt.com "EDPB opinion on AI models: GDPR principles support ...")

)

</td><td>Qualität der Anonymisierung/Pseudonymisierung, Re-Identifikationsrisiko, Trennung von Zusatzwissen, Zugriffskonzepte

</td><td>**Niedrig bis mittel**

</td></tr><tr><td>**Nutzung mit sensiblen Daten**

</td><td>Gesundheitsdaten, Sozialdaten, Beschäftigtendaten, besondere Kategorien

</td><td>Besonders kritisch. Hier steigen die Anforderungen an Rechtsgrundlage, Schutzmaßnahmen, Zugriffsbeschränkungen und Dokumentation deutlich. (

[CNIL](https://www.cnil.fr/en/ai-system-development-cnils-recommendations-to-comply-gdpr?utm_source=chatgpt.com "AI system development: CNIL's recommendations to ...")

)

</td><td>Art. 9 DSGVO, Erforderlichkeit, Datensparsamkeit, Schutzbedarf, DPIA, Zugriffstrennung, Verschlüs

</td><td></td></tr></tbody></table>

## DSGVO-Einordnung nach Modellfamilie

> **Hinweis:**<span style="white-space: pre-wrap;"> Diese Übersicht ist eine </span>**praxisnahe Orientierung**<span style="white-space: pre-wrap;"> für Dokumentationszwecke und </span>**keine Rechtsberatung**. Maßgeblich ist immer der konkrete Einsatz: lokal, selbst gehostet, über API/Cloud, mit oder ohne personenbezogene Daten. Die EDPB hat klargestellt, dass die DSGVO auch für KI-Modelle gilt. ([Anthropic](https://www.anthropic.com/transparency?utm_source=chatgpt.com "Anthropic's Transparency Hub"))

<table id="bkmrk-modellfamilietypisch-1"><colgroup><col style="width: 73px;"></col><col style="width: 112px;"></col><col style="width: 112px;"></col><col></col><col></col></colgroup><tbody><tr><th>Modellfamilie

</th><th>Typischer Betriebsmodus

</th><th>DSGVO-Tendenz

</th><th>Modellbezug / praktische Einordnung

</th><th>Prüfschwerpunkt

</th></tr><tr><td>**Llama**

</td><td><span style="white-space: pre-wrap;">häufig </span>

**lokal / self-hosted**

, da offen herunterladbar und „deploy anywhere“ beworben

</td><td>**günstig bis mittel**

, wenn lokal betrieben

</td><td><span style="white-space: pre-wrap;">Für Llama ist der DSGVO-Vorteil vor allem der </span>

**lokale oder eigene Betrieb**

: Meta stellt die Modelle zum Download bereit und beschreibt sie als überall deploybar. Dadurch kann eine externe Übermittlung an einen Modellanbieter oft vermieden werden. (

[llama.com](https://www.llama.com/?utm_source=chatgpt.com "Llama: Industry Leading, Open-Source AI")

)

</td><td>Serverstandort, interne Zugriffe, Logging, Löschung, keine unnötige Cloud-Anbindung

</td></tr><tr><td>**Gemma**

</td><td><span style="white-space: pre-wrap;">häufig </span>

**lokal / self-hosted**

</td><td>**günstig bis mittel**

, wenn lokal betrieben

</td><td><span style="white-space: pre-wrap;">Gemma ist als offene Modellfamilie für lokale Nutzung relevant. Datenschutzrechtlich ist sie daher typischerweise </span>

**einfacher**

<span style="white-space: pre-wrap;"> als reine Cloud-Modelle, sofern keine personenbezogenen Daten an externe Dienste fließen. Die DSGVO-Frage hängt hier eher am Hosting als am Modellnamen. (</span>

[Anthropic](https://www.anthropic.com/transparency?utm_source=chatgpt.com "Anthropic's Transparency Hub")

)

</td><td>Lokale Verarbeitung, Zugriffskonzepte, Datenminimierung

</td></tr><tr><td>**Mistral**

</td><td>**hybrid**

: Cloud, private Cloud, VPC, on-prem

</td><td>**mittel**

, bei on-prem günstiger

</td><td><span style="white-space: pre-wrap;">Mistral bewirbt ausdrücklich </span>

**private Deployments**

, VPC- und On-Prem-Optionen sowie „your data stays within your walls“. Dadurch ist Mistral aus DSGVO-Sicht oft flexibler als reine SaaS-Modelle. Zusätzlich gibt es ein DPA. (

[Mistral AI](https://mistral.ai/?utm_source=chatgpt.com "Mistral AI: Frontier AI LLMs, assistants, agents, services")

)

</td><td>AV-Vertrag, Hosting-Variante, Admin-Zugriffe, Datenfluss zwischen Cloud und On-Prem

</td></tr><tr><td>**Phi**

</td><td><span style="white-space: pre-wrap;">oft </span>

**lokal**

, alternativ Azure-/Microsoft-Umfeld

</td><td>**günstig bis mittel**

, je nach Hosting

</td><td>Phi ist als kleine Modellfamilie gut für lokale Nutzung geeignet; Microsoft positioniert Phi zudem unter dem Aspekt „privacy and security“. Datenschutzrechtlich ist lokal am einfachsten, bei Azure-Betrieb kommt die übliche Cloud-/Vertragsprüfung hinzu. (

[Microsoft Azure](https://azure.microsoft.com/en-us/products/phi?utm_source=chatgpt.com "Phi Open Models - Small Language Models")

)

</td><td>Lokal vs. Azure, Verträge, Region, Speicherort

</td></tr><tr><td>**Qwen**

</td><td><span style="white-space: pre-wrap;">sowohl </span>

**lokal**

<span style="white-space: pre-wrap;"> als auch </span>

**Cloud/API**

</td><td>**lokal günstiger**

<span style="white-space: pre-wrap;">, Cloud </span>

**mittel bis hoch**

</td><td><span style="white-space: pre-wrap;">Qwen ist als Modellfamilie lokal nutzbar, hat aber auch einen eigenen API-/Cloud-Zugang. Für die DSGVO ist deshalb wichtig, </span>

**welcher Weg genutzt wird**

. Bei lokaler Nutzung ist die Bewertung deutlich einfacher als bei Verarbeitung über die Qwen-Cloud. (

[qwen.ai](https://qwen.ai/apiplatform?utm_source=chatgpt.com "Qwen API")

)

</td><td>Ob lokal oder API, Anbieterrolle, Übermittlung, vertragliche Einbindung

</td></tr><tr><td>**DeepSeek**

</td><td><span style="white-space: pre-wrap;">sowohl </span>

**lokal**

<span style="white-space: pre-wrap;"> als auch </span>

**Cloud/API**

</td><td>**lokal klar günstiger**

<span style="white-space: pre-wrap;">, Cloud </span>

**hoch**

</td><td><span style="white-space: pre-wrap;">Bei DeepSeek ist der Modellbezug besonders wichtig: Die Modelle können lokal laufen, aber die DeepSeek-Privacy-Policy sagt ausdrücklich, dass personenbezogene Daten zur Diensterbringung </span>

**in der Volksrepublik China verarbeitet und gespeichert**

<span style="white-space: pre-wrap;"> werden können. Für personenbezogene Daten ist deshalb der </span>

**lokale Betrieb**

<span style="white-space: pre-wrap;"> deutlich günstiger. (</span>

[cdn.deepseek.com](https://cdn.deepseek.com/policies/en-US/deepseek-privacy-policy.html?utm_source=chatgpt.com "DeepSeek Privacy Policy")

)

</td><td>Drittlandtransfer, Speicherort China, sensible Daten vermeiden, möglichst self-hosted

</td></tr><tr><td>**GPT / o-Serie**

</td><td><span style="white-space: pre-wrap;">typischerweise </span>

**Cloud/API**

</td><td>**mittel bis hoch**

</td><td><span style="white-space: pre-wrap;">OpenAI ist klar cloud-orientiert. Positiv ist: Für Business-Angebote gibt es ein DPA; für Kunden im EWR/der Schweiz wird dieses mit </span>

**OpenAI Ireland Ltd.**

<span style="white-space: pre-wrap;"> geschlossen. OpenAI erklärt außerdem, dass </span>

**Business-Daten standardmäßig nicht zum Training verwendet werden**

. Trotzdem bleibt Cloud-Verarbeitung DSGVO-prüfungsintensiv. (

[OpenAI](https://openai.com/policies/data-processing-addendum/?utm_source=chatgpt.com "OpenAI Data Processing Addendum")

)

</td><td>Rechtsgrundlage, AV/DPA, Anbieterrolle, Transfermechanismus, Speicher- und Löschregeln

</td></tr><tr><td>**Claude**

</td><td><span style="white-space: pre-wrap;">typischerweise </span>

**Cloud/API**

</td><td>**mittel bis hoch**

</td><td><span style="white-space: pre-wrap;">Claude ist primär ein Cloud-Modell. Bei Anthropic ist relevant, dass es für Consumer-Nutzung eine </span>

**Opt-in-Logik**

<span style="white-space: pre-wrap;"> zur Datennutzung für Trainings-/Verbesserungszwecke gibt; zugleich verweist Anthropic für Unternehmen auf Trust-/Compliance-Unterlagen. Für DSGVO-Zwecke ist Claude daher vor allem als </span>

**vertrags- und plattformabhängiges Cloud-Modell**

<span style="white-space: pre-wrap;"> zu prüfen. (</span>

[Anthropic](https://www.anthropic.com/news/updates-to-our-consumer-terms?utm_source=chatgpt.com "Updates to Consumer Terms and Privacy Policy")

)

</td><td>Consumer vs. Business trennen, Opt-in/Datennutzung, Verträge, Speicherort

</td></tr><tr><td>**Gemini**

</td><td><span style="white-space: pre-wrap;">typischerweise </span>

**Cloud/API**

</td><td>**mittel bis hoch**

</td><td><span style="white-space: pre-wrap;">Bei Gemini ist die Unterscheidung zwischen </span>

**unpaid**

<span style="white-space: pre-wrap;"> und </span>

**paid tiers**

<span style="white-space: pre-wrap;"> besonders relevant: Google weist für Unpaid Services darauf hin, dass Eingaben/Ausgaben von Menschen geprüft und zur Produktverbesserung genutzt werden können und dass </span>

**keine sensiblen, vertraulichen oder personenbezogenen Daten**

<span style="white-space: pre-wrap;"> eingereicht werden sollen. Für Paid Tiers heißt es, dass Prompts/Responses </span>

**nicht**

<span style="white-space: pre-wrap;"> zur Produktverbesserung genutzt werden. (</span>

[Google AI for Developers](https://ai.google.dev/gemini-api/terms?utm_source=chatgpt.com "Gemini API Additional Terms of Service")

)

</td><td>Tarifmodell, Datennutzung zur Verbesserung, Human Review, sensible Daten nur in geeignetem Vertragsrahmen

</td></tr><tr><td>**Grok**

</td><td><span style="white-space: pre-wrap;">typischerweise </span>

**Cloud/API**

</td><td>**hoch**

</td><td>Grok ist derzeit im Kern ein cloudbasiertes Modellangebot. Für DSGVO-Zwecke ist es daher ähnlich wie andere Cloud-Modelle zu behandeln: rechtliche Grundlage, Datenfluss, Empfänger, Speicherort und Nutzungsbedingungen sind vor produktivem Einsatz mit personenbezogenen Daten zu prüfen. (

[Anthropic](https://www.anthropic.com/transparency?utm_source=chatgpt.com "Anthropic's Transparency Hub")

)

</td><td>Vertragslage, Speicherort, Empfänger, Drittlandtransfer

</td></tr><tr><td>**Command / Aya (Cohere)**

</td><td><span style="white-space: pre-wrap;">typischerweise </span>

**API/Enterprise**<span style="white-space: pre-wrap;">, teils </span>**private deployment**

</td><td>**mittel**, bei Private Deployment günstiger

</td><td><span style="white-space: pre-wrap;">Cohere ist für DSGVO-Zwecke relativ interessant, weil das Unternehmen sowohl </span>

**DPA**

<span style="white-space: pre-wrap;">, </span>

**Zero Data Retention**

<span style="white-space: pre-wrap;"> für Enterprise-Fälle als auch </span>

**private deployment options**

<span style="white-space: pre-wrap;"> nennt. In der Privacy Policy steht zugleich, dass Trial-/Research-Umgebungen </span>

**nicht**

<span style="white-space: pre-wrap;"> für personenbezogene Daten gedacht sind. (</span>

[Cohere](https://cohere.com/privacy?utm_source=chatgpt.com "Cohere Privacy Policy")

)

</td><td>Produktstufe prüfen, DPA anfordern, ZDR/Retention, Private Deployment bevorzugen

</td></tr></tbody></table>

## Kurztext für unter die Tabelle

> **Einordnung:**  
> <span style="white-space: pre-wrap;">Der DSGVO-Bezug hängt bei KI-Modellen nicht nur am Hersteller, sondern stark am </span>**typischen Betriebsmodus**<span style="white-space: pre-wrap;"> der jeweiligen Modellfamilie. </span>**Open-weight-Modelle**<span style="white-space: pre-wrap;"> wie Llama, Gemma oder oft auch Qwen/DeepSeek/Mistral können lokal oder selbst gehostet betrieben werden und sind deshalb datenschutzrechtlich häufig günstiger zu bewerten. </span>**Cloud-first-Modelle**<span style="white-space: pre-wrap;"> wie GPT, Claude, Gemini oder Grok erfordern regelmäßig eine vertiefte Prüfung von Rechtsgrundlage, Vertragslage, Speicherort, möglichem Drittlandtransfer und Datenverwendung durch den Anbieter. (</span>[Anthropic](https://www.anthropic.com/transparency?utm_source=chatgpt.com "Anthropic's Transparency Hub"))

## Noch kürzere Fassung

<table id="bkmrk-gruppedsgvo-tendenzt"><colgroup><col></col><col></col><col></col></colgroup><tbody><tr><th>Gruppe

</th><th>DSGVO-Tendenz

</th><th>Typische Modelle

</th></tr><tr><td>**Open-weight / lokal betreibbar**

</td><td>meist günstiger

</td><td>Llama, Gemma, Phi, oft Qwen, DeepSeek, Mistral (

[llama.com](https://www.llama.com/?utm_source=chatgpt.com "Llama: Industry Leading, Open-Source AI")

)

</td></tr><tr><td>**Cloud-first / API-zentriert**

</td><td>meist prüfungsintensiver

</td><td>GPT, Claude, Gemini, Grok, Command (

[OpenAI](https://openai.com/policies/data-processing-addendum/?utm_source=chatgpt.com "OpenAI Data Processing Addendum")

)

</td></tr></tbody></table>

---

## Zusammenfassung

Zur schnellen Einordnung kann folgende Struktur verwendet werden:

**\[Familie\] + \[Version\] + \[Größe\] + \[Spezialisierung\]**

Beispiele:

- **Gemma 4 27B IT**
- **Qwen3 14B**
- **DeepSeek R1**
- **Claude Sonnet**
- **GPT-4.1 mini**

Dabei gilt:

- **Familie**<span style="white-space: pre-wrap;"> = Modellreihe</span>
- **Version**<span style="white-space: pre-wrap;"> = Generation oder Entwicklungsstand</span>
- **Größe**<span style="white-space: pre-wrap;"> = Parameteranzahl</span>
- **Spezialisierung**<span style="white-space: pre-wrap;"> = Einsatzschwerpunkt oder Optimierung</span>

---

# Übersicht gängiger KI-Plattformen (Stand April 2026) -  Arbeitsdokument

<p class="callout info">**Hinweis:**  
<span style="white-space: pre-wrap;">Diese Tabelle beschreibt </span>**Plattformen**, nicht Modellfamilien. Eine Plattform kann eigene Modelle anbieten, Drittmodelle bündeln oder vor allem die lokale Ausführung vereinfachen. ([Ollama Dokumentation](https://docs.ollama.com/api/introduction?utm_source=chatgpt.com "Introduction"))Kurze Einordnung</p>

## Übersicht gängiger KI-Plattformen mit Anbindung

<table id="bkmrk-plattformanbietertyp"><colgroup><col></col><col style="width: 102px;"></col><col></col><col></col><col></col><col></col><col></col></colgroup><tbody><tr><th>Plattform

</th><th>Anbieter

</th><th>Typ

</th><th>Typischer Einsatz

</th><th>Lokal / Cloud

</th><th>Anbindung / Ansprache

</th><th>Typische Besonderheiten

</th></tr><tr><td>**Ollama**

</td><td>Ollama

</td><td>Laufzeitumgebung und Modellplattform

</td><td>Lokales Ausführen von LLMs, optional Cloud-Nutzung

</td><td>**Lokal und Cloud**

</td><td>**Lokale REST-API**

<span style="white-space: pre-wrap;"> über </span>

`<span class="editor-theme-code">localhost</span>`

<span style="white-space: pre-wrap;">, zusätzlich </span>

**OpenAI-kompatible Endpunkte**

; dadurch oft auch über Tools nutzbar, die OpenAI-kompatible APIs erwarten. Lokal ist standardmäßig keine Authentifizierung nötig. (

[Ollama Dokumentation](https://docs.ollama.com/api/introduction?utm_source=chatgpt.com "Introduction")

)

</td><td>Lokaler Betrieb, OpenAI-Kompatibilität, Tool-Support

</td></tr><tr><td>**LM Studio**

</td><td>LM Studio

</td><td>Desktop-Plattform für lokale Modelle

</td><td>Modelle lokal laden, testen und per UI oder lokaler API nutzen

</td><td>**Vor allem lokal**

</td><td>**Lokaler API-Server**

<span style="white-space: pre-wrap;"> auf </span>

`<span class="editor-theme-code">localhost</span>`

<span style="white-space: pre-wrap;"> oder im Netzwerk; nutzbar per </span>

**REST API**

<span style="white-space: pre-wrap;">, über eigene Client-Bibliotheken und über </span>

**OpenAI-**

<span style="white-space: pre-wrap;"> sowie </span>

**Anthropic-kompatible Endpunkte**

. (

[LM Studio](https://lmstudio.ai/docs/developer/core/server?utm_source=chatgpt.com "LM Studio as a Local LLM API Server")

)

</td><td>Starker Fokus auf lokale/private Nutzung

</td></tr><tr><td>**OpenRouter**

</td><td>OpenRouter

</td><td>Modell-Router / Unified API

</td><td>Zugriff auf viele Modelle über eine einheitliche API

</td><td>**Cloud**

</td><td>**Einheitliche API**

<span style="white-space: pre-wrap;">, die ausdrücklich mit dem </span>

**OpenAI SDK**

<span style="white-space: pre-wrap;"> nutzbar ist; OpenRouter beschreibt die Schemas als sehr ähnlich zur OpenAI Chat API. (</span>

[OpenRouter](https://openrouter.ai/docs/quickstart?utm_source=chatgpt.com "OpenRouter Quickstart Guide | Developer Documentation")

)

</td><td>Ein API-Zugang für viele Modelle und Provider

</td></tr><tr><td>**Perplexity API**

</td><td>Perplexity

</td><td>Such- und Antwortplattform / API

</td><td>Websuche, Recherche, Sonar, Agenten-Workflows

</td><td>**Cloud**

</td><td>**REST und SDKs**

<span style="white-space: pre-wrap;">; Perplexity nennt vier Kern-APIs: </span>

**Agent**

<span style="white-space: pre-wrap;">, </span>

**Search**

<span style="white-space: pre-wrap;">, </span>

**Sonar**

<span style="white-space: pre-wrap;"> und </span>

**Embeddings**

<span style="white-space: pre-wrap;">. Die </span>

**Sonar API**

<span style="white-space: pre-wrap;"> ist zusätzlich mit </span>

**OpenAI-kompatiblen Clients**

<span style="white-space: pre-wrap;"> nutzbar. (</span>

[Perplexity](https://docs.perplexity.ai/docs/getting-started/overview?utm_source=chatgpt.com "Perplexity API")

)

</td><td>Fokus auf webgestützte Antworten und Recherche

</td></tr><tr><td>**OpenAI Platform**

</td><td>OpenAI

</td><td>Modell- und API-Plattform

</td><td>Produktive KI-Anwendungen, Agenten, multimodale Workflows

</td><td>**Cloud**

</td><td>**REST, Streaming, Realtime APIs**

<span style="white-space: pre-wrap;"> sowie offizielle </span>

**SDKs**

<span style="white-space: pre-wrap;">; zentrale Schnittstelle ist die </span>

**Responses API**

. (

[OpenAI Entwickler](https://developers.openai.com/api/reference/overview/?utm_source=chatgpt.com "API Overview | OpenAI API Reference")

)

</td><td>Herstellerplattform mit breiter Tool- und Agentenunterstützung

</td></tr><tr><td>**Claude Platform**

</td><td>Anthropic

</td><td>Modell- und API-Plattform

</td><td>Claude-basierte Anwendungen und Assistenzsysteme

</td><td>**Cloud**

</td><td>**Messages API**

<span style="white-space: pre-wrap;"> plus offizielle </span>

**SDKs**

; Anthropic dokumentiert den Einstieg über API-Key, Quickstart und Client-SDKs. (

[Claude API Docs](https://docs.anthropic.com/en/docs/welcome?utm_source=chatgpt.com "Intro to Claude - Claude API Docs")

)

</td><td>Herstellerplattform für Claude-Modelle

</td></tr><tr><td>**Gemini API / Google AI Studio**

</td><td>Google

</td><td>Modell- und Entwicklerplattform

</td><td>Prototyping, multimodale Anwendungen, API-Nutzung

</td><td>**Cloud**

</td><td>**REST API**

<span style="white-space: pre-wrap;"> und offizielle </span>

**SDKs**

; Google AI Studio dient als schneller Einstieg und zur API-Key-Erstellung. (

[Google AI for Developers](https://ai.google.dev/gemini-api/docs?utm_source=chatgpt.com "Gemini API | Google AI for Developers")

)

</td><td>Schneller Einstieg über AI Studio

</td></tr><tr><td>**Vertex AI**

</td><td>Google Cloud

</td><td>Enterprise-AI-Plattform

</td><td>Produktive KI-Anwendungen, verwaltete Bereitstellung

</td><td>**Cloud**

</td><td><span style="white-space: pre-wrap;">Typisch über </span>

**Google-Cloud-/Vertex-AI-APIs**

<span style="white-space: pre-wrap;"> und SDKs; Anthropic dokumentiert Claude-Integrationen ausdrücklich auch über </span>

**Google Vertex AI**

. (

[Anthropic](https://www.anthropic.com/learn/build-with-claude?utm_source=chatgpt.com "Anthropic Academy: Claude API Development Guide")

)

</td><td>Enterprise-Betrieb und Multi-Modell-Umgebungen

</td></tr><tr><td>**Hugging Face Inference Providers**

</td><td>Hugging Face

</td><td>Modell-Hub und Inferenzplattform

</td><td>Modelle testen, serverless nutzen oder produktiv anbinden

</td><td>**Cloud**

</td><td><span style="white-space: pre-wrap;">Zugriff über </span>

**einheitliche API**

<span style="white-space: pre-wrap;"> und </span>

**Client-SDKs**

<span style="white-space: pre-wrap;">; Hugging Face nennt ausdrücklich einen </span>

**OpenAI-kompatiblen Endpoint**

<span style="white-space: pre-wrap;"> für Inference Providers. (</span>

[Hugging Face](https://huggingface.co/docs/inference-providers/index?utm_source=chatgpt.com "Inference Providers")

)

</td><td>Viele Modelle, viele Inferenzpartner

</td></tr><tr><td>**IONOS AI Model Hub**

</td><td>IONOS

</td><td>Europäische Modell- und API-Plattform

</td><td>API-Zugriff auf Modelle in europäischer Cloud

</td><td>**Cloud**

</td><td>**API-first**

<span style="white-space: pre-wrap;">; IONOS bietet eine reguläre API sowie eine </span>

**OpenAI-kompatible API**

. (

[docs.ionos.com](https://docs.ionos.com/cloud/ai/ai-model-hub/faqs?utm_source=chatgpt.com "FAQ | Products")

)

</td><td>Europäischer Fokus, OpenAI-Kompatibilität

</td></tr><tr><td>**STACKIT AI Model Serving**

</td><td>STACKIT

</td><td>Europäische AI-Serving-Plattform

</td><td>Sichere Modellnutzung in der STACKIT Cloud

</td><td>**Cloud**

</td><td><span style="white-space: pre-wrap;">Modelle sind über </span>

**API**

<span style="white-space: pre-wrap;"> nutzbar; STACKIT nennt die Schnittstelle ausdrücklich </span>

**OpenAI-kompatibel**

. (

[Docs](https://docs.stackit.cloud/products/data-and-ai/ai-model-serving/?utm_source=chatgpt.com "AI Model Serving")

)

</td><td>Europäische/souveräne Cloud-Ausrichtung

</td></tr><tr><td>**Amazon Bedrock**

</td><td>AWS

</td><td>Voll gemanagte GenAI-Plattform

</td><td>Zugriff auf viele Foundation Models in AWS

</td><td>**Cloud**

</td><td>**AWS API**

<span style="white-space: pre-wrap;">, </span>

**API Keys**

<span style="white-space: pre-wrap;">, regionale Endpunkte und </span>

**AWS SDKs**

<span style="white-space: pre-wrap;"> wie Boto3; Amazon dokumentiert zusätzlich OpenAI-kompatible Service-Endpunkte in Teilen des Angebots. (</span>

[AWS Dokumentation](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html?utm_source=chatgpt.com "Amazon Bedrock API Reference")

)

</td><td>Viele Drittmodelle unter AWS-Steuerung

</td></tr><tr><td>**noris network KI as a Service**

</td><td>noris network

</td><td>Infrastruktur- und Serviceplattform

</td><td>KI-Betrieb für Unternehmen, souveräne Hosting-/Cloud-Umgebungen

</td><td>**Cloud / Private Cloud / Managed**

</td><td><span style="white-space: pre-wrap;">Anbieter beschreibt </span>

**KI as a Service**

<span style="white-space: pre-wrap;">, Private-Cloud- und GPU-nahe Betriebsmodelle; die konkrete technische Ansprache ist eher </span>

**projekt- bzw. serviceabhängig**

<span style="white-space: pre-wrap;"> als über eine standardisierte öffentliche Entwickler-API dokumentiert. (</span>

[STACKIT](https://www.stackit.de/en/product/stackit-ai-model-serving/?utm_source=chatgpt.com "STACKIT AI Model Serving: Deploying AI models securely")

)

</td><td>Fokus auf Betrieb, Hosting und Souveränität

</td></tr></tbody></table>

## Praktische Kurzregel für „API, n8n etc.“

<table id="bkmrk-anbindungsarttypisch"><colgroup><col></col><col></col><col></col></colgroup><tbody><tr><th>Anbindungsart

</th><th>Typische Plattformen

</th><th>Einordnung

</th></tr><tr><td>**Direkt per REST/API**

</td><td>OpenAI, Anthropic, Gemini, Perplexity, OpenRouter, Bedrock, IONOS, STACKIT

</td><td>Standardweg für Anwendungen und Automatisierung. (

[OpenAI Entwickler](https://developers.openai.com/api/reference/overview/?utm_source=chatgpt.com "API Overview | OpenAI API Reference")

)

</td></tr><tr><td>**OpenAI-kompatibel**

</td><td>Ollama, LM Studio, OpenRouter, Perplexity Sonar, Hugging Face Inference Providers, IONOS, STACKIT

</td><td>Besonders praktisch, weil viele vorhandene Tools und Clients weiterverwendet werden können. (

[Ollama Dokumentation](https://docs.ollama.com/api/openai-compatibility?utm_source=chatgpt.com "OpenAI compatibility")

)

</td></tr><tr><td>**SDKs / Client-Bibliotheken**

</td><td>OpenAI, Anthropic, Gemini, Hugging Face, AWS, LM Studio, Perplexity

</td><td>Sinnvoll für produktive Anwendungen statt reiner HTTP-Aufrufe. (

[OpenAI Entwickler](https://developers.openai.com/api/docs/libraries?utm_source=chatgpt.com "Libraries | OpenAI API")

)

</td></tr><tr><td>**n8n direkt**

</td><td><span style="white-space: pre-wrap;">Am einfachsten mit </span>

**OpenAI**

<span style="white-space: pre-wrap;"> über den offiziellen OpenAI-Node</span>

</td><td><span style="white-space: pre-wrap;">n8n hat einen offiziellen </span>

**OpenAI-Node**

<span style="white-space: pre-wrap;">; für andere Dienste ist meist der </span>

**HTTP Request Node**

<span style="white-space: pre-wrap;"> nutzbar, sofern sie eine REST-API anbieten. (</span>

[n8n Docs](https://docs.n8n.io/integrations/builtin/app-nodes/n8n-nodes-langchain.openai/?utm_source=chatgpt.com "OpenAI node documentation")

)

</td></tr><tr><td>**n8n indirekt über OpenAI-Kompatibilität**

</td><td>Ollama, LM Studio, OpenRouter, Perplexity Sonar, IONOS, STACKIT, teils Hugging Face

</td><td>In der Praxis oft möglich, wenn in n8n ein OpenAI-kompatibler Endpoint oder notfalls der HTTP Request Node verwendet wird; offiziell dokumentiert ist bei n8n selbst vor allem der OpenAI-Node und der generische HTTP Request Node. (

[n8n Docs](https://docs.n8n.io/integrations/builtin/app-nodes/n8n-nodes-langchain.openai/?utm_source=chatgpt.com "OpenAI node documentation")

)

</td></tr></tbody></table>

## <span style="white-space: pre-wrap;">Neutrale Formulierung </span>

> **Anbindung / Ansprache**  
> <span style="white-space: pre-wrap;">KI-Plattformen werden typischerweise über </span>**REST-APIs**<span style="white-space: pre-wrap;">, </span>**offizielle SDKs**<span style="white-space: pre-wrap;"> oder </span>**OpenAI-kompatible Schnittstellen**<span style="white-space: pre-wrap;"> angesprochen. Für Automatisierungswerkzeuge wie </span>**n8n**<span style="white-space: pre-wrap;"> ist dies relevant, weil entweder ein dedizierter Anbieter-Node genutzt werden kann oder ein generischer </span>**HTTP-Request-Ansatz**. OpenAI-kompatible Plattformen sind dabei besonders integrationsfreundlich, da bestehende Clients und Workflows häufig mit geringem Anpassungsaufwand weiterverwendet werden können. ([n8n Docs](https://docs.n8n.io/integrations/builtin/app-nodes/n8n-nodes-langchain.openai/?utm_source=chatgpt.com "OpenAI node documentation"))

## <span style="white-space: pre-wrap;">Sehr kurze Fassung </span>

> **Plattformen**<span style="white-space: pre-wrap;"> sind von </span>**Modellfamilien**<span style="white-space: pre-wrap;"> zu unterscheiden. Während Modellfamilien die eigentlichen KI-Modelle bezeichnen, stellen Plattformen die Umgebung für Auswahl, Ausführung, Routing, Hosting oder API-Zugriff bereit. Manche Plattformen sind lokal ausgerichtet, andere bündeln viele Fremdmodelle oder bieten eigene Hersteller-APIs an. (</span>[Ollama Dokumentation](https://docs.ollama.com/api/introduction?utm_source=chatgpt.com "Introduction"))