DESIGN.md
Ollama-Deploy-v.0.0 – Die Schönheit von lokal atmender KI
„Nicht mehr Magie, sondern verstehbare Maschine.“
– Crumbforest Crew
1. Warum dieses Repo existiert
Ollama-Deploy-v.0.0 ist kein weiteres „KI-Setup-Script“.
Es ist:
- ein konkreter Weg, wie KI in lokalen Räumen (Container, Serverschrank, Schule, Museum, Refugee Hub) atmen kann
- ein Gegenvorschlag zu „Cloud-first, Daten-raus, Blackbox“
- ein Werkzeug für Admins, die:
- Logs lesen
- nachts
tail -fmachen - Verantwortung tragen
- und trotzdem Schönheit im System sehen wollen
Schönheit hier heißt: Kohärenz.
Technik, Ethik, Pädagogik und Betrieb zeigen in dieselbe Richtung.
2. Design-Ziele
Kurz, ehrlich:
-
Offline-first
Alles muss ohne Internet funktionieren. KI gehört in den Raum, nicht ins RZ. -
Local-first Routing
Lokale Modelle (Ollama) sind immer erste Wahl, Cloud nur klar begrenzter Fallback. -
Kinder- und DSGVO-tauglich
Kein Logging von Krümel-Inhalten, keine IDs, kein Tracking, keine Biometrics. -
Admin-freundlich
Shell,nginx -t,systemd, klare Fehler, keine Magie. -
Reparierbar
Skripte sind kurz genug, um sie zu verstehen. Konfiguration ist dokumentiert. Nichts ist „zu heilig zum anfassen“. -
Forkbar
Jede Schule, jedes Lab, jedes Camp kann das nehmen, anpassen, neu denken.
3. Architektur auf einer Seite
```text
[User / Crew / Krümel]
↓
[OZMAI / Vektor]
↓ (HTTP / gRPC)
[Routing-Layer]
↓
┌───────────────────────────┐
│ ai_providers.yaml │
│ - ollama (local) │
│ - openrouter (cloud) │
└───────────────────────────┘
↓ local first ↓ fallback only
[Ollama Local] [OpenRouter/API]
- Modelle im Raum - klarer, enger Scope
- keine Daten raus - kein Krümel, kein PII