DESIGN.md

Ollama-Deploy-v.0.0 – Die Schönheit von lokal atmender KI

„Nicht mehr Magie, sondern verstehbare Maschine.“
– Crumbforest Crew


1. Warum dieses Repo existiert

Ollama-Deploy-v.0.0 ist kein weiteres „KI-Setup-Script“.

Es ist:

  • ein konkreter Weg, wie KI in lokalen Räumen (Container, Serverschrank, Schule, Museum, Refugee Hub) atmen kann
  • ein Gegenvorschlag zu „Cloud-first, Daten-raus, Blackbox“
  • ein Werkzeug für Admins, die:
  • Logs lesen
  • nachts tail -f machen
  • Verantwortung tragen
  • und trotzdem Schönheit im System sehen wollen

Schönheit hier heißt: Kohärenz.
Technik, Ethik, Pädagogik und Betrieb zeigen in dieselbe Richtung.


2. Design-Ziele

Kurz, ehrlich:

  1. Offline-first
    Alles muss ohne Internet funktionieren. KI gehört in den Raum, nicht ins RZ.

  2. Local-first Routing
    Lokale Modelle (Ollama) sind immer erste Wahl, Cloud nur klar begrenzter Fallback.

  3. Kinder- und DSGVO-tauglich
    Kein Logging von Krümel-Inhalten, keine IDs, kein Tracking, keine Biometrics.

  4. Admin-freundlich
    Shell, nginx -t, systemd, klare Fehler, keine Magie.

  5. Reparierbar
    Skripte sind kurz genug, um sie zu verstehen. Konfiguration ist dokumentiert. Nichts ist „zu heilig zum anfassen“.

  6. Forkbar
    Jede Schule, jedes Lab, jedes Camp kann das nehmen, anpassen, neu denken.


3. Architektur auf einer Seite

```text
[User / Crew / Krümel]

[OZMAI / Vektor]
↓ (HTTP / gRPC)
[Routing-Layer]

┌───────────────────────────┐
│ ai_providers.yaml │
│ - ollama (local) │
│ - openrouter (cloud) │
└───────────────────────────┘
↓ local first ↓ fallback only

[Ollama Local] [OpenRouter/API]
- Modelle im Raum - klarer, enger Scope
- keine Daten raus - kein Krümel, kein PII