| type |
status |
owner |
date |
| Reference |
ACTIVE |
Lead Architect |
2026-03-07 |
Zora — Hardware & Konfigurations-Zusammenfassung
Zweck: Vollständige Referenz der Zora-Hardware und deren aktueller Konfiguration.
Dient als Basis für Recherchen zu Self-Hosted AI (Ollama, LLMs, NPU).
Stand: 07. März 2026
1. Hardware — Minisforum MS-R1
1.1 Gerät
| Eigenschaft |
Wert |
| Hersteller |
Minisforum |
| Modell |
MS-R1 |
| Markteinführung |
September 2025 |
| Formfaktor |
Mini-PC (196 × 189 × 48 mm, 1,35 kg) |
| Betriebssystem |
Proxmox VE 8.4.10 (Debian-Basis, ARM64) |
1.2 CPU — CIX P1 (CP8180)
| Eigenschaft |
Wert |
| Modell |
CIX P1 / CP8180 |
| Architektur |
ARM64 (AArch64) |
| Kerne / Threads |
12 Cores / 12 Threads |
| Basistakt |
2,6 GHz |
CPU-Cluster (Tri-Cluster-Architektur)
Cores 0– 3 → Cortex-A520 (Efficiency / langsam) ← 4 Kerne
Cores 4– 7 → Cortex-A720 (Balanced / mittel) ← 4 Kerne
Cores 8–11 → Cortex-X4 (Performance / schnell) ← 4 Kerne
Bedeutung für AI-Inferenz:
Die 4 Cortex-X4-Kerne (8–11) sind die leistungsstärksten und sollten für
LLM-Inferenz priorisiert werden. CPU-Governor auf performance setzen.
Proxmox-Host behält Kerne 0–1, der AI-Container bekommt Kerne 2–11 (10 Kerne).
1.3 GPU — Arm Immortalis-G720 MC10
| Eigenschaft |
Wert |
| Modell |
Arm Immortalis-G720 MC10 |
| API-Support |
Vulkan 1.3 |
| AI-Nutzung |
⚠️ Experimentell — Vulkan-Compute möglich |
| Status |
Kein nativer Ollama/llama.cpp-Support |
1.4 NPU — CIX P1 integriert
| Eigenschaft |
Wert |
| Typ |
Integrierte NPU (CIX P1) |
| Leistung |
Spezifikation: nicht öffentlich bekannt |
| AI-Nutzung |
⚠️ Aktuell kein Ollama/llama.cpp-Support |
| Zukunft |
Potenziell nutzbar via ONNX Runtime / TFLite |
1.5 Arbeitsspeicher
| Eigenschaft |
Wert |
| Typ |
LPDDR5 (Link ECC + Inline ECC) |
| Takt |
5500 MHz |
| Kapazität |
64 GB |
| ECC |
✅ Ja — Link ECC & Inline ECC |
Bedeutung für AI: 64 GB RAM ermöglicht den Betrieb von Modellen bis 70B
vollständig im Arbeitsspeicher (z.B. llama3.1:70b-q4 ≈ 40 GB).
1.6 Speicher
| Eigenschaft |
Wert |
| Slot |
1× M.2 2280/22110 NVMe SSD (PCIe 4.0 ×4) |
| Max. Kapazität |
bis 8 TB |
| Erweiterung |
PCIe ×16 Slot (PCIe 4.0 ×8 elektrisch) |
1.7 Netzwerk & Konnektivität
| Eigenschaft |
Wert |
| LAN |
2× 10G LAN (RJ45, RTL8127) |
| WLAN |
Ja (integriert) |
| Bluetooth |
Ja (integriert) |
1.8 Ports & Anschlüsse
| Port |
Anzahl |
Spezifikation |
| USB Type-A (USB 3.2 Gen2) |
3× |
Hochgeschwindigkeit |
| USB Type-A (USB 2.0) |
4× |
Standard |
| USB Type-C |
2× |
Alt DP 1.4, USB 3.2 Gen2, 100W PD-IN, 15W PD-OUT |
| HDMI 2.0 |
1× |
bis 4K@60Hz |
| 10G LAN (RJ45) |
2× |
RTL8127 |
| 3,5mm Combo-Klinke (4-in-1) |
1× |
Audio In/Out |
| 40-PIN GPIO |
1× |
Erweiterungsschnittstelle |
| PCIe ×16 Slot |
1× |
PCIe 4.0 ×8 elektrisch |
| eDP |
1× |
Internes Display-Interface |
| UART1 / UART2 / BIOS-Flash |
je 1× |
Entwickler-/Debug-Schnittstellen |
1.9 Stromversorgung
| Eigenschaft |
Wert |
| DC-Eingang |
19V / 180W |
| USB-C PD |
20V / 100W |
2. Software & Hypervisor
2.1 Proxmox VE
| Eigenschaft |
Wert |
| Version |
Proxmox VE 8.4.10 |
| Node-IP |
10.0.0.20 |
| Web-UI |
https://pve.mo-code.at:8006 |
| SSH |
ssh root@10.0.0.20 |
| Netz-Bridge |
vmbr0 — Subnetz 10.0.0.0/24 |
| Gateway |
10.0.0.138 |
3. Virtuelle Maschinen & Container (Ist-Stand)
| ID |
Name |
Typ |
IP |
CPU |
RAM |
Disk |
Zweck |
| 100 |
pangolin-client |
LXC |
10.0.0.21 |
4C |
512 MiB |
8 GB |
Pangolin Tunnel Client |
| 101 |
gitea |
LXC |
10.0.0.22 |
4C |
1 GiB |
20 GB |
Gitea Server + Registry |
| 102 |
gitea-runner |
VM (KVM) |
10.0.0.23 |
8C |
16 GiB |
50 GB |
CI/CD Runner (ARM64) |
| 103 |
immich |
LXC |
10.0.0.24 |
8C |
10 GiB |
200 GB |
Foto-Server |
| 110 |
meldestelle-host |
VM (KVM) |
10.0.0.50 |
8C |
16 GiB |
150 GB |
Docker App-Stack |
| 120 |
ai-stack |
LXC |
10.0.0.60 |
10C |
48 GiB |
200 GB |
Ollama + Open WebUI |
Core-Pinning (Stabilisierung)
- VM 102 (gitea-runner) + VM 110 (meldestelle-host): Gebunden an Kerne 0–7
(4× Cortex-X4 + 4× Cortex-A720) für stabile Build- und App-Performance.
4. Netzwerk & Erreichbarkeit
4.1 Internes Netz (10.0.0.0/24)
| Dienst |
Interne IP |
Port(s) |
| Proxmox Web-UI |
10.0.0.20 |
8006 |
| Pangolin-Client |
10.0.0.21 |
— |
| Gitea |
10.0.0.22 |
3000 |
| Gitea-Runner |
10.0.0.23 |
— |
| Immich |
10.0.0.24 |
2283 |
| Meldestelle-Host |
10.0.0.50 |
8081, 8180, 8500, 3000, 9090 |
| AI-Stack (geplant) |
10.0.0.60 |
11434, 3001 |
4.2 Öffentliche Routen via Pangolin-Tunnel
| Domain |
Ziel |
Port |
Sichtbarkeit |
git.mo-code.at |
10.0.0.22 |
3000 |
Öffentlich |
api.mo-code.at |
10.0.0.50 |
8081 |
Öffentlich |
auth.mo-code.at |
10.0.0.50 |
8180 |
Öffentlich |
photos.mo-code.at |
10.0.0.24 |
2283 |
Nur intern / VPN |
ai.mo-code.at |
10.0.0.60 |
3001 |
Nur intern / VPN |
pve.mo-code.at |
10.0.0.20 |
8006 |
Nur intern / VPN |
5. AI-Potenzial — Zusammenfassung für Recherche
5.1 Was ist möglich?
| Modell-Größe |
RAM-Bedarf (Q4) |
Machbar auf Zora? |
Empfehlung |
| 7B / 8B |
~5–6 GB |
✅ Problemlos |
Schnell, ideal für Code-Assist |
| 13B / 14B |
~9–10 GB |
✅ Sehr gut |
Gute Balance Qualität/Speed |
| 32B |
~20 GB |
✅ Gut |
Für komplexe Aufgaben |
| 70B |
~40 GB |
✅ Möglich |
Langsam, aber vollständig im RAM |
| 70B (Q8) |
~75 GB |
❌ Zu groß |
Überschreitet 64 GB RAM |
5.2 Inferenz-Pfade (Priorität)
- CPU (ARM64 native) — Primär, via Ollama/llama.cpp → sofort nutzbar
- GPU (Immortalis-G720) — Vulkan-Compute, experimentell → Zukunft
- NPU (CIX P1) — Kein aktueller Support → Langfristig (ONNX/TFLite)
5.3 Empfohlene Modelle für Zora
| Modell |
Größe |
Stärke |
Ollama-Tag |
llama3.1:8b |
~5 GB |
Allgemein, schnell |
ollama pull llama3.1:8b |
qwen2.5:14b |
~9 GB |
Code + Deutsch, sehr gut |
ollama pull qwen2.5:14b |
qwen2.5-coder:14b |
~9 GB |
Code-Spezialist |
ollama pull qwen2.5-coder:14b |
deepseek-r1:14b |
~9 GB |
Reasoning / Analyse |
ollama pull deepseek-r1:14b |
nomic-embed-text |
~274 MB |
Embeddings für RAG |
ollama pull nomic-embed-text |
5.4 Relevante Recherche-Themen
- llama.cpp ARM64 Optimierungen — NEON/SVE2-Instruktionen auf Cortex-X4
- Ollama ARM64 Performance-Tuning —
OLLAMA_NUM_PARALLEL, OLLAMA_MAX_LOADED_MODELS
- CIX P1 NPU SDK — Ob Minisforum/CIX ein SDK für die NPU veröffentlicht
- Immortalis-G720 Vulkan Compute —
clblast oder kompute Backend für llama.cpp
- Open WebUI RAG — Integration mit lokalen Docs (
/docs-Verzeichnis als Wissensbasis)
- Continue.dev + Ollama — IntelliJ IDEA Integration für datenschutzkonformen Code-Assist
6. Mail-Relay (SSoT)
| Eigenschaft |
Wert |
| SMTP-Host |
10.0.0.20 (Proxmox-Node als Relay) |
| SMTP-Port |
25 (passwortlos, intern via mynetworks) |
| Absender |
zora@mo-code.at |
7. Weiterführende Dokumente
| Dokument |
Pfad |
| Hardware-Spezifikation |
docs/01_Architecture/Minisforum-MS-R1/Spezifikation.md |
| Konfiguration & Bedienung |
docs/01_Architecture/Minisforum-MS-R1/MS-R1_Konfiguration&Bedienung.md |
| SSoT Konfigurations-Masterplan |
docs/01_Architecture/Minisforum-MS-R1/SSoT_Konfigurations-Masterplan_Zora.md |
| AI-Stack Installations-Anleitung |
docs/01_Architecture/Minisforum-MS-R1/AI_Stack_Ollama_Setup.md |
| Zora Roadmap |
docs/01_Architecture/Minisforum-MS-R1/Zora_Roadmap.md |
| Nutzerhandbuch (Hersteller) |
docs/01_Architecture/Minisforum-MS-R1/P1WSB-Nutzerhandbuch-Deutsch-V2-0-2025-11-3.md |