meldestelle/docs/99_Journal/2026-03-07_Session_Log_TechStack_Zusammenfassung.md

2.0 KiB

type status owner date last_update
Journal ACTIVE Lead Architect 2026-03-07 2026-03-07

Session Log — Tech-Stack Zusammenfassung

Datum: 07. März 2026 Agent: 🏗️ Lead Architect Ziel: Vollständige Tech-Stack-Dokumentation als Recherche-Basis für Self-Hosted AI


Kontext

Nach der Zora-Hardware-Zusammenfassung (gleiche Session) wurde eine vollständige Tech-Stack-Übersicht des Projekts "Meldestelle" erstellt — optimiert als Grundlage für die Auswahl und Konfiguration eines Self-Hosted AI-Modells (Ollama auf Zora).


Erstellte Dokumente

Datei Inhalt
docs/01_Architecture/Meldestelle_Tech_Stack_Zusammenfassung.md Vollständige Tech-Stack-Referenz

Inhalt der Zusammenfassung

  • Sprachen & Laufzeiten: Kotlin 2.3, Java 25 (EA), Gradle 9.3.1, ARM64
  • Frontend: Compose Multiplatform 1.10, SQLDelight 2.2, Koin 4.1, Ktor 3.4
  • Backend: Spring Boot 3.5.9, Spring Cloud 2025.0.1, Exposed 1.0, Flyway 11
  • Infrastruktur: Keycloak 26.4, Consul 1.21, Valkey 8, PostgreSQL 16, Zipkin, Prometheus, Grafana
  • CI/CD: Gitea Actions, Docker Buildx (ARM64), Pangolin-Tunnel
  • AI-Relevanz: Modell-Empfehlungen, RAG-Dokument-Prioritäten, Anforderungsmatrix

AI-Empfehlungen (Ergebnis)

Modell Einsatz
qwen2.5-coder:14b Primär — Kotlin/Spring/SQL
qwen2.5:32b Architektur + Fachlogik
llama3.1:8b Schnell, Deutsch, Allgemein

Nächste Schritte

  1. Proxmox LXC für AI-Stack (Ollama + Open WebUI) einrichten
  2. qwen2.5-coder:14b als erstes Modell laden
  3. RAG mit /docs-Verzeichnis in Open WebUI konfigurieren
  4. Continue.dev Plugin in IntelliJ IDEA integrieren