Weitere Tools eingebaut. Damit ist die SQL AI einsatzbereit.

This commit is contained in:
2026-01-28 22:27:34 +01:00
parent fa0a7c3b1e
commit 9b2573ebb8
5 changed files with 414 additions and 102 deletions

View File

@@ -1,21 +1,51 @@
# jr-sql-ai (Terminal-first SQL Server Expert KI, lokal)
# jr-sql-ai (Terminal-first SQL Server 2022 Expert KI, lokal)
Ziel: Lokale Expert-KI für **SQL Server 2022** (T-SQL, Views, Stored Procedures, Execution Plans, UTF-8 Migration),
Lokale Expert-KI für **SQL Server 2022** (T-SQL, Views, Stored Procedures, Execution Plans, UTF-8 Migration),
aufrufbar **vom Terminal**, ohne direkte DB-Verbindung (nur Copy & Paste / Dateien).
Die KI läuft lokal via **Ollama** in Docker und wird über ein kleines CLI (`sqlai`) genutzt.
---
## Features
- **Einfacher Tech-Stack:** Docker + Ollama + Bash + curl + python
- **Host Networking:** nutzt den Host-Netzwerkstack (Routing/DNS wie Host; ideal wenn nur `br0` zuverlässig ist)
- **Auto-Updates:** Runtime + Models via `systemd --user` Timer
- **Viele Logs:** jede Ausführung schreibt detaillierte Logs unter `./logs/`
- **Freie SQL Server 2022 Q&A:** Modus `ask` für allgemeine Fragen, ohne Pipe via `--text`
- **Schmaler Tech-Stack:** Docker + Ollama + Bash + curl + python
- **Terminal-first:** `sqlai ask ...` / `sqlai analyze-tsql ...` etc.
- **Ohne DB-Verbindung:** nur Analyse/Planung/Empfehlung anhand von Input
- **Auto-Updates:** Runtime + Models via `scripts/update.sh` und optional `systemd --user` Timer
- **Warmup:** nach Updates (und optional nach Bootstrap) wird ein kurzer Request gesendet (schneller “First Real Query”)
- **Selftest:** `scripts/selftest.sh` prüft End-to-End (Docker, API, Models, echte Anfrage)
- **Resilient:** Model-Fallback (wenn Expert-Model fehlt → Base-Model)
- **Viele Logs:** jedes Script schreibt nachvollziehbare Logs nach `./logs/`
---
## Voraussetzungen (Arch Linux)
- docker + docker compose
- curl
- python
## Quickstart
- `docker` + `docker compose`
- `curl`
- `python`
- optional (für GPU): NVIDIA Container Toolkit + Compose GPU-Konfiguration
---
## Repository Struktur (Kurzüberblick)
- `bin/sqlai` CLI (ask + Analyse-Modi) inkl. Logging & Model-Fallback
- `scripts/bootstrap.sh` startet Container, pullt Modelle, baut Expert-Model, Warmup
- `scripts/update.sh` pullt Runtime+Modelle, rebuild Expert-Model, Warmup
- `scripts/selftest.sh` End-to-End Check inkl. echter Anfrage
- `docker-compose.yml` Ollama Service (Host networking, optional GPU)
- `Modelfile` Expert-Systemprompt (SQL Server 2022 Fokus)
- `prompts/` Prompt-Library (Copy & Paste Templates)
- `systemd/user/` optionaler Daily Update Timer (User Service)
---
# 1) Installation / Build (Bootstrap)
## 1.1 Repo auspacken / klonen
Wenn du ein tar.gz erhalten hast:
```bash
cp .env.example .env
./scripts/bootstrap.sh
tar -xzf jr-sql-ai.tar.gz
cd jr-sql-ai