A.R.I.A.
Adaptive Reasoning and Intelligent Automation
ARIA ist ein selbst gehosteter KI-Assistent der nicht nur redet – sondern echte Systeme erreicht, versteht und steuert. Kein Cloud-Zwang, keine Abo-Falle, keine Datenweitergabe. Läuft auf deinem Server, unter deiner Kontrolle, mit deinen Daten.
Was ARIA ist
Die meisten KI-Assistenten sind nützlich, solange sie nur reden. ARIA geht einen Schritt weiter: Es verbindet sich mit echten Systemen in deinem Netzwerk und lässt dich diese per natürlichem Text steuern, abfragen und automatisieren.
Das Routing ist deterministisch – ARIA entscheidet strukturiert bevor es das LLM fragt. Custom Skills zuerst, dann strukturierte Capabilities, dann freier Chat. So verhält sich ARIA vorhersehbar und kosteneffizient.
Memory läuft auf Qdrant als Vektordatenbank. ARIA erinnert sich an relevante Informationen und zieht sie automatisch in den Kontext – ohne dass du jedes Mal alles neu erklären musst.
Was ARIA kann
Echte System-Verbindungen
SSH, SFTP, SMB, Discord, RSS, HTTP API, Webhook, SMTP, IMAP, MQTT – konfigurierbar als Profile, per Text ansprechbar, mit Live-Status und Health-Check.
Custom Skills
Automatisierungen als JSON-Manifeste, gebaut im Browser-Wizard. Steps kombinieren: SSH lesen → LLM transformieren → Discord senden. Kein Code nötig.
Semantisches Memory
Erinnerungen als Vektoren in Qdrant. Store, Recall, Forget – per Chat steuerbar. Auto-Memory schreibt relevante Gesprächsinhalte automatisch in den Index.
Statistiken & Observability
Token-Verbrauch, Kosten in USD, Laufzeit pro Anfrage, RAM, Qdrant-Grösse, Connection-Live-Status – alles direkt im Browser unter /stats.
Browser-First UI
Serverseitig gerendert – kein React, keine Buildchain, kein JavaScript-Bundle-Chaos. FastAPI + Jinja2, funktioniert in jedem Browser.
Security & Guardrails
Login-System, Admin/User-Modus, Secrets im lokalen Secure Store. Guardrail-Profile für riskante Aktionen wie SSH-Befehle schützen vor unbeabsichtigten Ausführungen.
Wie ARIA aufgebaut ist
ARIA besteht aus vier klar getrennten Schichten. Jede Schicht kommuniziert nur mit ihren direkten Nachbarn. Der Container ist ersetzbar – Daten, Skills und Memories leben in Volumes und überleben jeden Update.
Schichtenarchitektur
Browser-Anfragen von oben nach unten · Persistenz im untersten Layer · Updates ersetzen nur den Container
Intelligentes Routing
Das Routing-Modell ist der architektonisch entscheidende Teil. Kein LLM-Klassifikator der rät – ein deterministischer Entscheidungsbaum der strukturelle Signale auswertet. Schneller, günstiger, vorhersehbarer.
Custom Skill → Capability → Memory → LLM · Determinismus vor Sprachmodell
Modularität & Persistenz
pipeline.py ist der einzige zentrale Knoten – alle anderen Module sind austauschbar. Volumes bleiben bei jedem Container-Update erhalten: Connections, Skills, Memories und Logs gehen nie verloren.
pipeline.py zentraler Knoten · alle Module austauschbar · Volumes überleben jeden Update
Download und Installation
- Built by Fischerman ·
- in collaboration with Codex & Claude ·
- MIT License ·
- GitHub · Docker Hub ·
A.R.I.A.
Adaptive Reasoning and Intelligent Automation
ARIA is a self-hosted AI assistant that doesn’t just talk – it reaches, understands and controls real systems. No cloud dependency, no subscription, no data sharing. Runs on your server, under your control, with your data.
What ARIA is
Most AI assistants are useful as long as they only talk. ARIA goes one step further: it connects to real systems in your network and lets you control, query and automate them via natural text.
Routing is deterministic – ARIA decides structurally before asking the LLM. Custom Skills first, then structured Capabilities, then free chat. This makes ARIA predictable and cost-efficient.
Memory runs on Qdrant as a vector database. ARIA remembers relevant information and pulls it automatically into context – so you never have to explain everything again from scratch.
What ARIA does
Real system connections
SSH, SFTP, SMB, Discord, RSS, HTTP API, Webhook, SMTP, IMAP, MQTT – configurable as profiles, addressable by natural text, with live status and health check.
Custom Skills
Automations as JSON manifests, built in the browser wizard. Combine steps: read SSH → transform with LLM → send to Discord. No code required.
Semantic Memory
Memories as vectors in Qdrant. Store, Recall, Forget – controllable via chat. Auto-Memory writes relevant conversation content to the index automatically.
Statistics & Observability
Token usage, cost in USD, latency per request, RAM, Qdrant size, connection live status – all directly in the browser under /stats.
Browser-First UI
Fully server-side rendered – no React, no build chain, no JavaScript bundle chaos. FastAPI + Jinja2, works in every browser.
Security & Guardrails
Login system, admin/user mode, secrets in local secure store. Guardrail profiles for risky actions like SSH commands protect against unintended executions.
How ARIA is built
ARIA consists of four clearly separated layers. Each layer communicates only with its direct neighbours. The container is replaceable – data, skills and memories live in volumes and survive every update.
Layer architecture
Browser requests top to bottom · persistence in the lowest layer · updates replace only the container
Intelligent routing
The routing model is the architecturally decisive part. No LLM classifier guessing – a deterministic decision tree evaluating structural signals. Faster, cheaper, more predictable.
Custom Skill → Capability → Memory → LLM · determinism before language model
Modularity & persistence
pipeline.py is the only central node – all other modules are replaceable. Volumes survive every container update: connections, skills, memories and logs are never lost.
pipeline.py central node · all modules replaceable · volumes survive every update
Download and Installation
- Built by Fischerman.ch ·
- in collaboration with Codex & Claude ·
- MIT License ·
- GitHub · Docker Hub ·




Und...wetsch das Cookie ha öder nöd ?
And...do you want the cookie or not ?
0 Responses.