▸ Adaptive Reasoning & Intelligence Agent

A.R.I.A.

Adaptive Reasoning and Intelligent Automation

ARIA ist ein selbst gehosteter KI-Assistent der nicht nur redet – sondern echte Systeme erreicht, versteht und steuert. Kein Cloud-Zwang, keine Abo-Falle, keine Datenweitergabe. Läuft auf deinem Server, unter deiner Kontrolle, mit deinen Daten.

✓ MIT Lizenz ✓ Self-hosted · Open Source ✓ Alpha · Single-User ✓ Python · FastAPI · Qdrant

Was ARIA ist

Die meisten KI-Assistenten sind nützlich, solange sie nur reden. ARIA geht einen Schritt weiter: Es verbindet sich mit echten Systemen in deinem Netzwerk und lässt dich diese per natürlichem Text steuern, abfragen und automatisieren.

Das Routing ist deterministisch – ARIA entscheidet strukturiert bevor es das LLM fragt. Custom Skills zuerst, dann strukturierte Capabilities, dann freier Chat. So verhält sich ARIA vorhersehbar und kosteneffizient.

Memory läuft auf Qdrant als Vektordatenbank. ARIA erinnert sich an relevante Informationen und zieht sie automatisch in den Kontext – ohne dass du jedes Mal alles neu erklären musst.


Was ARIA kann

Echte System-Verbindungen

SSH, SFTP, SMB, Discord, RSS, HTTP API, Webhook, SMTP, IMAP, MQTT – konfigurierbar als Profile, per Text ansprechbar, mit Live-Status und Health-Check.

Custom Skills

Automatisierungen als JSON-Manifeste, gebaut im Browser-Wizard. Steps kombinieren: SSH lesen → LLM transformieren → Discord senden. Kein Code nötig.

Semantisches Memory

Erinnerungen als Vektoren in Qdrant. Store, Recall, Forget – per Chat steuerbar. Auto-Memory schreibt relevante Gesprächsinhalte automatisch in den Index.

Statistiken & Observability

Token-Verbrauch, Kosten in USD, Laufzeit pro Anfrage, RAM, Qdrant-Grösse, Connection-Live-Status – alles direkt im Browser unter /stats.

Browser-First UI

Serverseitig gerendert – kein React, keine Buildchain, kein JavaScript-Bundle-Chaos. FastAPI + Jinja2, funktioniert in jedem Browser.

Security & Guardrails

Login-System, Admin/User-Modus, Secrets im lokalen Secure Store. Guardrail-Profile für riskante Aktionen wie SSH-Befehle schützen vor unbeabsichtigten Ausführungen.


Wie ARIA aufgebaut ist

ARIA besteht aus vier klar getrennten Schichten. Jede Schicht kommuniziert nur mit ihren direkten Nachbarn. Der Container ist ersetzbar – Daten, Skills und Memories leben in Volumes und überleben jeden Update.

Schichtenarchitektur

Web UI / HTTP Layer FastAPI · Jinja2 · CSS · /v1/chat/completions · /health Pipeline / Orchestration Layer Routing · Memory Recall/Store/Forget · Capability-Ausführung Custom Skills · LLM-Aufruf · Token / Kosten / Run-Logging Runtime / Integration Layer SSH · SFTP · SMB · Discord · RSS · HTTP API · Webhook · SMTP · IMAP · MQTT Connection Health · Skill Runtime · Guardrails · Safe-Fix Memory / State Layer Qdrant · SQLite / Secure Store · JSON / YAML Anfragen von oben · Persistenz unten · Schichten sprechen nur mit Nachbarn

Browser-Anfragen von oben nach unten · Persistenz im untersten Layer · Updates ersetzen nur den Container

Intelligentes Routing

Das Routing-Modell ist der architektonisch entscheidende Teil. Kein LLM-Klassifikator der rät – ein deterministischer Entscheidungsbaum der strukturelle Signale auswertet. Schneller, günstiger, vorhersehbarer.

Nutzer-Prompt im Browser Pipeline empfängt Anfrage Router analysiert Anfrage Keyword · Semantic · Intent Custom Skill? Höchste Priorität Capability? SSH · RSS · SMB · … Memory Intent? Store · Recall · Forget Skill Runtime Steps sequenziell Connection Resolver Profil · Runtime · Exec Qdrant Memory Vektorsuche · User-ID Ergebnis + Token-Tracking HTML-Antwort · Activity-Log · Auto-Memory kein Match → LLM-Chat-Fallback · LLM wird nur aufgerufen wenn kein Pfad greift

Custom Skill → Capability → Memory → LLM · Determinismus vor Sprachmodell

Modularität & Persistenz

pipeline.py ist der einzige zentrale Knoten – alle anderen Module sind austauschbar. Volumes bleiben bei jedem Container-Update erhalten: Connections, Skills, Memories und Logs gehen nie verloren.

ARIA Container (wird bei Updates ersetzt) Core: pipeline.py LLM Client Memory Capabilities Skills Auth/Guard Conn. Runtime Token Tracker i18n / UI ── Volumes bleiben bei Container-Updates erhalten ── Persistente Volumes config/ config.yaml · secrets prompts/ Persona · Prompts data/ Skills · Logs · Chat Qdrant Storage Semantische Memories · Collections

pipeline.py zentraler Knoten · alle Module austauschbar · Volumes überleben jeden Update

Download und Installation

  • Built by Fischerman ·
  • in collaboration with Codex & Claude ·
  • MIT License ·
  • GitHub · Docker Hub ·


▸ Project · Self-hosted AI Agent

A.R.I.A.

Adaptive Reasoning and Intelligent Automation

ARIA is a self-hosted AI assistant that doesn’t just talk – it reaches, understands and controls real systems. No cloud dependency, no subscription, no data sharing. Runs on your server, under your control, with your data.

✓ MIT License ✓ Self-hosted · Open Source ✓ Alpha · Single-User ✓ Python · FastAPI · Qdrant

What ARIA is

Most AI assistants are useful as long as they only talk. ARIA goes one step further: it connects to real systems in your network and lets you control, query and automate them via natural text.

Routing is deterministic – ARIA decides structurally before asking the LLM. Custom Skills first, then structured Capabilities, then free chat. This makes ARIA predictable and cost-efficient.

Memory runs on Qdrant as a vector database. ARIA remembers relevant information and pulls it automatically into context – so you never have to explain everything again from scratch.


What ARIA does

Real system connections

SSH, SFTP, SMB, Discord, RSS, HTTP API, Webhook, SMTP, IMAP, MQTT – configurable as profiles, addressable by natural text, with live status and health check.

Custom Skills

Automations as JSON manifests, built in the browser wizard. Combine steps: read SSH → transform with LLM → send to Discord. No code required.

Semantic Memory

Memories as vectors in Qdrant. Store, Recall, Forget – controllable via chat. Auto-Memory writes relevant conversation content to the index automatically.

Statistics & Observability

Token usage, cost in USD, latency per request, RAM, Qdrant size, connection live status – all directly in the browser under /stats.

Browser-First UI

Fully server-side rendered – no React, no build chain, no JavaScript bundle chaos. FastAPI + Jinja2, works in every browser.

Security & Guardrails

Login system, admin/user mode, secrets in local secure store. Guardrail profiles for risky actions like SSH commands protect against unintended executions.


How ARIA is built

ARIA consists of four clearly separated layers. Each layer communicates only with its direct neighbours. The container is replaceable – data, skills and memories live in volumes and survive every update.

Layer architecture

Web UI / HTTP Layer FastAPI · Jinja2 · CSS · /v1/chat/completions · /health Pipeline / Orchestration Layer Routing · Memory Recall/Store/Forget · Capability execution Custom Skills · LLM call · Token / Cost / Run logging Runtime / Integration Layer SSH · SFTP · SMB · Discord · RSS · HTTP API · Webhook · SMTP · IMAP · MQTT Connection Health · Skill Runtime · Guardrails · Safe-Fix Memory / State Layer Qdrant · SQLite / Secure Store · JSON / YAML Requests from top · persistence at the bottom · layers speak only to neighbours

Browser requests top to bottom · persistence in the lowest layer · updates replace only the container

Intelligent routing

The routing model is the architecturally decisive part. No LLM classifier guessing – a deterministic decision tree evaluating structural signals. Faster, cheaper, more predictable.

User prompt in browser Pipeline receives request Router analyses request Keyword · Semantic · Intent Custom Skill? Highest priority Capability? SSH · RSS · SMB · … Memory Intent? Store · Recall · Forget Skill Runtime Steps sequential Connection Resolver Profile · Runtime · Exec Qdrant Memory Vector search · User-ID Result + Token tracking HTML response · Activity log · Auto-Memory no match → LLM chat fallback · LLM called only when no path matches

Custom Skill → Capability → Memory → LLM · determinism before language model

Modularity & persistence

pipeline.py is the only central node – all other modules are replaceable. Volumes survive every container update: connections, skills, memories and logs are never lost.

ARIA Container (replaced on updates) Core: pipeline.py LLM Client Memory Capabilities Skills Auth/Guard Conn. Runtime Token Tracker i18n / UI ── Volumes survive container updates ── Persistent Volumes config/ config.yaml · secrets prompts/ Persona · Prompts data/ Skills · Logs · Chat Qdrant Storage Semantic memories · Collections

pipeline.py central node · all modules replaceable · volumes survive every update

Download and Installation

  • Built by Fischerman.ch ·
  • in collaboration with Codex & Claude ·
  • MIT License ·
  • GitHub · Docker Hub ·