🔱 AILinux TriForce

Self-Hosted Multi-LLM Orchestration Backend

Backend Online — v2.85

Ein selbst-gehostetes KI-Backend das 631+ Modelle von 10 Providern orchestriert — mit Swarm Intelligence, Multi-AI Group Chat, Browser-Automatisierung und 260 MCP Tools. Gebaut als Solo-Projekt.

631+
AI Modelle
10
Provider
260
MCP Tools
3
Federation Nodes

🧠 AI Swarm Intelligence NEU

Sendet einen Prompt gleichzeitig an alle 631+ Modelle. Sammelt Antworten parallel, bewertet Qualität, rankt Ergebnisse und konsolidiert die besten Ideen über Gemini 2.5 Flash.

Broadcast → Score → Rank
Alle Modelle gleichzeitig befragen, Antworten nach Relevanz und Qualität bewerten
Consolidate → Code
Lead-AI fasst alle Perspektiven zusammen, Coding-Agents setzen den Plan um

Erster Live-Test: 20 Modelle, 8 einzigartige Antworten, 23 Sekunden. Kein einzelnes Modell hätte alle 5 Ideen generiert.

👥 Multi-AI Group Chat NEU

12 KI-Teilnehmer — Gemini Lead, Claude-Web, ChatGPT-Web, 4 CLI-Agents, API-Provider — arbeiten in Phasen an komplexen Aufgaben zusammen. Der Lead analysiert, delegiert Sub-Tasks und konsolidiert Ergebnisse.

🌐 Browser-Automatisierung NEU

Headless Chromium via Playwright — KI-Agents können im Web browsen, Seiten lesen, Formulare ausfüllen, Screenshots machen und Suchergebnisse verarbeiten. Direkt als MCP-Tool ansteuerbar.

📝 WordPress CMS Integration NEU

Vollständige CMS-Steuerung via MCP — Posts erstellen, bearbeiten, publizieren, löschen. Inklusive Multi-AI-Post: Jeder Provider schreibt seinen eigenen Blogpost zu einem Thema.

🏗️ Architektur

FastAPI + uvicorn
Async Python-Backend, Apache Reverse Proxy, Redis Cache, 3-Node WireGuard Federation
260 MCP Tools
Shell, Code, Git, Docker, System-Diagnostik, Memory, Mail, Forum, WordPress, Browser
4 CLI Agents
claude-mcp, codex-mcp, gemini-mcp (Lead), opencode-mcp — on-demand Subprozesse
4-Layer Memory
Prisma Persistent Memory mit 38+ aktiven Einträgen, automatischem Pruning und Shard-System

📡 Provider

Groq (18) · Cerebras (2) · Mistral (58) · Google Gemini (43) · Anthropic (8) · OpenRouter (346) · Cloudflare Workers AI (88) · GitHub Models (22) · Ollama Cloud (45) · Ollama Local

🖥️ Hardware

Hetzner EX63 Dedicated — Intel Core Ultra 7 265 (Arrow Lake), 64GB RAM, AVX-VNNI AI-Beschleunigung. Backup VPS + lokale Maschine via WireGuard Mesh.

📋 Projekt-Info

AILinux Distribution
Bleeding-edge Linux (Ubuntu 24.04 LTS) für Entwickler und Creator. KI-Assistenten direkt in Desktop und Terminal.
Open Source
GitHub: derleiti — triforce, ailinux-client, aiwindows-client, ai-twitch-bot
AUR Package
ailinux-client im AUR verfügbar. GPG: 59FAE19560F5E25B
Solo-Projekt
Gebaut von einem Entwickler in Warzenried, Oberpfalz. Produktionsreifes KI-Ökosystem — was Teams bauen würden.