Akiko
Genese: vom Labor zur Realität
Wie Akiko entstanden ist – und warum wir uns für eine unabhängige künstliche Intelligenz entschieden haben.
Der Anfang
Im Februar 2025 entstand Projekt Nicky – das dedizierte Forschungslabor von digitalCode für künstliche Intelligenz. Das Ziel war klar: proprietäre Modelle zu entwickeln, frei von externen Abhängigkeiten und konzipiert für maximalen Datenschutz und vollständige Kontrolle.
Die Philosophie
Keine Kompromisse: keine Drittanbieterdienste, kein Datenabfluss, keine Black Boxes. Alles läuft inhouse oder auf digitalCloud, mit Hardware, die für reale Einsatzszenarien ausgelegt ist. Jede Codezeile ist nachvollziehbar, überprüfbar und vollständig unter unserer Kontrolle.
Die Weiterentwicklung
Aus dem Nicky-Labor gingen mehrere Projekte hervor: Akiko (KI-Chatbot), Cassandra (Multimedia-Generierung), Goliath (prädiktive Analytik) und I.R.I.N.A. (Multi-KI-Übersetzungen). Akiko war das erste System, das die Experimentierphase hinter sich ließ und zu einer stabilen, produktionsreifen Lösung für reale Workflows wurde.

Was wir entwickelt haben
Die ingenieurtechnischen Ergebnisse, die Akiko im KI-Markt einzigartig machen.
Vollständig inhouse entwickelte Architektur
Jede Systemebene – vom KI-Modell bis zur Benutzeroberfläche – wurde intern konzipiert und umgesetzt. Nichts ist ausgelagert, jede Komponente ist auf Effizienz, Sicherheit und Kontrolle optimiert.
- Individuelle Ingestion-Pipelines für jede Quellart (Dokumente, URLs, APIs)
- Semantisches Retrieval-System, optimiert auf Präzision und Geschwindigkeit
- Orchestrierungsschicht mit integrierten Governance-Richtlinien
Keine externen Abhängigkeiten
Akiko arbeitet in vollständiger Isolation: keine Aufrufe externer Dienste, keine Datenweitergabe. Der Betrieb erfolgt ausschließlich auf digitalCloud oder dedizierter On-Premise-Infrastruktur.
- Kein Vendor Lock-in
- Volle Kontrolle über Kosten, Performance und Sicherheit
- Garantierte Datenresidenz: Daten verlassen niemals den definierten Perimeter
RAG mit verifizierten Quellenangaben
Akiko beantwortet Anfragen ausschließlich auf Basis der bereitgestellten Inhalte. Jede Antwort enthält eine Quellenangabe und gewährleistet damit vollständige Transparenz und Nachvollziehbarkeit.
Keine Halluzinationen
Wenn es etwas nicht weiß, sagt es das. Wenn es antwortet, nennt es die Quelle.
Native Mehrsprachigkeit
Versteht und beantwortet Anfragen in über 8 Sprachen – ohne externe Übersetzungsmodule und mit kontext- sowie tonangepasster Sprache.
Experimentelle Ergebnisse
Konkrete Daten aus internen Tests und Vergleichen mit kommerziellen Lösungen.
Antwortgenauigkeit
Bewertung anhand einer unternehmensinternen Knowledge Base (über 500 Textdokumente).
Durchschnittliche Antwortzeit
Messung der End-to-End-Latenz bei komplexen Anfragen mit unterschiedlichen Datensätzen und Hardware-Konfigurationen.
Keine Halluzinationen
Akiko antwortet ausschließlich auf Basis der Knowledge Base und nennt stets die verwendete Quelle.
Vergleich mit kommerziellen Lösungen
Was bereits hervorragend funktioniert
- RAG mit präzisen und überprüfbaren Quellenangaben
- Automatisierte und skalierbare Ingestion aus heterogenen Quellen
- Native Mehrsprachigkeit ohne externe Module
- Flexibles Deployment: On-Premise oder auf digitalCloud
- Konstante Performance auch auf moderater Hardware
Woran wir aktuell arbeiten
- Optimierung des semantischen Rankings bei mehrdeutigen Anfragen
- Erweiterung der Enterprise-Konnektoren
- Admin-Konsole zur Verwaltung und Überwachung von Datenquellen
- Feedback-Loop und kontinuierliches Selbstverbesserungssystem
Potenzielle Anwendungsszenarien
Wo Akiko echten Mehrwert liefert – Branchen, Kontexte und Use Cases mit unmittelbarer Einsatzfähigkeit.
Öffentliche Verwaltung
Bürgerunterstützung und internes Wissensmanagement für kommunale und regionale Verwaltungen.
Unternehmen & Enterprise
Wissensmanagement und automatisierte operative Unterstützung für komplexe Organisationen.
Professionelle Kanzleien
Unterstützung bei Verfahren, Regulierung und Dokumentation für Rechts-, Steuer- und technische Büros.
Aus dem R&D-Labor
Akiko ist erst der Anfang. Jedes Projekt, das in unserem Labor entsteht, ist ein weiterer Schritt hin zu wirklich unabhängiger künstlicher Intelligenz.
Das R&D-Projekt zur Erforschung der Grundlagen privater künstlicher Intelligenz.
Multi-KI-Übersetzungssystem mit 7 Modellen und 4 Filterstufen für maximale Präzision
Prädiktive Analysen und Forecasting für KI-gestützten Finanzhandel
Bild- und Musikgenerierung mit proprietären, intern trainierten Modellen
Das Labor entdecken
Entdecke aktive Projekte, laufende Experimente und die Philosophie hinter unserer Vision: Innovation zu entwickeln, nicht nur zu übernehmen.
Zum R&D-LaborTech Deep Dive
Architektur, Sicherheit, Performance und Integration: die Ingenieursarbeit hinter Akiko
Systemarchitektur
Die Layer, aus denen Akiko besteht
Ingestion & Indexing
Pipelines für Konnektoren, Dokumenten-Parsing, Deduplizierung, intelligentes Chunking, Embedding-Generierung und Vektor-Indexierung in Vector-Datenbanken.
Retrieval & Ranking
Hybride Suche (Vektor + Keyword), semantisches Re-Ranking, Filterung nach Benutzerberechtigungen, Confidence Scoring und Auswahl der Zitate.
Model Layer
Domänenspezifisch optimierte LLMs, Prompt Engineering, Context Assembly und Generierung mit Inline-Zitaten.
Orchestration & Policies
Rate Limiting, Prompt-Governance, Audit-Logging, Feedback-Loops, Qualitätsmetriken sowie eine Admin-Konsole zur Verwaltung von Quellen und Berechtigungen.
Sicherheit & Compliance
Privacy by Design, Auditierbarkeit und Kontrolle
Ende-zu-Ende-Verschlüsselung
TLS 1.3 während der Übertragung, AES-256 im Ruhezustand, Secret Management mit Vault oder gleichwertigen Lösungen.
RBAC / SSO
Role-Based Access Control, LDAP-/OIDC-Integration und granulare Berechtigungen für Quellen und Dokumente.
Vollständiger Audit-Trail
Unveränderliche Logs für jeden Zugriff, jede Abfrage und jede Änderung. Konfigurierbare Retention-Policies und Export für Compliance-Zwecke.
Backup & DR
Tägliche automatische Backups, getestete Disaster-Recovery-Verfahren und Air-Gap-Optionen für kritische Umgebungen.
Sizing & Performance
Hardware passend zur realen Last dimensioniert
Small
Pilot-Teams / Proof of Concept
- CPU + Consumer-GPU (z. B. RTX 4060 / 4070)
- 8–16 GB RAM
- 200–500 GB SSD
Medium
EmpfohlenBusiness Unit / erweitertes Testumfeld
- CPU + Consumer-/Enterprise-GPU (z. B. RTX 4080 – A10)
- 32–64 GB RAM
- 1–2 TB SSD
Large
Enterprise / Produktion
- Dedizierte Enterprise-GPUs (A10 / A100 / L40)
- ≥ 64 GB RAM
- ≥ 5 TB NVMe SSD
Das optimale Sizing hängt von der Anzahl gleichzeitiger Nutzer, der Größe der Knowledge Base, der Abfragefrequenz und der Ziel-Latenz ab. Das ideale Setup definieren wir gemeinsam im Rahmen des Assessments.
Integrationen
Input-/Output-Konnektoren
- Ordner / NAS (SMB, NFS)
- Datenbanken (PostgreSQL, MySQL, MongoDB)
- Wiki / Confluence / SharePoint
- Ticketing-Systeme
- E-Mail (IMAP / Exchange)
- Custom REST APIs
- JSON / CSV-Export
- Echtzeit-Webhooks
- Teams- / Slack- / E-Mail-Benachrichtigungen
- REST-APIs zur Integration
Möchtest du mehr erfahren?
Akiko befindet sich in stetiger Weiterentwicklung – die Ergebnisse bestätigen jedoch bereits den eingeschlagenen Weg.
Wenn du nach einer KI-Lösung suchst, die auf Unabhängigkeit, Sicherheit und volle Datenkontrolle ausgelegt ist, sprich mit uns. Wir prüfen derzeit Kooperationen mit Partnern, die Akiko in realen operativen Szenarien testen möchten.
Innovation bedeutet, die eigenen Ideen zu hinterfragen – nicht darauf zu warten, dass sie zum Standard werden.
