Akiko
起源:从实验室到现实
Akiko 如何诞生,以及我们为何选择打造一套独立的人工智能系统。
起点
2025 年 2 月,digitalCode 正式启动了 Nicky 项目——一个专注于人工智能研究的内部实验室。目标非常明确:开发完全自主的专有模型,不依赖任何外部服务,并确保绝对的隐私与控制权。
核心理念
零妥协:不使用第三方服务、不产生数据外泄、不存在黑箱机制。所有系统均在内部或 digitalCloud 上运行,并配备针对真实应用场景优化的硬件。每一行代码都可追溯、可验证,完全掌握在我们手中。
演进过程
Nicky 实验室孵化了多个项目:Akiko(AI 聊天机器人)、Cassandra(多媒体生成)、Goliath(预测分析)以及 I.R.I.N.A.(多 AI 翻译系统)。Akiko 是首个完成实验阶段、成长为稳定可靠、可直接集成至真实业务流程的系统。

我们构建了什么
使 Akiko 在人工智能解决方案领域中脱颖而出的工程成果。
完全自主研发的系统架构
系统的每一个层级——从 AI 模型到用户界面——均由内部设计与开发。没有任何外包组件,每一部分都针对效率、安全性与可控性进行了优化。
- 针对不同来源(文档、URL、API)的定制化数据摄取管道
- 为高精度与高速度优化的语义检索系统
- 内置治理策略的编排与调度层
零外部依赖
Akiko 在完全隔离的环境中运行:不调用第三方服务,不共享任何数据。系统部署于 digitalCloud 或专属的本地基础设施之上。
- 无厂商锁定
- 对成本、性能与安全性的完全掌控
- 数据驻留保障:数据永不离开既定边界
具备可验证引用的 RAG
Akiko 仅基于已提供的内容进行回答。每一次响应都会明确标注来源,确保完全的透明性与可追溯性。
零幻觉
不知道的内容会明确说明;一旦回答,必定标注来源。
原生多语言能力
无需外部翻译模块,即可理解并回应超过 8 种语言,并根据用户语言自动调整语气与上下文。
实验性成果
在内部测试及与商业解决方案对比过程中获得的真实数据。
回答准确率
基于企业知识库(超过 500 份文本文件)的评估结果。
平均响应时间
在不同数据集与硬件配置下,对复杂查询进行端到端延迟测试。
零幻觉
Akiko 仅基于知识库内容作答,并始终标注所使用的来源。
与商业解决方案对比
已成熟运行的能力
- 具备精准、可验证引用的 RAG 机制
- 来自多种来源的自动化、可扩展数据摄取
- 无需外部模块的原生多语言支持
- 灵活部署:本地或 digitalCloud
- 即使在中等硬件条件下也能保持稳定性能
持续优化中的方向
- 针对模糊查询的语义排序优化
- 企业级连接器的扩展
- 用于数据源管理与监控的管理控制台
- 反馈闭环与持续自我改进机制
潜在应用领域
Akiko 已可在多个真实场景中落地应用,覆盖不同行业与使用场景。
公共行政机构
为市政及区域行政机构提供市民服务支持与内部知识管理。
企业与大型组织
为复杂组织提供知识管理与自动化运营支持。
专业服务机构
为法律、税务及技术类事务所提供法规、流程与文档支持。
来自研发实验室
Akiko 只是开始。每一个诞生于我们实验室的项目,都是迈向真正独立人工智能的重要一步。
探索私有人工智能核心基础的研发项目。
多 AI 翻译系统,集成 7 个模型与 4 层过滤机制,确保极致精准
面向金融交易的 AI 预测分析与趋势预测系统
使用内部训练的专有模型进行图像与音乐生成
Tech Deep Dive
架构、安全、性能与集成:Akiko 背后的工程体系
系统架构
构成 Akiko 的各个层级
Ingestion & Indexing
用于连接器、文档解析、去重、智能分块、向量嵌入生成以及向量数据库索引的处理流水线。
Retrieval & Ranking
混合搜索(向量 + 关键词)、语义重排序、用户权限过滤、置信度计算与引用选择。
Model Layer
面向特定领域优化的定制 LLM、提示词工程、上下文组装以及带内联引用的生成能力。
Orchestration & Policies
速率限制、提示词治理、审计日志、反馈闭环、质量指标,以及用于管理数据源和权限的管理控制台。
安全与合规
隐私优先设计、审计与控制
端到端加密
传输中使用 TLS 1.3,静态数据采用 AES-256,并通过 Vault 或同类方案进行密钥管理。
RBAC / SSO
基于角色的访问控制、LDAP / OIDC 集成,以及对数据源和文档的细粒度权限管理。
完整审计追踪
记录每一次访问、查询和修改的不可变日志。支持可配置的保留策略与合规导出。
备份与灾难恢复
每日自动备份、经验证的灾难恢复方案,以及适用于关键环境的 air-gap 选项。
容量规划与性能
基于真实负载进行硬件配置
Small
试点团队 / 概念验证
- CPU + 消费级 GPU(如 RTX 4060 / 4070)
- 8–16 GB 内存
- 200–500 GB SSD
Medium
推荐业务单元 / 扩展测试环境
- CPU + 消费级 / 企业级 GPU(如 RTX 4080 – A10)
- 32–64 GB 内存
- 1–2 TB SSD
Large
企业级 / 生产环境
- 企业级专用 GPU(A10 / A100 / L40)
- ≥ 64 GB 内存
- ≥ 5 TB NVMe SSD
最佳配置取决于并发用户数量、知识库规模、查询频率以及目标延迟。我们将在评估阶段共同确定最合适的方案。
系统集成
输入 / 输出连接器
- 文件夹 / NAS(SMB、NFS)
- 数据库(PostgreSQL、MySQL、MongoDB)
- Wiki / Confluence / SharePoint
- 工单系统
- 电子邮件(IMAP / Exchange)
- 自定义 REST API
- JSON / CSV 导出
- 实时 Webhook
- Teams / Slack / Email 通知
- 用于集成的 REST API
想了解更多吗?
Akiko 正在不断演进,但现有成果已经验证了这一方向的正确性。
如果你正在寻找一款以独立性、安全性和数据完全可控为核心设计的人工智能解决方案,欢迎与我们交流。我们目前正在评估与合作伙伴的联合测试,在真实业务场景中验证 Akiko 的能力。
创新,意味着不断验证自己的想法,而不是等待它们成为标准。
