AI-Native Computing Middleware · v0.1.5

知识图谱 × 大语言模型
企业级 AI 推理中间件

Yueli KGM Computing — 不只是 RAG。
结构化知识建模 × 多跳推理 × 可审计决策链,为 AI 原生应用构建可靠的认知计算基础设施。

10+
模型提供商
3级
原生推理后端
8种
路由策略
3层
认知记忆体系

传统 RAG 的三大致命缺陷

向量检索 + 大模型的组合已经无法满足企业级 AI 对可靠性、可解释性和复杂推理的需求。

🌀

幻觉与不一致

传统 RAG 依赖非结构化向量检索,模型可以随意组合上下文,导致输出不可预测。缺乏严格的推理约束与证据溯源。

🔗

无法跨实体推理

单纯的向量相似度无法表达实体间关系,无法完成"A 影响 B,B 导致 C"这类多跳推理。知识是碎片的,不是图状的。

🔒

不可审计、不可控

企业场景要求决策过程完全可追溯。传统方案缺乏工具调用链路记录、记忆访问日志,无法满足合规与安全要求。

为企业 AI 而生的计算引擎

从知识建模到推理执行,Yueli KGM 提供完整的 AI 计算中间件能力栈。

🕸️

知识图谱推理引擎

内置实体-关系三元组存储,支持子图查询与多跳路径推理。图谱信号动态注入 ContextPack,增强 LLM 推理深度。

🔀

多模型智能路由

ModelRouter 支持 8 种路由策略:质量评分、成本优化、延迟优化、能力标签匹配等。支持 A/B 测试与动态权重调整。

🧠

三层认知记忆体系

短期工作记忆 + 长期持久记忆 + 证据驱动的记忆衰减机制。写入门控确保数据质量,防止检索漂移。

🔄

Render → Complete → Parse 管线

严格的状态机调度,多轮工具调用闭环。可靠性由协议与管线保证,而非依赖模型本身。

OpenAI 兼容网关

完全兼容 /v1/chat/completions。零迁移成本接入现有系统,支持原生 SSE 直通。

🔍

可观测性与审计

完整的工具调用轨迹 (kgm.tool_trace)、Prometheus 指标输出、自动路由审计日志。

清晰的分层设计

Client API → HTTP Server (Express)
Scheduler FSM → ContextBuilder
PromptRenderer → LLM Client

// 每一层职责清晰、接口明确,支持自定义扩展与替换。

知识图谱层

三元组存储 · 实体路径推理 · 子图动态注入

认知记忆层

短期/长期分离 · 衰减机制 · 写入门控

工具执行层

内置工具 · MCP 聚合 · 多模态沙箱

5 分钟接入 KGM

# 安装包
npm install @haxitag/yueli-kgm-computing

# 启动引擎(含 Web Playground)
node ./node_modules/@haxitag/yueli-kgm-computing/dist/server/enhancedStart.js

# 示例:通过 SDK 初始化运行时
import { createRuntimeWithStorage } from "@haxitag/yueli-kgm-computing";
const runtime = await createRuntimeWithStorage(config);

01 企业知识决策

构建跨部门图谱,实现可审计的复杂合规性推理。

02 多模型 A/B 测试

自动路由与评分,驱动模型策略持续优化。

03 AI Agent/agentic applications

沙箱环境下安全的工具执行与 MCP 协议聚合。

构建下一代企业 AI 应用

开源、自托管、OpenAI 兼容,即刻投入生产。

$
npm install @haxitag/yueli-kgm-computing

阅粒 KGM 常见问题解答

传统 RAG 依赖向量相似度检索,知识是碎片的;KGM(Knowledge Graph Middleware)引入了结构化知识图谱,支持实体间的多跳逻辑推理,并能通过 Render-Complete-Parse 管线确保推理过程的可审计性和决策链的完整性。
KGM 兼容 OpenAI API 规范,支持包括 OpenAI, Anthropic, Google Gemini, 智谱 AI, DeepSeek 等主流云端提供商,同时也支持通过 vLLM, Ollama, llama.cpp ,Yueli-KGM-computing(原生推理和张量计算)接入本地私有化部署的模型。
KGM 提供了完全兼容 OpenAI 的网关接口(/v1/chat/completions),您只需更改现有代码中的 baseURL 和 API Key 即可快速接入 KGM 的知识增强能力。
是的,KGM 内置了多模态处理器,可以统一处理图像、音频、视频和文档。通过 LanguageAsAService 中件间,将非结构化数据转换为结构化知识,补全图谱实体与关系。

探索更多

访问开源仓库、深度文章与企业案例,全面了解阅粒知识计算引擎。