知识图谱 × 大语言模型
企业级 AI 推理中间件
Yueli KGM Computing — 不只是 RAG。
结构化知识建模 × 多跳推理 × 可审计决策链,为 AI 原生应用构建可靠的认知计算基础设施。
传统 RAG 的三大致命缺陷
向量检索 + 大模型的组合已经无法满足企业级 AI 对可靠性、可解释性和复杂推理的需求。
幻觉与不一致
传统 RAG 依赖非结构化向量检索,模型可以随意组合上下文,导致输出不可预测。缺乏严格的推理约束与证据溯源。
无法跨实体推理
单纯的向量相似度无法表达实体间关系,无法完成"A 影响 B,B 导致 C"这类多跳推理。知识是碎片的,不是图状的。
不可审计、不可控
企业场景要求决策过程完全可追溯。传统方案缺乏工具调用链路记录、记忆访问日志,无法满足合规与安全要求。
为企业 AI 而生的计算引擎
从知识建模到推理执行,Yueli KGM 提供完整的 AI 计算中间件能力栈。
知识图谱推理引擎
内置实体-关系三元组存储,支持子图查询与多跳路径推理。图谱信号动态注入 ContextPack,增强 LLM 推理深度。
多模型智能路由
ModelRouter 支持 8 种路由策略:质量评分、成本优化、延迟优化、能力标签匹配等。支持 A/B 测试与动态权重调整。
三层认知记忆体系
短期工作记忆 + 长期持久记忆 + 证据驱动的记忆衰减机制。写入门控确保数据质量,防止检索漂移。
Render → Complete → Parse 管线
严格的状态机调度,多轮工具调用闭环。可靠性由协议与管线保证,而非依赖模型本身。
OpenAI 兼容网关
完全兼容 /v1/chat/completions。零迁移成本接入现有系统,支持原生 SSE 直通。
可观测性与审计
完整的工具调用轨迹 (kgm.tool_trace)、Prometheus 指标输出、自动路由审计日志。
清晰的分层设计
// 每一层职责清晰、接口明确,支持自定义扩展与替换。
知识图谱层
三元组存储 · 实体路径推理 · 子图动态注入
认知记忆层
短期/长期分离 · 衰减机制 · 写入门控
工具执行层
内置工具 · MCP 聚合 · 多模态沙箱
5 分钟接入 KGM
# 安装包
npm install @haxitag/yueli-kgm-computing
# 启动引擎(含 Web Playground)
node ./node_modules/@haxitag/yueli-kgm-computing/dist/server/enhancedStart.js
# 示例:通过 SDK 初始化运行时
import { createRuntimeWithStorage } from "@haxitag/yueli-kgm-computing";
const runtime = await createRuntimeWithStorage(config);01 企业知识决策
构建跨部门图谱,实现可审计的复杂合规性推理。
02 多模型 A/B 测试
自动路由与评分,驱动模型策略持续优化。
03 AI Agent/agentic applications
沙箱环境下安全的工具执行与 MCP 协议聚合。
构建下一代企业 AI 应用
开源、自托管、OpenAI 兼容,即刻投入生产。
阅粒 KGM 常见问题解答
探索更多
访问开源仓库、深度文章与企业案例,全面了解阅粒知识计算引擎。
