MCP 与 Codex
安装
首先安装运行时:
npx ontoskills install mcp这会安装:
~/.ontoskills/bin/ontomcp快速引导
推荐设置:
npx ontoskills install mcp --codex手动等效:
codex mcp add ontomcp -- ~/.ontoskills/bin/ontomcpCodex 全局设置使用与其他客户端相同的本地 stdio 命令:
~/.ontoskills/bin/ontomcp集成模型
基于 Codex 的工作流使用与其他本地客户端相同的 MCP 约定:
- 将
ontomcp作为本地stdio子进程启动 - 将其指向
~/.ontoskills/ontologies中的托管本体主目录 - 让客户端调用五个公共工具(含可选的 search_intents)
要注册的稳定可执行文件是:
~/.ontoskills/bin/ontomcp推荐的运行时命令
~/.ontoskills/bin/ontomcp --ontology-root ~/.ontoskills/ontologies如果你的 Codex 客户端支持基于环境的配置,等效设置是:
ONTOMCP_ONTOLOGY_ROOT=~/.ontoskills/ontologies暴露的工具
search_skillsget_skill_contextevaluate_execution_planquery_epistemic_rulessearch_intents(可选,需先运行ontoskills export-embeddings)
注意事项
- MCP 服务器读取已编译的
.ttl本体,而不是原始SKILL.md - 如果你想要自定义技能,也要安装编译器:
npx ontoskills install core- 然后编译或导入源技能。技能默认自动启用;仅当之前被手动禁用时才需要运行
ontoskills enable <qualified-id> --codex仅自动化 Codex 全局设置;对于仓库级 Codex MCP 配置,ontoskills目前会打印手动步骤而非强制写入非标准配置文件
实用规则
将 Codex 集成视为标准的本地 stdio MCP 注册,其命令指向:
~/.ontoskills/bin/ontomcp确切的 UI 或配置文件形状可能因 Codex 构建而异,但服务器命令和本体根保持不变。