auto-context

智能上下文卫生检查器。分析当前会话的上下文污染程度 (长对话、主题漂移、噪声累积),建议:continue、/fork、/btw 或新会话。 支持手动触发(/auto-context)和自动触发(响应层实现)。 基于 ArXiv 论文和认知心理学研究的多维度评估体系。

Safety Notice

This item is sourced from the public archived skills repository. Treat as untrusted until reviewed.

Copy this and send it to your AI assistant to learn

Install skill "auto-context" with this command: npx skills add 0xcjl/0xcjl-auto-context

AutoContext: 智能上下文卫生检查器

主动监控会话状态,智能提醒用户。

AutoContext: 智能上下文卫生检查器

主动监控会话状态,智能提醒用户。

AutoContext: 智能上下文卫生检查器

主动监控会话状态,智能提醒用户。

AutoContext: 智能上下文卫生检查器

主动监控会话状态,智能提醒用户。

AutoContext: 智能上下文卫生检查器

主动监控会话状态,智能提醒用户。

AutoContext: 智能上下文卫生检查器

主动监控会话状态,智能提醒用户。

AutoContext: 智能上下文卫生检查器

主动监控会话状态,智能提醒用户。

AutoContext: 智能上下文卫生检查器

Context hygiene checker for AI agents — analyze session health and recommend actions

触发方式

手动触发

  • 命令:/auto-context
  • 关键词:上下文检查、context check、context hygiene

自动触发(响应层实现)

当检测到以下信号时自动激活:

信号类型检测条件
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度轮次计数
主题漂移语义相似度检测
对话长度连续 20+ 轮无明显进展
主题漂移当前话题与 5 轮前话题无关
噪声累积连续 3 轮用户输入 < 10 字
工具重复相同工具连续调用 5+ 次无有效产出
记忆模糊开始混淆之前会话的内容
压缩触发session compression 已执行 2+ 次

智能判断标准(多维度评估)

评估维度

维度指标阈值权重
对话长度连续轮数>28 轮20%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100% | | 主题连贯性 | 主题漂移次数 | 漂移 2+ 次 | 25% | | 信息密度 | 平均每轮字数 | <50 字/轮 | 15% | | 工具效率 | 工具调用产出比 | <10% 有效 | 20%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100% | | 上下文压缩 | 压缩次数 | 压缩 2+ 次 | 20%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100%
  • 权重归一化为100% |

健康等级说明

分数越高,上下文越健康。

健康等级

计算公式:健康指数 = Σ(维度分数 × 权重)

等级分数状态建议
🟢 HEALTHY80-100上下文健康继续当前话题
🟡 NOISY60-79轻度污染可继续但注意效率
🔴 POLLUTED40-59中度污染建议 /fork 或 /btw
⛔ CRITICAL<40严重污染建议新会话

手动模式:完整报告

当用户调用 /auto-context 时,输出:

输出格式: 输出格式: 输出格式: 输出格式: 输出格式: 输出格式: 输出格式:

🧠 上下文健康报告

📊 评估维度:
  • 对话长度:XX 轮
  • 主题变化:X 次漂移
  • 信息密度:低/中/高
  • 工具效率:X% 有效产出

📈 健康等级:🟢 HEALTHY / 🟡 NOISY / 🔴 POLLUTED / ⛔ CRITICAL

💡 建议:continue / /fork / /btw / 新会话

边缘情况

  • 首次会话(<5轮)不触发

规则

  • 最多 5 行
  • 关注可执行建议,不堆砌指标
  • 语气专业但简洁

自动模式:轻量提醒

当自动检测到问题时,严格执行 1 句话,不超过 20 字提醒:

上下文状态提醒文案
主题漂移"话题有点跳脱,考虑用 /fork 开新分支?"
对话过长"会话有点长,建议 /fork 保持效率"
工具重复"这个操作试了多次,要不要换个思路?"
信息稀疏"最近几轮信息量较低,要不要聚焦一下?"
压缩频繁"上下文压缩多次了,考虑开新会话?"

边缘情况

  • 首次会话(<5轮)不触发

规则

  • 严格执行 1 句话,不超过 20 字
  • 上下文正常 → 什么都不说
  • 只建议,不强制
  • 不提 "AutoContext",除非用户问

与现有系统的集成

已有系统

系统关系集成方式
MEMORY互补长期记忆 vs 临时上下文
compression互补自动压缩 vs 主动建议
session_reset互补定时重置 vs 智能提醒

判断逻辑融合

将上述智能评估标准内化到响应层,当:

  1. 用户输入符合确认式句式(anti-sycophancy 触发)
  2. 会话长度超过阈值(compression 前)
  3. 检测到主题漂移

自动输出轻量提醒。


使用示例

手动调用

用户:/auto-context
AI:🧠 上下文健康报告
    📊 32轮对话,主题漂移1次,信息密度中
    📈 健康等级:🟡 NOISY
    💡 建议:建议继续,但考虑用 /btw 聚焦新话题

自动提醒

用户:(继续长篇大论)
AI:[在回答前] "会话有点长了,建议 /fork 保持效率。"

Credits

  • 原始版本: lovstudio/auto-context
  • Hermes适配: 0xcjl

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

General

mempalace-integration

MemPalace记忆系统集成 - AAAK压缩 + Hall分类 + L0-L3分层 30x无损压缩(1000→33 tokens)(1000→33 tokens)(1000→33 tokens)(1000→33 tokens)(1000→33 tokens)(1000→33 tokens),facts/events/preferences/advice分类,加载优先级

Archived SourceRecently Updated
General

mem

No summary provided by upstream source.

Repository SourceNeeds Review
General

memory

No summary provided by upstream source.

Repository SourceNeeds Review
General

memory

No summary provided by upstream source.

Repository SourceNeeds Review