永不下线的隐私卫士

当你与 AI 对话
守夜人在守护你

Nightwatch 驻守在你和 AI 之间,敏感数据端侧处理,绝不离开你的设备。规则引擎 + 本地 LLM 双轨检测,无声无息,永不下线。

全方位隐私防护

从结构化数据到语义内容,从文本到图像,覆盖您与 AI 交互的每个场景。

端侧处理

数据不出设备,完全本地运行,零云端风险。您的隐私,只在您手中。

语义级识别

规则引擎 + 本地 LLM 双轨检测,精准识别结构化与非结构化敏感信息。

无感保护

自动拦截,不打断您的工作流。保护在后台静默运行,体验无缝流畅。

多平台覆盖

支持 ChatGPT、Claude、Gemini、通义千问、Kimi,主流 AI 平台全覆盖。

多模态防护

文本 + 图片 OCR + 人脸识别 + EXIF 清除,全面防护多种数据形态。

规则引擎检测

邮箱 手机号 身份证 银行卡 IP 地址 URL 护照号 车牌号 密码/API Key

LLM 语义检测

人名 地名 机构名 财务数据 医疗信息

支持的 AI 平台

覆盖国内外主流 AI 对话平台,开箱即用,无需额外配置。

ChatGPT Claude Gemini 通义千问 Kimi

守夜人如何保护你

从你触发操作到内容安全发出,全程不超过几毫秒,所有处理在本地完成。

用户输入 / 粘贴
paste · input · submit 事件
Content Script 拦截
发送检测请求到后台
双轨并行检测
规则引擎 <1ms NER / LLM 语义
结果合并去重
按位置合并,计算综合置信度
风险处置
无风险 · 静默放行 有风险 · 通知 + 脱敏

检测触发时机

📋
粘贴
paste 事件立即触发,一次性引入大量文本时即时检测
⌨️
键盘输入
防抖处理,避免每次按键都触发,减少不必要的计算
🚀
发送前拦截
点击发送按钮时作为最后一道防线,确保内容安全
🖱️
右键手动检测
用户主动触发,对选中文本进行即时检测
用户上传图片
拖拽 / 选择文件,事件被拦截
三路并行分析
OCR 文字 人脸检测 EXIF 元数据
风险汇总
合并三路结果,生成检测报告
处置决策
脱敏后上传 用户确认 / 取消

三路检测能力

🔤
OCR 文字提取
识别图片中的文字内容,送入文本检测流程,覆盖截图等场景
👤
人脸检测
检测图片中是否包含人脸,提示用户进行模糊或遮盖处理
📍
EXIF 元数据清除
读取并清除 GPS 坐标、拍摄设备、时间戳等隐私元数据

脱敏处理策略

占位替换

将敏感内容替换为语义占位符,如 [手机号][姓名],保留上下文可读性

部分隐藏

保留首尾字符,中间以 **** 遮盖,如 138****0000,兼顾可识别性与隐私

格式保留

保持原始格式结构,仅替换内容字符,适合需要维持数据格式的场景

专为隐私而生的架构

规则引擎 + 语义后端双轨并行,三种 LLM 后端可自由切换,所有计算均在本地完成。

双轨检测方案

规则引擎

<1ms 响应 · 始终运行

基于正则表达式和规则库,精准匹配邮箱、手机号、身份证、银行卡、IP、URL、护照号、车牌号、密码/API Key 等 9 类结构化敏感信息,零 GPU 依赖,任何设备可用。

语义后端(三选一)

NER / Ollama / Remote API

识别人名、地名、机构名、财务数据、医疗信息等非结构化内容,与规则引擎结果按字符位置合并去重。三种后端可在设置页随时切换,无需重启。

三种语义后端

NER 后端 默认

基于 Transformers.js(@huggingface/transformers)在浏览器内运行 ONNX 量化 NER 模型,通过 Offscreen Document 的 WASM 后端执行推理。无需安装任何软件,模型下载后完全离线运行。

✓ 零外部依赖 ✓ 完全离线 ✓ 开箱即用
Xenova/bert-base-chinese-ner
~400MB 中文专用 PER · ORG · LOC
BERT-base-chinese 微调,中文准确率更高
Xenova/bert-base-multilingual-cased-ner-hrl
~350MB 中 / 英 / 德 / 法等多语言 PER · ORG · LOC
多语言 BERT,覆盖语言更广
Xenova/bert-base-NER
~170MB 英文 PER · ORG · LOC · MISC
英文专用,支持 MISC 杂项实体
Xenova/distilbert-base-NER
~100MB 英文 PER · ORG · LOC · MISC
最轻量英文模型,资源受限环境首选
Ollama 后端

调用本地 Ollama 服务(localhost:11434),运行 Qwen3.5 系列大模型,语义理解能力最强,支持人名、地名、财务、医疗、情绪等复杂语义检测。

✓ 语义理解最强 ✓ 结构化 JSON 输出 ✓ 支持大模型
设备条件推荐模型预期速度
无 GPUQwen3.5-0.8B (Q4_K_M)2–10s
4GB 显存Qwen3.5-2B (Q4_K_M) ★500ms–2s
8GB+ 显存Qwen3.5-4B (Q4_K_M)300ms–1.5s
16GB+ 显存Qwen3.5-9B (Q4_K_M)500ms–3s
# 安装 Ollama 后拉取推荐模型
ollama pull qwen3.5:2b
Remote API 后端

对接任意兼容 OpenAI Chat CompletionsAnthropic Messages 协议的端点,支持配置多个 API 档案(Profile)随时切换。适合企业内网 LLM 服务或需要最强模型能力的场景。

✓ 模型能力最强 ✓ 支持自托管端点 ✓ 多档案管理
OpenAI 协议
兼容 GPT-4o、GPT-4-turbo 及 vLLM、LM Studio 等自托管服务
Anthropic 协议
兼容 Claude 系列及所有 Anthropic Messages API 格式端点

下载插件

下载并加载到 Chrome,即刻开启隐私保护。

下载 守夜人 Nightwatch

启用语义级检测(可选)

安装 Ollama 并拉取本地模型,以启用 LLM 语义检测功能:

# 安装 Ollama(访问 https://ollama.ai 下载)
# 拉取推荐模型
ollama pull qwen3.5:2b

快速开始

下载插件包后,按以下步骤完成安装:

  1. 下载 zip 文件并解压到本地目录
  2. 打开 Chrome 浏览器,访问 chrome://extensions/
  3. 开启右上角的「开发者模式」
  4. 点击「加载已解压的扩展程序」
  5. 选择解压后的目录,完成安装

启用语义级检测(可选)

安装 Ollama 并拉取本地模型,以启用 LLM 语义检测功能:

# 安装 Ollama(访问 https://ollama.ai 下载)
# 拉取推荐模型
ollama pull qwen3.5:2b