从结构化数据到语义内容,从文本到图像,覆盖您与 AI 交互的每个场景。
数据不出设备,完全本地运行,零云端风险。您的隐私,只在您手中。
规则引擎 + 本地 LLM 双轨检测,精准识别结构化与非结构化敏感信息。
自动拦截,不打断您的工作流。保护在后台静默运行,体验无缝流畅。
支持 ChatGPT、Claude、Gemini、通义千问、Kimi,主流 AI 平台全覆盖。
文本 + 图片 OCR + 人脸识别 + EXIF 清除,全面防护多种数据形态。
覆盖国内外主流 AI 对话平台,开箱即用,无需额外配置。
从你触发操作到内容安全发出,全程不超过几毫秒,所有处理在本地完成。
将敏感内容替换为语义占位符,如 [手机号]、[姓名],保留上下文可读性
保留首尾字符,中间以 **** 遮盖,如 138****0000,兼顾可识别性与隐私
保持原始格式结构,仅替换内容字符,适合需要维持数据格式的场景
规则引擎 + 语义后端双轨并行,三种 LLM 后端可自由切换,所有计算均在本地完成。
<1ms 响应 · 始终运行
基于正则表达式和规则库,精准匹配邮箱、手机号、身份证、银行卡、IP、URL、护照号、车牌号、密码/API Key 等 9 类结构化敏感信息,零 GPU 依赖,任何设备可用。
NER / Ollama / Remote API
识别人名、地名、机构名、财务数据、医疗信息等非结构化内容,与规则引擎结果按字符位置合并去重。三种后端可在设置页随时切换,无需重启。
基于 Transformers.js(@huggingface/transformers)在浏览器内运行 ONNX 量化 NER 模型,通过 Offscreen Document 的 WASM 后端执行推理。无需安装任何软件,模型下载后完全离线运行。
Xenova/distilbert-base-multilingual-cased-ner-hrl
推荐
Xenova/bert-base-chinese-ner
Xenova/bert-base-multilingual-cased-ner-hrl
Xenova/bert-base-NER
Xenova/distilbert-base-NER
调用本地 Ollama 服务(localhost:11434),运行 Qwen3.5 系列大模型,语义理解能力最强,支持人名、地名、财务、医疗、情绪等复杂语义检测。
| 设备条件 | 推荐模型 | 预期速度 |
|---|---|---|
| 无 GPU | Qwen3.5-0.8B (Q4_K_M) | 2–10s |
| 4GB 显存 | Qwen3.5-2B (Q4_K_M) ★ | 500ms–2s |
| 8GB+ 显存 | Qwen3.5-4B (Q4_K_M) | 300ms–1.5s |
| 16GB+ 显存 | Qwen3.5-9B (Q4_K_M) | 500ms–3s |
# 安装 Ollama 后拉取推荐模型
ollama pull qwen3.5:2b
对接任意兼容 OpenAI Chat Completions 或 Anthropic Messages 协议的端点,支持配置多个 API 档案(Profile)随时切换。适合企业内网 LLM 服务或需要最强模型能力的场景。
下载并加载到 Chrome,即刻开启隐私保护。
安装 Ollama 并拉取本地模型,以启用 LLM 语义检测功能:
# 安装 Ollama(访问 https://ollama.ai 下载)
# 拉取推荐模型
ollama pull qwen3.5:2b
下载插件包后,按以下步骤完成安装:
chrome://extensions/安装 Ollama 并拉取本地模型,以启用 LLM 语义检测功能:
# 安装 Ollama(访问 https://ollama.ai 下载)
# 拉取推荐模型
ollama pull qwen3.5:2b