AES-256-GCM
银行级加密
零知识
我们永不看到您的数据
本地处理
浏览器中的加密
GDPR 就绪
按设计合规
开放审计
透明密码学
免费试用
14 天,无需信用卡
AI工具能看到员工输入的一切
AI助手现已成为日常工作的一部分。但每一条提示都会被发送到第三方服务器。当员工不假思索地粘贴敏感数据时,这些数据就成了他人基础设施的一部分。
发送给ChatGPT、Copilot或Gemini的每条消息都会传输到外部模型服务器。您无法控制数据保存多长时间、谁可以访问,或者它是否会影响未来的模型输出。
人们在AI调试会话中粘贴API密钥,在AI起草的邮件中包含客户姓名,或要求AI总结含有个人数据的文件——往往意识不到其中的风险。
与电子邮件或文件共享不同,AI工具的使用对IT部门是不可见的。没有上周二粘贴到ChatGPT内容的审计跟踪,没有阻止此类行为的DLP策略,也没有发生时的警报。
向外部AI服务发送一个身份证号、私钥或信用卡号,无论出于何种意图,都可能构成GDPR、HIPAA或PCI-DSS下的数据违规事件。
智能建议:实时DLP,直接在浏览器中运行
Locki在员工输入或粘贴时监控每个文本字段,包括AI聊天界面。敏感模式在用户点击提交之前被检测到,而非之后。
从第一天起即可使用:信用卡号、IBAN、AWS访问密钥、PEM私钥、身份证号、通用API密钥、电子邮件地址和电话号码。
管理员将规则分配给特定用户组——DevOps、HR、法务——并将其限定于chatgpt.com或github.com等特定域名。正确的规则在正确的情境下应用于正确的人。
检测以轻量级正则表达式引擎的形式在浏览器扩展内运行。没有任何内容被发送到Locki服务器进行分析。唯一的服务器联系是同步规则列表。
四步即可投入使用
订阅Teams Pro
智能建议是Locki Teams Pro计划的一部分。订阅后,通过托管安装将浏览器扩展部署到您的团队,或分享下载链接。
在控制面板中配置规则
默认激活8种检测模式。在管理员控制面板中创建自定义规则,将其分配给用户组(DevOps、HR、法务),并针对chatgpt.com或copilot.microsoft.com等特定网站。
Locki在后台监控
扩展程序在所有浏览器标签页中静默运行。当员工在任何文本字段(包括AI聊天界面)中输入或粘贴匹配模式时,浏览器内会实时弹出警报。
员工决定下一步操作
警报提示用户重新考虑。用户可以在发送前用Locki加密敏感内容、删除它,或有意忽略警告——所有操作均无需离开当前页面。
8种模式,从第一天起即可使用
智能建议是Locki Teams Pro的功能
管理员可以创建不限数量的自定义模式,将其分配给用户组,并限定至特定网站——所有操作均在控制面板中完成。
谁在使用智能建议
起草面向客户消息的员工经常将客户姓名、电子邮件地址或账号粘贴到AI写作助手中。智能建议在个人信息离开浏览器之前将其拦截。
开发者在向AI寻求调试帮助时,经常粘贴含有API密钥、数据库凭证或令牌的代码片段。Locki检测到这些密钥,并提示开发者先行清理。
使用AI工具总结工单的支持人员可能会粘贴含有个人数据的客户记录。Locki在数据到达AI提供商之前警告支持人员。
合规团队可以直接在浏览器中执行数据处理政策——无需VPN、代理或应用层控制。检测记录会保存在Locki审计跟踪中。
防止.env文件内容、SSH私钥和云提供商令牌被粘贴到AI编程助手中。限定范围的规则确保只有DevOps组成员才能看到这些警报。
使用AI起草文件的律师和总结员工记录的HR团队是高风险用户。智能建议检测机密数据模式,在泄露发生前将其阻止。
检测在您的浏览器中进行——没有任何内容离开您的设备
Locki的DLP引擎以轻量级正则表达式匹配器的形式完全在浏览器扩展内运行。没有任何内容被发送到Locki服务器进行分析——唯一的网络调用是同步规则列表(模式,而非文本)。智能建议是Locki Teams Pro的一部分,与Locki的AES-256-GCM加密相辅相成:当检测到敏感数据时,用户可以在决定是否发送之前当场对其进行加密。