警惕 AI 偷窥:Surfshark 报告 35 项数据指标,主流 AI 应用平均采集 14 项

在大模型时代,人工智能应用在提供便利的同时,也在悄无声息地收集用户的海量个人信息。网络安全机构 Surfshark 最新发布的实验室报告揭示了这一严峻现实:主流 AI 应用不仅追踪用户的常规活动,更将触手伸向了极其敏感的个人数据领域,平均每款应用采集的数据项高达 14 项。

惊人的数据采集规模

Surfshark 的调查涵盖了 35 项不同的数据指标,旨在全面评估 AI 应用的隐私收集行为。结果显示,几乎所有的 AI 应用都涉及某种程度的数据追踪,这已成为行业常态。

在这 35 项指标中,包含了设备信息、位置数据、联系人列表、相册访问权限乃至生物识别信息等。这种无差别的采集模式让用户几乎处于"裸奔"状态,每一项看似微小的数据都可能被整合、分析,最终形成用户精准的数字画像。

警惕 AI 偷窥:Surfshark 报告 35 项数据指标,主流 AI 应用平均采集 14 项

高度敏感的个人隐私泄露

问题的核心不仅在于数据的数量,更在于数据的质量与敏感度。报告显示,部分 AI 应用在获取用户授权时,倾向于索取远超功能需求的权限。

  1. 身份与联系信息:许多应用会请求访问用户的通讯录,这意味着不仅用户自己的信息被收集,其朋友、家人和同事的隐私也随之暴露。
  2. 设备与使用数据:包括设备型号、操作系统版本、甚至是剪贴板内容。这些数据通常用于"设备指纹识别",即使在用户清除 Cookie 或使用无痕模式的情况下,依然能够精准锁定用户身份。
  3. 敏感生物特征:部分高级 AI 功能(如人脸美化、声纹识别)会要求访问面部 ID 或麦克风,这些生物特征一旦泄露,几乎无法更改,带来永久性的安全风险。

隐私策略背后的模糊地带

AI 应用通常以"提升服务质量"或"个性化推荐"为由解释其数据收集行为,但这些解释往往含糊其辞。Surfshark 指出,很多应用的隐私政策将数据"共享"给第三方服务商的行为隐藏在冗长的条款中。

数据流向的不透明是最大隐患。被采集的数据可能流向广告商、数据分析公司,甚至在未经加密的情况下存储在不安全的服务器上,极易成为黑客攻击的目标。用户在点击"同意"按钮的瞬间,往往就签署了一份不知边界的隐私让渡协议。

谁在裸泳?行业现状与应对

Surfshark 的报告将 AI 隐私问题推向了风口浪尖。面对这一趋势,用户并非无能为力:

  • 最小化授权原则:在安装和使用 AI 应用时,严格审查其请求的权限。对于非核心功能(如手电筒 App 请求读取通讯录),坚决予以拒绝。
  • 定期审查权限:在手机系统设置中定期检查已授权的应用列表,撤销不再使用的应用的权限。
  • 关注隐私替代品:选择那些以隐私保护为核心卖点的 AI 工具,或者使用本地部署(Local)、不上传云端的 AI 模型。

技术的进步不应以牺牲用户隐私为代价。Surfshark 的这份报告是一记警钟,提醒我们在享受 AI 带来的红利时,必须时刻警惕那双躲在代码背后的"眼睛"。