首页
社区
课程
招聘
苹果 iPhone 照片功能引发隐私担忧
发表于: 1天前 653

苹果 iPhone 照片功能引发隐私担忧

1天前
653

隐私问题

最近,苹果在其最新的 iOS 更新中推出了一项新的照片搜索功能,这引发了隐私倡导者的高度关注。这项名为“增强视觉搜索”(Enhanced Visual Search)的功能允许用户通过与全球数据库匹配来识别照片中的地标,虽然这功能在某种程度上提供了便利,但对隐私的潜在威胁使得很多人感到不安。

在 iOS 18 中,这项功能是默认启用的,这意味着用户在首次使用时并未被告知其数据将会与苹果共享。如果用户希望保护自己的隐私,需要手动去设置中关闭这个功能。这一过程并不直接,而且对于许多技术小白而言,这样的设置可能会显得尤为复杂。

增强视觉搜索功能使用设备内的机器学习技术来检测照片中的地标,并创建名为“矢量嵌入”的加密图像数据。这些数据随后会发送到苹果,进行与其数据库的比较。尽管苹果表示已经实施了隐私保护措施,比如将数据加密并压缩成机器可读格式,但批评人士认为,这一功能应当采用默认禁用的方式,而不是需手动选择关闭。这一做法与苹果通常的隐私标准并不相符。

实际上,苹果在之前推出的“视觉查找”工具中,能够识别植物或符号等对象,而无需将数据发送到苹果的服务器。隐私倡导者质疑,为什么在“增强视觉搜索”功能中需要共享数据,以实现类似的功能。因此,该讨论反映了技术便利性与用户隐私之间的持续紧张关系,并引发了关于公司应在多大程度上启用需要数据共享的功能而不获取用户明确同意的更大讨论。

这一转变并非苹果首次面临的隐私困境。今年晚些时候,苹果还决定取消其原本计划的 iCloud 儿童色情内容扫描工具,这一决定也同样引发了激烈的争论。苹果早在 2021 年便宣布将开发这一工具,但由于受到数字权利团体和研究人员的强烈反对,苹果于2021年9月决定暂停这一项目,并最终在 2023 年放弃了开发。

针对儿童安全问题的新组织 Heat Initiative 已表示,其计划推动苹果重新考虑开发能够检测儿童色情内容的工具。Heat Initiative 针对苹果的公开函件中表示,希望苹果能够“检测、报告并移除”iCloud 中的儿童色情内容,并提供更多的用户报告工具。

苹果对此发表了罕见且详尽的回应,解释了其放弃 iCloud CSAM 扫描功能的原因以及未来专注于用户安全和隐私的计划。苹果的用户隐私与儿童安全主管猎克·诺延施瓦尔德(Erik Neuenschwander)在回应中提到,由于与一系列隐私和安全研究人员、数字权利组织和儿童安全倡导者的协作,公司的决策基于以下理由:在技术上实现这一机制存在巨大的隐私风险,并且可能造成数据盗窃的新威胁。

诺延施瓦尔德表示,扫描每个用户的 iCloud 数据可能会导致数据综合监控和大规模监视,进而引发一系列难以预料的后果。尽管扫描儿童色情内容是为了保护弱势群体,但在实施过程中,确保用户隐私安全是最为关键的一环。

同时,苹果推出了一组被称为【沟通安全】的功能,这些功能依赖于设备内的技术,而不需要将数据上传到云端。这包括对信息、FaceTime、AirDrop 等共享工具的设备内图像处理。诺延施瓦尔德指出,这一切都是出于不让用户面临隐私风险的考虑。

尽管苹果在解释中表明其恶意意图并无,但Heat Initiative组织依然对苹果的决策表示失望,认为苹果作为全球最成功的企业之一,有责任设计出安全且注重隐私的环境,以便能够检测到儿童色情相关内容。该组织强调:“人们需要有效的工具来打击这一可怕现象。”

苹果的回应也强调,在没有确保护理隐私的前提下,无法有效地出台如 CSAM 这类工具。同时,与其承担成为举报中介的角色,苹果更倾向于直接将受害者与当地资源和执法部门联系在一起。这样的措施或许适用于社交平台,但在其他应用的情况下,苹果的这一做法仍然需要更多讨论。

网上儿童性侵犯的受害者面临十分紧迫的问题,而保护这些弱势群体与更广泛的加密与隐私保护之间的关系仍在继续展开。苹果在这一方面的决策将经受来自各方的更多审视与挑战。

针对用户隐私的保护与网络安全性,苹果在未来的决策中将如何取得平衡,值得我们关注。随着技术的不断发展,如何安全地使用这些技术,同时不妨碍用户隐私,将会是各大科技公司面临的一道难题。同时,也希望在今后的技术创新中,这些企业能够以人性化、透明化的方式来应对可能存在的隐私问题,以便在为用户提供便利的同时,坚守隐私与安全的底线。


[招生]系统0day安全班,企业级设备固件漏洞挖掘,Linux平台漏洞挖掘!

收藏
免费 0
支持
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回
// // 统计代码