近日,卡巴斯基在其官方博客上发布了《2022年隐私预测》,给出了对2022年隐私安全威胁的五大趋势预测。

隐私保护技术是2021年热门话题之一,尽管对某些实现(如NeuralHash或Federated Learning of cohort)的意见不一。 然而,像Siri的设备上声音处理和Android的私有计算核心,都是向用户隐私迈出的一大步。 我们也看到了许多新的私人服务,许多关注隐私的公司开始向货币化迈出了第一步,同时在iOS和Android平台上,在技术和营销方面都对隐私进行了更大的推动。 Facebook(Meta)也为用户提供了更多的隐私,在WhatsApp上提供端到端加密备份,并从Facebook上完全删除了面部识别系统。

1. BigTech将为人们提供更多的隐私管理工具

由于企业必须遵守全球范围内更加严格和多样化的隐私规定,它们在用户使用服务时为他们提供了更多的工具来控制自己的隐私。 有了更多的旋钮和按钮,有经验的用户也许能够将自己的隐私设置到适合自己需要的程度。 对于不太懂电脑的人来说,不要指望默认的隐私:即使在法律上有义务默认提供隐私的情况下,依赖于数据收集的企业也会继续寻找漏洞,诱使人们选择不那么隐私的设置。

2. 各国政府对商业形态的数据囤积保持谨慎态度

随着政府建设自己的数字基础设施,让更简单和更广泛的政府服务,希望,更透明和问责,以及更深入地了解人口和更多的控制, 他们会对流经大型商业生态系统的公民数据表现出更大的兴趣,这并不奇怪。 这将导致更多的监管,如隐私法、数据本地化法,以及执法部门对哪些数据和何时可获取的更多监管。 苹果CSAM扫描隐私难题恰恰表明,要在加密和用户隐私之间找到平衡,并找出犯罪行为是多么困难。

3. Machine Unlearning 机器遗忘

现代机器学习通常需要训练具有惊人数量参数的巨大神经网络(虽然这并不完全正确,但人们可以将这些参数视为大脑中的神经元),有时达到数十亿的数量级。 正因为如此,神经网络不仅能学习简单的关系,还能记忆整块数据,这可能导致私人数据和版权材料的泄露,或社会偏见的重现。 此外,这导致了一个有趣的法律问题:如果一个机器学习模型使用我的数据进行训练,例如,在GDPR下,我是否可以要求删除我的数据对模型的所有影响? 如果答案是肯定的,那么这对数据驱动的行业意味着什么? 一个简单的答案是,公司将不得不从头开始对这种模式进行再培训,这有时可能代价高昂。 这就是为什么我们期待更有趣的发展,无论是在防止记忆的技术(如差异化的私人训练),还是那些使研究人员能够从已经训练过的系统中删除数据的技术(机器遗忘)。

4. 监管机构将提高对算法的透明度的要求

从信用评分到人脸识别再到广告,机器学习等复杂算法越来越多地被用于在各种情况下对我们做出决策。 虽然有些人可能喜欢个性化,但对其他人来说,这可能会导致令人沮丧的经历和歧视。 想象一下,一家在线商店根据一些模糊的LTV(终身价值)预测算法,将用户分成价值更高和价值更低的两类,并为其更有价值的客户提供实时客户支持聊天,而将不那么幸运的购物者留给一个远非完美的聊天机器人。 如果电脑认为你是一个劣等客户,你想知道为什么吗? 或者,如果你被拒绝使用信用卡? 抵押贷款吗? 肾移植? 随着越来越多的行业被算法所触及,我们期待更多关于解释、竞争和修改自动化系统所做决策的讨论和法规,以及对机器学习可解释性技术的更多研究。

5. “在家工作”促使更多人关注个人隐私

如果你因为疫情而在家工作,你很可能已经学会了很多新的IT俚语:虚拟桌面基础设施、一次性密码、双因素安全密钥等等——即使你在银行或网上零售工作。 即使大流行结束,在家工作的文化也可能会持续下去。 由于人们在工作和个人需求上都使用相同的设备,企业安全服务将需要更多具有安全意识的用户来保护这个更大的边界免受攻击和泄露。 这意味着更多的安全和隐私培训,以及更多的人将这些工作技能,如使用2FA,应用到他们的个人生活中。

来源:Kaspersky predictions on privacy trends in 2022 | Securelist