文章图片
经济观察网 采访人员 沈怡然 在平衡隐私安全监管和数据产业发展的背景之下 , 被给予厚望的隐私计算技术也出现了某些局限和痛点 。 12月15日 , 瑞莱智慧RealAI首席架构师徐世真对采访人员表示 , 如今 , 很多企业意识到了隐私计算发展中的一些限制 , 需求开始变得清晰和专一 , 不再追求大而全的平台 , 往往是对于特定场景大数据量下的具体业务 。
作为一个正在兴起的赛道 , 隐私计算致力于保护数据流通安全性 , 在2020年经历了技术普及和市场教育 , 又受2021年《数据安全法》和《个人信息保护法》两部法律的推动 。 目前隐私计算正进入大规模的概念验证和试点部署阶段 , 但距离规模化应用还有一段距离 , 仍面临互通互联、计算性能、安全性和可用性等核心难点 。
互通性问题
徐世真表示 , 生态壁垒是重要问题 。 隐私计算号称可以解决数据孤岛 , 但实际上 , 它反而会诞生技术孤岛问题 。 目前各家隐私计算的技术互不相通 , 也无法互相连接 。 但业内实现的程度大多是停留在软件层的集成 , 应用中仍涉及大量人工改写的工作 。
徐世真表示 , 不仅仅在技术实现层面 , 这种互不相通也源自一些主观因素 。 各家企业考虑到安全性和知识产权的问题 , 除了在一些开源组件上 , 其它方面不愿意公开自己的底层协议 。 这也带来了协议不透明的问题 , 导致安全性难以审计 , 蕴含明显的安全漏洞 。
徐世真表示 , 某种程度上 , 这种难以兼容互通的情况也曾在AI产业的发展中存在过 。 借鉴AI发展模式 , 一个解决的思路是走底层编译器路线 , 实现数据流图层的兼容互通 , 支持一键改写和适配上层多种算法 , 同时一定程度上将协议公开 , 使安全性可追溯、可验证 。
目前业界也出现了一些数据交易机构 , 但是企业的交易意愿并不强烈 。 徐世真表示 , 隐私计算解决了数据“能”拿出来的问题 , 但没有解决数据价值闭环的问题 。 深度结合场景 , 使业务方从隐私计算中获益 , 才能把隐私计算从成本项变成营收项 , 保证企业有可持续的开放意愿度 。
【隐私计算技术存痛点:生态壁垒、法律合规问题待解决】合规争议
另一个争议在于 , 企业如何使用隐私计算才算合规 。
隐私计算被认为能缓解数据应用和安全之间的矛盾 , 帮助企业解决一些数据合规性的问题 。 中国信息通信研究院云计算与大数据研究所副所长魏凯表示 , 但是 , 隐私计算的使用和合规不能划等号 , 不能武断地认为使用隐私计算就百分之百合规 。
魏凯表示 , 无论是针对隐私计算技术还是人工智能技术的使用 , 法律都不会从合法性上给出确切的定义 , 法规只关注是否侵犯相关的利益 , 关注隐私计算在实践中能否很好地落实法律最小化原则、是否能显著降低泄漏风险 。
所以 , 企业使用隐私计算技术进行数据聚合时 , 是无法完全规避法律风险的 , 比如基于联邦学习的交换数据里面含有梯度 , 梯度仍然可以揭示出一些个人信息的特征 , 具体还要看使用场景和业务逻辑 , 针对具体情况进行法律风险的规避 。
魏凯称 , 隐私计算的使用不能作为逃避法律的挡箭牌 , 技术只是某种程度上降低了产生后果的风险 , 归根到底其实还是要看它的商业模式是否合规 , 数据来源是否合法 , 数据的授权和使用目的是否正当 。
徐世真表示 , 隐私计算不同技术路线各有合规痛点 。 比如性能良好的多方安全计算路线需引入计算辅助方 , 面临可信挑战;传统联邦学习的安全性证明不严谨;硬件TEE方案有较好的性能和算法生态 , 但数据集中式处理 , 依赖厂商硬件的可信赖程度 , 所以需要结合具体场景需求采用合适的技术路线 。
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
