是时候谈谈可信AI的问题了

央广网北京12月18日消息(采访人员 万玉航)你是否也遇到过类似的困扰?刚跟朋友聊起某个新款手机 , 一会儿就在APP上收到该产品的测评广告;正要在社交网站上传自己的美照 , 就看到新闻爆出“照片合成瞒过检测系统诈骗钱财”的消息……这些细思极恐的现象让越来越多人感到不安:原来我们在享受着人工智能带来便捷的同时 , 也面临着不少安全漏洞和信任危机 。
大数据时代 , 每个人都与“数据”息息相关 。 今天 , 人工智能在大数据的基础上赋能百业 , 打造了数字经济的新引擎 , 推进人类文明迈上新台阶 。 虽然公众对人工智能接受程度越来越高 , 但其应用中存在的风险问题 , 让全社会迫切地需要AI技术更加“可靠” 。
如何更好地让AI技术为人所用?如何如何让数据在安全环境下被合理地开发和利用?12月14日 , 京东探索研究院的算法科学家何凤翔 , 中国信息通信研究院华东分院人工智能与大数据事业部主任陈俊琰 , 华控清交信息科技(北京)有限公司标准负责人、战略总监王云河在“谈云说AI”技术产业沙龙首季第一期的现场 , 深度探讨了“如何平衡好AI技术的可信与可用” , 为可信AI的发展出谋划策 。
是时候谈谈可信AI的问题了
文章图片

(图片来源:CFP)
可信AI的两大瓶颈:算法安全和数据保护
在专家看来 , 无论是目前常见的个性化推送、个人信息诱导上传还是未来有望大规模应用的自动驾驶、智能诊疗 , 这些人工智能应用的背后都涉及到“算法安全”这个核心问题 。
当下 , 机器学习模型大多仍然是“黑盒模型” , 简单地解释就是 , 很多时候可以拿来用 , 但具体原理并不十分清楚 , 即缺乏足够的“可解释性” 。
何凤翔认为 , 如果我们不太了解算法背后的机制 , 就很难预测人工智能的风险从哪里来、风险机制怎么样、尺度如何 。 “我们不太能管理风险 , 这样AI算法就很难被用在关键领域中 , 包括医疗诊断、自动驾驶这种人命关天的行业 。 所以打破AI技术现今固有的黑盒模式 , 算法方面的突破是关键 。 我们需要深刻理解算法 , 然后在此基础上设计出可以被信赖的算法 , 才能够更好应对应用风险 。 ”
王云河则表示 , 算法模型的训练和优化 , 离不开可追溯的数据 。 数据通过流通共享与协同计算 , 能更好地释放其价值 。 但隐私保护、数据合规等监管要求 , 让数据拥有方陷入“不愿共享、不敢共享、不能共享”的困境 , 而“多方安全计算”或许有可能成为解决数据获取和应用困境的突破口 , 即在保护数据本身不对外泄露的前提下 , 实现数据分析计算的一类技术集合 , 具备“可用不可见 , 可控可计量”的特点 。
“可用不可见 , 是指在相关法律要求下 , 数据对使用者是不可见的 , 以确保对用户的安全性;可控可计量 , 是在不能明文的基础上 , 建立多方信任机制 。 参与进来的机构、个人 , 身份要统一管理 , 要对数据和模型合规性进行审核 , 再让多方对此达成一致执行 , 也就是计算合约 , 以控制计算用量 。 ”
在实现数据的保护性利用后 , 进一步解决的是数据溯源问题 。 王云河认为 , 在计算的过程中加上存证、区块链技术等 , 有助于在发现模型造成了一些社会的恶劣影响时 , 找到记录和数据源头 。 “用这项技术解决模型有没有问题 , 数据是不是合法 , 数据有没有被“投毒”等隐患 , 帮助AI 打造安全底座 。 ” 。
打造可信AI的生态空间 需要标准先行

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。