对人工智能信任度的衡量——研究人员发现,公众对人工智能的信任度因应用而异

(ChinaIT.com讯)在人工智能 (AI) 在社会中日益凸显的推动下 , 东京大学的研究人员调查了公众对人工智能伦理的态度 。 他们的研究结果量化了不同的人口统计和伦理情景如何影响这些态度 。 作为这项研究的一部分 , 该团队开发了一种类似于评级系统的八边形视觉指标 , 这可能对希望了解公众如何看待他们的工作的人工智能研究人员有用 。
对人工智能信任度的衡量——研究人员发现,公众对人工智能的信任度因应用而异

文章插图

【对人工智能信任度的衡量——研究人员发现,公众对人工智能的信任度因应用而异】许多人认为 , 技术的快速发展往往超过了隐式指导和规范它的社会结构 , 例如法律或伦理 。 人工智能就是一个特别的例子 , 因为它似乎一夜之间就在很多人的日常生活中变得如此普遍 。 这种扩散 , 再加上人工智能相对更熟悉的技术的复杂性 , 可能会引发人们对现代生活这一关键组成部分的恐惧和不信任 。 谁不信任人工智能 , 以及在哪些方面不信任对人工智能技术的开发人员和监管机构很有用 , 但这些问题并不容易被量化 。
东京大学的研究人员在 Kavli 宇宙物理数学研究机构 (Kavli Institute for the Physics and Mathematics of the Universe) 的 Hiromi Yokoyama 教授的带领下 , 着手量化公众对人工智能伦理问题的态度 。 通过对调查的分析 , 该团队特别试图回答两个问题:态度如何根据呈现给受访者的情景而改变 , 以及受访者本身的人口统计数据如何改变态度 。


    特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。