这个话题很好玩 , 这个论坛也很好玩 。
蒋涛:什么是人和机器人的区别 , 人和动物的区别 , 机器人和动物的区别 。 刚才说 , 蚂蚁有没有智能 , 我们可不可以做一个蚂蚁机器人 , 蚂蚁机器人它有没有它自主的行为 , 这里面有很多需要定义的概念 。 我相信机器人会具备我们所认为的智能 , 而且极大可能对社会造成极大的危害 。 如果任由机器人和人工智能的发展的话 。
有本书叫《守护程序》 , 英文名叫“Daemon” , 是美国一个程序员写的 , 说一个游戏公司老板死掉了 , 但是他的游戏 , 在全世界有几亿人用 , 老板在游戏里留了一个后门 , 偷了玩家的所有数据 , 知道玩家的所有行为 。 这个老板有一个信念 , 认为所有发垃圾邮件的人 , 都应该杀掉 。 因为垃圾邮件耽误了我们很多带宽 。 老板设定了一个法则 , 他的程序有一定的智能性 , 可以指挥不同的玩家 , 杀掉发垃圾邮件的玩家 。
我下围棋 , 原来我们觉得围棋不可以被量化 , 因为计算量太复杂 。 高手他有直觉 , 后来你发现 , 直觉是可以被计算的 , 而且也不是那么复杂 。 AlphaG21天或者7个小时 , 就完成了人类3000年的智能进化 。 所以 , 到底什么是人的智能 , 还得定义 。 人工智能会一次又一次突破 , 这有点像超级武器 , 美国已经演示 , 那种很小的飞行物 , 它如果带攻击性是很可怕的事情 , 五十年以后 , 战争是掌握在强人工智能(Strong AI)的手上 。 悲观啊 , 好像霍金也是这个看法 。
黄晓庆:悲观是对的 。 因为有了悲观 , 我们才能建立比较好的机制来监管它 。 我非常认同对未来危险性的有效评估 。 但是我们肯定都知道 , 如果你不去干 , 你的竞争对手就会干 。
蒋涛:最后把自己干死了 。
黄晓庆:就像美国人干原子弹一样的 , 我们知道很可怕 。 但是 , 最想干原子弹的 , 恰恰是美国的敌人 , 就是俄罗斯 , 两弹一星不就是这样产生了 。 我们知道人工智能是危险 , 但是必须要干 , 不干的人 , 就是最傻的人 。 机器人也是一样 , 我们人类要解放生产力 , 最终极的机器 , 就是机器人 。
白丁:我写的书里头都是充斥着机器人 , 机器智慧 , 虚拟世界 , 但从我个人角度来看 , 我对这种危害性一点不担心 。 我在书里头有一章专门解释了这个问题 , 这个里头仍然存在悖论 , 机器人为什么不危险?这个机器人如果有危险 , 是发展到了一个什么样的阶段才有危险 , 为什么要控制人类?甚至毁灭人类 。 它为什么?大家在想我们为什么的时候 , 这是一种自我意识的一种体现 , 换句话说 , 机器人到什么情况下才会危害人类 , 就是它具有自我意识 。
我们看科幻小说 , 电影 , 都是机器人意识到我是我 , 要消灭人类这个异类 。 但是 , 我们这个世界70亿人 , 每一个人都有意识 , 当一个物体变成了生命体 , 拥有自我意识以后 , 他就悲剧了 。 因为它一定会自我分裂 , 它一定有各种各样的不同想法 , 不同的思想 , 不同的主意 , 会有很多机器人希望把人类这个异类给消灭 , 但也会有很多机器人特别喜欢人类 , 就像现在的或者说有史以来的人类 , 从来没有真正团结过一样 , 如果机器人拥有了威胁人类的能力之后 , 他们一定不会团结的 , 他们内部的混乱 , 和人类今天世界的混乱是一模一样的 。 大家完全不用担心 , 只不过世界变得更混乱而已 。 这也是一个悖论 。
刘韧:就更乱了 。 我们还有最后5分钟 。 我们再讲点比较实际的 。 我是觉得这些特别美好 , 我认为元宇宙也是好东西 , 我是想尽快进入这个世界 , 你们有没有进入的路径 , 或者一些想法 , 进入的建议 , 或者进入的计划 , 怎么在这个概念下获益?
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
