5200小说
会员书架
首页 >科幻灵异 >西游科技 > 第二百一十四章 隔壁老王

第二百一十四章 隔壁老王

上一页 章节目录 加入书签 下一页

首先,广义上来讲,在创造超人工智能时,我们其实是在创造可能一件会改变所有事情的事物,但是我们对那个领域完全不清楚,也不知道我们到达那块领域后会发生什么。

科学家Danny Hillis把这个比作“就好像单细胞生物向多细胞生物转化的时候那样,还是阿米巴虫的我们没有办法知道我们究竟在创造什么鬼。”

Bostrom则担忧创造比自身聪明的东西是个基础的达尔文错误,就好像麻雀妈妈决定收养一只小猫头鹰,并且觉得猫头鹰长大后会保护麻雀一家,但是其它麻雀却觉得这是个糟糕的主意。

当你把“对那个领域完全不清楚”和“当它发生时将会产生巨大的影响”结合在一起时,你创造出了一个很恐怖的词——生存危机。

可以想见,生存危机是用来指那些跨物种、跨代(永久伤害)并且有严重后果的事情。它可以包括人类遭受永久苦难的情况,但是这基本上和灭绝没差了。三类事情可能造成人类的生存危机:

哪怕是吃了人参果和蟠桃唐玄生也不是十分自信。除非是自己培育的黎山老母留下的大红袍真的长出各种奇异的果实。

想到这个唐玄生有些羡慕糖糖和孙小圣。他也不知道当自己的生命结束时糖糖和孙小圣会怎样。

很多人会误以为机器人可能毁灭人类会是因为他们厌恶人类或者说对人类失去好感。其实不然。

就像我们随手灭掉一窝蚂蚁并不是我们非要对蚂蚁厌恶一样,理性是基于人类基因而言的。

为什么霍金会说超人工智能会毁灭人类?为什么比尔盖茨会不理解为什么有人不为此担忧?为什么马斯克会担心我们是在召唤恶魔?

自然——大型陨石冲撞,大气变化使得人类不能生活在空气中,席卷全球的致命病毒等。

外星人——霍金、卡尔萨根等建议我们不要对外广播自己的位置。他们不想我们变成邀请别人来殖民的傻子。

为什么那么多专家担心超人工智能是对人类最大的威胁?这些站在焦虑大道上的思想家,不认同对于人工智能的危险的粉饰。

他们非常非常担心人工智能革命,他们不关注平衡木下比较有趣的那一个吸引态,而是盯着平衡木的另一边,而他们看到的是可怕的未来,一个我们未必能够逃离的未来。

我想了解人工智能的一个原因是“坏机器人”总是让我很困惑。

那些关于邪恶机器人的电影看起来太不真实,我也没法想象一个人工智能变得危险的真实情况。机器人是我们造的,难道我们不会在设计时候防止坏事的发生吗?

我们难道不能设立很多安全机制吗?再不济,难道我们不能拔插头吗?而且为什么机器人会想要做坏事?或者说,为什么机器人会“想要”做任何事?我充满疑问,于是我开始了解聪明人们的想法。

小说APP安卓版, 点击下载
点击切换 [繁体版]    [简体版]
上一页 章节目录 加入书签 下一页