人类设计出的超过人类自己的智能体会怎样

ztl 评论 超级智能 3 2016-10-06 13:08:44
NullPointer
NullPointer (我是将被时间摧毁的一切。) 2016-10-06 13:42:34

危机在于,超级智能不会凭空出现,有一个必然的演进过程,在它于人相似直至超越人类的过程中,两类愚蠢但又智慧的生命的战斗是致命的

ztl
ztl (夜正长,路也正长) 2016-10-06 13:45:01

如何解释其动机来源?

NullPointer
NullPointer (我是将被时间摧毁的一切。) 2016-10-06 14:12:06

如何解释人类的动机来源? 我的意思是,超越于人类的新智能不会biaji一下出来。。在其一点点变强的过程中,只要机器一旦超越人类控制,机器又未曾真的超然于斗争,就会糟糕。。

ztl
ztl (夜正长,路也正长) 2016-10-06 16:12:49

我知道。我是温机器的这种斗争的动机从何而来?

NullPointer
NullPointer (我是将被时间摧毁的一切。) 2016-10-06 16:15:12

可以来自它的原始设计框架,比如一个企图通过达尔文过程来演进出更优智能的工程师设计了一个竞争求存的框架。

ztl
ztl (夜正长,路也正长) 2016-10-06 16:24:26

假如是通过适应环境提高智能的达尔文过程,那么这个人工智能生出来就跟人形成竞争,就会来不及发展估计就被人类干掉了,除非它的智能从一出生就达到了对抗人类社会的水平,我觉得这是不太可能的,没有时间和环境给它进化。

saintdump
saintdump (Ghost in the Shell) 2016-10-08 13:21:32

1、人工智能的进化过程可能成为一个黑箱,比如AlphaGo是怎么学习围棋的其实人并不全清楚,所谓神经网络只是掌握一个大概的逻辑;2、人工智能没有基于人类的伦理道德,它们是没有斗争动机,但也没有维系人类种族存在的动机(要么像黑客帝国里把人类当电池用)。以上两点结合起来是挺可怕的,不过目前AI的发展水平距离可怕还很远。

ztl
ztl (夜正长,路也正长) 2016-10-08 14:30:39

1. 也就是仿人脑的智能。相比之下,机器能够进行海量计算和海量存储,这使得采用相同策略,机器能够超过人类智能。不过,这种智能是否能够产生一个“自我”?否则只是一个运算机器,只是给出结果。2. 人工智能既然没有动机,也就不会行动。不会行动,也就无需伦理束缚。这两点如何结合呢?P。S。不是说人的大脑作为复杂系统带有什么自组织、混沌效应什么,还有大脑模块竞争,这些在机器上我同样觉得可能暂时难以实现。