集中的思考,会突然迸发出一些观点,这些都可以服务于更高的理论或解释。
人工智能本质上是用演化代替计算,利用不断的求得局部最优解替代全局最优解的过程,这个过程对应两种外部的环境:
- 有限的游戏:包括对我们而言近似无穷,但依然有限的游戏,围棋
- 无限的游戏:真实世界
有限的游戏是可算的,线性的,时间可逆的,因此即便其可能性巨大,但人工智能可以肯定的,必然的在一定的时间尺度上获得一个不断逼近全局最优解的算法积累。
无限的世界是不可算的,非线性的,时间不可逆的,因此即便对于人而言容易掌握(如语言)的领域,人工智能也不可能得到一个肯定的,必然的,逼近全局最优解的算法积累。这不代表算法会维持在一个错误的概率区间无法进步,而是算法可能突然断崖性的失效。
这是非常重要的,因为如果人工智能需要被应用于“真实世界”,那么唯一必然的事情,即是在一定的时间尺度上,人工智能的算法会走向无序。
因此那种应对“真实世界”的人工智能,例如同传、自动驾驶、写作、对话,必然不可能得到可以不间断积累的,无风险的技术解决方案,必然需要在以下几个框架下工作:
1. 在统计可接受的错误区间内停止算法的积累,形成稳定的版本(依然是经验主义的,这样的版本出错也是必然的概率问题,且概率不可计算)
2. 将“真实世界”逼近“有限的游戏”,例如针对“自动驾驶”设置专用道路和一系列辅助自动驾驶的专用信号系统。第二种,找到细分领域,促使人工智能在细分领域内工作。当然这两个例子的内在逻辑是一致的。
因此,泛用型的强人工智能是必然不可能的,甚至在某些领域,泛用型的人工智能也完全不可能(例如语言的处理)。
人工智能能够解决的问题也是相当有限的,必然不可能在“有意识”的领域,即具有无限的反身性或无限递归的领域得到突破,所以破解神经系统的秘密,以实现对意识的掌握甚至人脑信号电子化的永生,也是不可能的。也就是所谓的“奇点降临”,突然的技术的无限进步,理论上是可能的,但是同时,同样的技术路线,也可能会导致技术的突然崩溃,这两者的概率应该是非常近似的。
那么我们是否可以在幸运的技术无限进步的可能下,将其停止积累,形成稳定的版本呢?不可能,因为应对无限的游戏,我们除了“经验主义”,并没有对技术状态的判断能力,这让我们回到了休谟和塔勒布提出的疑问,我们没有必然的,能够判断出技术结果概率的能力,因此针对算法的,而非计算的路径,应对真实世界,所谓“技术进步”或“技术崩溃”,对我们而言是不可知的。
人工智能会非常有用,但恐怕无法达到我们现在对他的期待。
联系客服