当前位置: 首页 > 刨根问底

人工智能会做那么多事,为什么还常常智障?

06-28

当人工智能的艺术气质溢出屏幕,它的作品能有多惊艳?

比如沙滩上的柯基:

人工智能会做那么多事,为什么还常常智障?


江户时代的米老鼠:

人工智能会做那么多事,为什么还常常智障?


骑着马的宇航员:

人工智能会做那么多事,为什么还常常智障?


梦想着星星的浣熊宇航员,头盔玻璃上反射着宇宙:

人工智能会做那么多事,为什么还常常智障?


维多利亚时代,一个兔子侦探坐在公园的长椅上看报纸:

人工智能会做那么多事,为什么还常常智障?


上面这些作品,都出自 OpenAI 的 DALLE-2 之手。

DALLE-2 善于创作各种风格的图像,从宣传上来看,不管你想要一副怎样的画作,只要你能用文字描述给它,它就能创作出对应的图画。

因其或磅礴、或写实、或细腻的画风,不少平面设计师心头微颤,仿佛下一秒,失业窘境就要到来。

可就是这样一位全能画手,当你希望它“把一个蓝色立方体放在一个红色立方体的上面,旁边是一个较小的黄色球体”时,DALLE-2 就搞不定了。

面对 DALLE-2 交出的答卷,人工智能专家马库斯表示,这十张图很美,但很可惜,没有一张符合描述。

人工智能会做那么多事,为什么还常常智障?


仅在过去几个月中,站在人工智能热潮中的除了绘画奇才 DALLE-2 外,还有很多厉害角色。

比如能够进行推理的谷歌 PalM,能够处理一系列任务的 DeepMind 选手 Gato 等。

在这些成就面前,一些人对深度学习 (大多数现代人工智能基于的分层神经网络方法) 大加赞扬,声称只要扩展这些模型,就能达到类人智能的高度。

但还有一些人认为,人工智能仍然缺少一些根本性的东西。

到底是什么呢?不久前,谷歌工程师 Blake Lemoine 的一番言论,我们可以从中窥见一二。

Blake Lemoine 对外宣称,人工智能系统 Lamda 令人印象深刻的语言能力背后,可能有一个具有感知能力的头脑。

言外之意,人工智能系统 Lamda 很可能有了自己的意识。

尽管谷歌否认了这种说法,但还有很多与 Blake Lemoine 观点类似的人,他们对「人工智能是否已具有感知」这个问题非常着迷。

当前的人工智能,知道自己在做什么吗?

一、物理天才与抛锚的汽车

美剧《生活大爆炸》中,有这么一个有趣的剧情。

几位物理天才外出,汽车却在半道儿上抛锚了。

面对此情此景,其中一位叫伦纳德的精神小伙发问:“有人了解内燃机吗?”

同伴们得意的回答:“当然,这已经是 19 世纪的科技,属于基本常识。”

伦纳德眼中一亮:“那有谁知道怎么修理内燃机吗?”

岂料同伴们来了个摆手三连:“不懂,不懂,完全不懂。”

这个情节藏着一个问题:到底什么才算“理解”?

比如说,A 能看到红色,可他对颜色理论、光的传播、眼睛的构造、视觉神经等一无所知,而 B 知晓上述所有原理,可他是个色盲。

于是问题来了:到底谁才算理解红色呢?

通常来说,当人们试图证明自己理解一件事时,就会给出一种充满因果关系的解释,但很显然,这种说法的说服力并不强。

要知道,人类的大脑约有 800 亿个神经元,但它们的运行,似乎并不需要依靠因果关系。

对于「理解」这个词来说,如果都不存在一个严格的区分边界,那我们又该如何知道在人工智能系统中,是否已经暗自开场了一场理解革命呢?

二、人工智能VS理解

在人工智能领域,研究者们期待的远方,叫做通用人工智能,也就是能像人一样思考的智能体。

随着神经网络和深度学习的巨大成功,不少人工智能大咖认为,扩展现有的训练方法,借助更大的算力做支撑,通用人工智能并不遥远。

而文章开头提到的 OpenAI 研究员 Sam,认为在目前的人工智能中,或许已经出现了某种形式的理解。

“它确实似乎在很多层面上理解了概念,以及那些概念如何以复杂的方式相互关联。”

聚焦于这个观点,Sam 给出了几条理由。

1、悬赏进化

2021 年,在一篇题为《奖励就足够》的论文中,DeepMind 的研究人员提出了一个假说:最大化奖励足以产生智力。

这种假说认为,在富足的环境中,如果对智能体实施最大化奖励,就可以实现一般人工智能,因为环境的复杂性会迫使智能体学习复杂的能力,如社会智能、语言等。

要理解奖励的概念,我们需要知道什么是强化学习。

强化学习是一种机器学习方法,是让智能体通过与环境互动来进行学习。

打个比方,假设你想开发一个象棋机器人。

象棋机器人每做错一个动作,我们就给它一个负奖励(比如说 -1) ,而当它做出正确动作,我们就给它一个正奖励(+ 1) ,如果赢了比赛,我们就给它 + 10。

一开始,象棋机器人会随机做出对任何人都没有意义的动作。

而经过数百万次迭代,象棋机器人的行为将开始有意义:学习游戏规则,学习如何开发新的战略,并开始赢得比赛。

这就是训练 AlphaGo 所用的方法。

2016 年,AlphaGo 取得了 18 次击败世界冠军李世石的成绩,令人振奋。

《奖励就足够》假说的作者认为,“报酬最大化足以推动行为表现出自然智能和人工智能所研究的大部分智能属性,包括知识、学习、感知、社会智能、语言和概括。”

一个动态的环境,能够不断抛出需要适应的新变化。

当环境发生新变化时,原有的知识与方法很可能会失效,这就需要识别出环境变化前后的共同点,找出其中的模式和规则,从而构建出一套规则,能够对未来可能出现的变化,做出高质量的假设和预测。

当前,大多数人工智能算法存在于数字环境中,与数据紧密相连,所以它们的智能进化程度,受到输入数据的限制。

但尽管如此,并不意味着它们无法对自己所处的虚拟世界形成任何理解。

2、数据即理解

虽然我们无法像人工智能一样,仅仅借助像素和代码理解这个世界,但谷歌软件工程师布莱斯称,这仍然算是一种理解方式。

“在任何可证伪的意义上,统计数据确实相当于理解。”

布莱斯指出,虽然我们可以问一个语言模型 (以 LaMDA 为例) :你最喜欢的岛屿是什么?

不管 LaMDA 给出怎样的答案,那都是胡扯。

一个没有身体的模型,也从未踏上过任何岛屿,更没有感受过沙子穿过脚趾间,但很多时候,人类就是这么奇怪的存在,对人工智能的目标不是诚实,而是让它给出可信的反应。

你瞧,人类训练它如何产出假话和废话,说来有趣,它确实表现得优秀。

“对一个概念的理解可以是肤浅的,也可以是高度细微的;可以纯粹基于抽象,也可以基于真实的运功感知;可以是情绪状态,也可以不是。很多时候,我们其实并不知道如何区分‘真正的理解’和‘虚假的理解’”。

只要有需要提取的信号,需要收集的价值,将哪种形式的数据输入系统并不重要,就像盲人学习颜色,人工智能也能迈上“理解”的台阶。

神经活动就是神经活动,无论是来自眼睛、耳朵、指尖还是网络文档。

3、失落的碎片

并不是每个人都相信,扩展神经网络并使它们朝着单一目标前进,就足以构建一个知道自己在做什么的人工智能。

“贝叶斯网络之父”朱迪亚·珀尔,就是其中之一。

在朱迪亚·珀尔看来,尽管现有的机器学习模型已经取得巨大进步,但遗憾的是,所有的模型,都是在对数据进行精确的曲线拟合。

从这一点来说,现有的模型,只是在上一代的基础上提升了性能,但在基本的思想方面,没有任何进步。

要想改变“有多少人工,就有多少智能”的困境,需要一场「因果革命」。

于是,珀尔提出了「因果关系之梯」,分出三个层次:

1)联想:发现变量之间的相关性,认识到一件事情会反映另一件事情,比如症状与某种疾病有关;

2)干预:发现变量的相互作用,找出操纵一个变量从而改变另一个变量的可能性,比如阿斯匹林能否治疗头痛,吸烟是否会增加患癌风险;

3)反事实:考虑过去事件的替代方案,合理预测可能发生的情况。比如《黑客帝国》中,如果 Neo 吃下了蓝色药丸会发生什么?

珀尔认为,一个能够“理解”的人工智能,至少能够在第二层次上进行推理,认识到疾病引起症状,而不仅仅是与症状相关。

但第三层,才是魔法发生的地方。

要做到这一点,就需要在基于现实的概念模型中编程,让计算机构建自己的逻辑,并通过经验完成验证。

在《大西洋月刊》上,珀尔写到:“如果剥夺了机器人对因果联系的直觉,你就永远无法进行有意义的交流。”

三、荒原尚存

从“深蓝”战胜棋王卡斯帕罗夫、“阿法狗”战胜世界围棋冠军李世石,再到今天众多全能 AI 选手的出现,人工智能的进步有目共睹。

但站在“理解”这个层面上来看,一些人工智能只能触及表面。

比如给定一个目标和一个动态的环境,例如一个能打分数的视频游戏,人工智能可以与不同的功能进行互动,以了解发生了什么,以及它需要做什么才能“赢”。

在生成图像或文本时,我们的反馈或评分系统,或许会帮助人工智能以自己的方式理解它在做什么。

不过,在许多情况下,目标只是为了给我们留下深刻的印象,而它们可能会对自己所处的领域形成一种理解ーー无论是数据、文本、图像还是它们的组合。

但他们会以自己的方式理解这些领域,因为这些与实现自己的目标有关。

也许深度学习可以最终掌握连接现实世界的窍门,比如拥有足够的计算能力和接触不同模式的途径,也许最终你只需要奖励就能到达那里,就像《奖励就够了》假说那样。

但是,也许我们可以通过教它一些我们已经知道的核心技能,比如逻辑规则、符号操作和“婴儿形而上学”,来省去很多麻烦。

总的来说,固然谷歌、OpenAI 和 DeepMind 都在持续发展 AI,但人工智能的理解力还非常基础,它们的知识局限在一个过度简化的世界里,距离人类理解的广度、深度以及丰富度,还有很长的距离。

人工智能已经迈出了第一步,但距离我们期待的远方,途中仍有很多荒原亟待解锁。

参考资料:

1、Google engineer says Lamda AI system may have its own feelings

2、
https://www.deepmind.com/publications/reward-is-enough

3、Can we develop AGI with reinforcement learning? — A summary of ‘Reward is enough’ paper


文 | 木子Yanni

嗨,这里是浅黑科技,在未来面前,我们都是孩子。

想看更多科技故事,欢迎戳→微信公众号:浅黑科技:qianheikeji

人工智能会做那么多事,为什么还常常智障?(图7)