最新新闻
我要投稿
联系电话:027-87592219/20/21转188
投稿邮箱:tb@e-works.net.cn
您所在的位置:首页 > 视点

人工智能的未来将迈向通用化

发布时间:2016-10-19 作者:Mike 
关键字:人工智能 
未来五到十年,人工智能会比人类更善于做一些最基础的任务。也许他是对的,但是,同样清楚的是,他讨论的是狭义人工智能:从事特别任务,比如语音识别,图像分类以及游戏。

    在《Artificial Intelligence: A Modern Approach》一书中,Peter Norvig 和Stuart Russell写道:“当莱特兄弟和其他人停止模仿鸟类并开始学习空气动力学时,对『人工飞行』的追求才获得成功。”

    类似地,要取得成功,人工智能不需要将重点放到模仿大脑的生物过程上,而应该尝试理解大脑所处理的问题。可以合理地估计,人类使用了任意数量的技术进行学习,而不管生物学层面上可能会发生什么。这可能对通用人工智能来说也是一样:它将使用模式匹配(类似AlphaGo),它将使用基于规则的系统(类似沃森),它将使用穷举搜索树(类似深蓝)。

    这些技术没有一种能与人类智能直接对应。人类比任何计算机都做得更好的是构建他们的世界的模型,并根据这些模型采取行动。

    超越通用智能后的下一步是超智能(super-intelligence 或 hyper-intelligence)。目前我们还不清楚如何区分通用人工智能和超智能。我们期望超智能系统会具备创造力和直觉等性质吗?鉴于我们对人类的创造力还不甚理解,思考机器的创造力就更为困难了。

    围棋专家称AlphaGo的一些落子是“创造性的”;但它们源自与其它所有落子完全一样的过程和模式,而并非以一种新的视角看待这项游戏。同样算法的重复应用可能会产生让人类感到惊讶或意外的结果,但仅仅的惊讶并不是我们所说的“创造力”。

    将超智能看作一个规模问题会更容易一点。如果我们可以创造“通用智能”,可以很容易估计出它将很快就比人类强大成千上万倍。或者,更准确地说,通用人工智能要么将显著慢于人类思维,难以通过硬件或软件加速;要么就将通过大规模并行和硬件改进而获得快速提速。

    我们将从数千个内核GPU扩展到数千个芯片上的数以万亿计的内核,其数据流来自数十亿的传感器。在第一种情况中,当加速变缓时,通用智能可能不会那么有趣(尽管它将成为研究者的一次伟大旅程)。在第二种情况中,其增速的斜坡将会非常陡峭、非常快。

    训练还是不训练

    AlphaGo的开发者声称使用了远比深蓝更通用的算法来训练人工智能:他们制作了一个只具备最少围棋知识策略的系统,学习主要是通过观察围棋比赛获得。这指明了下一个大方向:我们可以从机器基于标注数据的监督学习走向机器依靠自己组织和结构化数据的无监督学习吗?

    Yann LeCun曾在Facebook的一篇帖子中说到:“在我们想要得到真正的人工智能之前,我们必须解决无监督学习的问题。”

    要对照片分类,一个人工智能系统首先会获得数百万张已经正确分类了的照片;在学习了这些分类之后,它还要使用一系列标注了的照片进行测试,看它们是否能够正确标注这个测试集。如果没有标注,机器又能做什么?如果没有元数据告诉机器“这是鸟,这是飞机,这是花”,它还能发现照片中重要的内容吗?机器能像人和动物一样,只需观察远远更少的数据就能发现模式吗?

    人类和动物都可以从相对很少的数据中构建模型和抽象:比如,我们不需要几百万张图像才能识别出一种新的鸟或在一座新城市找到我们的路。研究者正在研究的一个问题是对视频的未来画面的预测,这将需要人工智能系统构建对世界运作方式的理解。

    有可能开发出能应对全新环境的系统吗?比如在冰面汽车会难以预料的打滑。人类可以解决这些问题,尽管它们不一定很擅长。无监督学习指出,光是靠更好更快的硬件,或开发者只是用当前的库进行开发,问题将无法得到解决。

    有一些学习方法处在监督学习和无监督学习的中间。在强化学习中,系统会被给予一些代表奖励(reward)的值。机器人可以穿过一片地面而不跌倒吗?机器人可以不用地图就驾驶汽车穿过市中心吗?奖励可以被反馈给系统并最大化成功的概率。(OpenAI Gym是一个很有潜力的强化学习框架)。

    在一端,监督学习意味着再现一组标记,这在本质上是模式识别,而且容易发生过拟合。在另一个极端,完全无监督学习意味着学习归纳性地推理关于一个情形的情况,这还需要算法上的突破。半监督学习(使用最少的标注)或强化学习(通过连续决策)代表着这些极端之间的方法。我们将看到它们能达到哪种程度。

    智能的意义

    我们所说的“智能”是一个根本性的问题。在Radar 2014年的一篇文章中,Beau Cronin出色地总结了许多人工智能的定义。我们对人工智能的期待严重依赖于我们希望用人工智能做什么。对人工智能的讨论几乎总是开始于图灵测试。

    图灵假设人们可以通过聊天的方式与计算机交互:他假设了一种与计算机的沟通方式。这个假设限制了我们期望计算机做的事:比如,我们不能期望它能驾驶汽车或组装电路。这也是一个故意的模棱两可的测试。计算机的答案可能是闪烁其词的或完全不正确的,正确无误不是重点。人类智能也可能会是闪烁其侧或不正确的。我们不大可能将正确无误的人工智能误解为人类。

    如果我们假设人工智能必须被嵌入到能够运动的硬件中,比如机器人或自动驾驶汽车,我们会得到一组不同的标准。我们会要求计算机在它自己的控制下执行一个定义不清的任务(比如开车到一家商店)。我们已经打造出了在路线规划和驾驶上比大多数人类都做得更好的人工智能系统。

    谷歌的自动驾驶汽车负有责任的那次事故的原因是该算法被修改得更像人类一样驾驶,并由此带来了人工智能系统通常不会具备的风险。