最新新闻
我要投稿
联系电话:027-87592219/20/21转188
投稿邮箱:tb@e-works.net.cn
您所在的位置:首页 > 视点

人工智能的未来将迈向通用化

发布时间:2016-10-19 作者:Mike 
关键字:人工智能 
未来五到十年,人工智能会比人类更善于做一些最基础的任务。也许他是对的,但是,同样清楚的是,他讨论的是狭义人工智能:从事特别任务,比如语音识别,图像分类以及游戏。

    像Watson一样令人印象深刻的、需要大量手动调整的系统是一块通向智能道路上的最好的踏脚石。任何的通用人工智能和大多数的狭义人工智能系统都将可能结合多种算法,而不是使用单一的、尚未被发现的主算法。

    但这种用来得到良好结果的调整是一个主要的限制:AlphaGo团队负责人 Demis Hassabis说这样的调整“几乎像是一种艺术形式。”如果取得好结果需要花几年时间,并且只有一些专家(Hassabis说有几百人)有能力做这项工作,那么它还是“人工智能”吗?

    类似Watson这样的引擎的创造过程是科学,然而也需要许多艺术。另外,手动优化的需求表明人工智能系统的建立方式本质上是狭隘的,只能解决单一的问题。很难想象去优化一个能够解决任何问题的“通用智能”引擎。如果你正在做这件事,那么几乎可以肯定,那是一些特定应用。

    人工智能方面的进步取决于更好的算法,还是更好的硬件?如果这个问题还算有意义,那么答案就是“同时”。即使GPU进展的时间速率已经停止,我们把更多东西塞进一张芯片的力还没有停滞:AlphaGo的280个GPU能够轻松平均20万个核心。

    更重要的是,我们已经看到了许多用于GPU的数学库和工具方面的改进。我们可能还会看到ASIC(application-specific integrated circuit )和FPGA( field-programmable gate arrays)在未来的人工智能引擎中的使用。反过来,ASIC 和 FPGA 将成为在许多需要硬实时状态(hard real-time)运行的硬件系统(想想自动驾驶汽车)中嵌入人工智能的关键。

    但即使有了更好的硬件,我们仍然需要分布于成千上万个节点中的算法;我们需要能够飞速地重新编程FPGA的算法,以适应待解决问题所使用的硬件。MapReduce在数据分析中很流行是因为它提出了一个并行化一大类问题的方法。

    并行显然在人工智能中起作用,但它的限制是什么?并行的残酷现实是,其不可被并行的部分能把你折磨死。而大多数并行算法的标志是,你需要一个用以收集部分结果并产生单一结果的阶段。AlphaGo在计算下一步棋时可能正在查看成千上万个选择,但在某一点上,它需要浏览所有的选项,评估哪个是最好的,并给出一个单一结果。

    AlphaGo可以利用280个GPU的优势;那么一台有280,000个GPU的计算机怎么样?毕竟,迄今为止我们所制造的最大计算机的计算能力只相当于一只老鼠大脑的一小部分,更不要说与人类相比了。如果是不依赖于并行设计和神经网络的算法呢?在一个路线中的每个元素都采取不同方法来解决问题的系统当中,你如何运用反馈?像这样的问题有可能在不久的将来推动人工智能的研究。

    在人工智能算法中使用更多(更快)的硬件有可能使我们获得更好的围棋手、国际象棋手和Jeopardy玩家。我们将能更快更好地分类图像。不过这是我们目前可解决问题的一项改进而已。更多计算能力将会把我们从监督学习领到无监督学习吗?它会把我们从狭义的智能引到通用智能中吗?这还有待观察。无监督学习是一个难题,而且我们并不清楚能否只通过使用更多硬件来解决它。我们仍然在寻找一个可能并不存在的“主算法”。

    道德和未来

    对超智能的谈论很容易把人吓到。而且据一些人说,现在是时候决定我们想要机器做什么了,趁现在还未为时已晚。尽管这种立场可能过于简化了,但思考如何限制我们还未造出来的设备是非常困难的;而且它们的能力我们现在还无法想象,可能未来永远也无法理解。

    拒绝人工智能也是很困难的,因为没有任何技术是在人类事先考虑周全之后才被发明出来的。在历史的不同时期人们害怕的许多技术现在已经司空见惯:在某个时候,很多人认为以超过每小时60英里的速度旅行是致命的。苏格拉底反对书写,因为他担心这会导致健忘:想象一下他会如何看待我们今天的技术!

    但我们可以思考人工智能的未来,以及我们开发协助我们的人工智能的方式。这里给出了一些建议:大部分对超人工智能的恐惧都不是在害怕我们已经知晓或理解的机器,他们害怕的是最糟糕的人性加上无限制的力量。我们无法想象一个思考着我们不能理解的想法的机器;我们想象那是不可战胜的希特勒或斯大林——我们确实能理解他们的想法。我们的恐惧本质上是人类的恐惧:对像人类一样行为的万能机器的恐惧。

    这并不是诋毁我们的恐惧,因为我们已经见到机器学习确实能向人类学习。微软不幸的Tay是对话型人工智能Bot从网络对话中“学会”种族主义和偏见的完美案例。谷歌的图像分类曾将黑人夫妇识别为“猩猩”,这个糟糕的测试结果的原因是训练数据集中没有足够的合适标注的黑人图片。

    机器学习成为种族主义者的方式和人类差不多一样:因为这是我们教它们那样做的,不管是有意还是无意。这是一个人类问题,而且是一个可以解决的问题。我们可以在人工智能学习的内容和方式上更加小心。

    我们可以对我们的训练集中的内容以及这些训练集的标注方式更加谨慎,我们可以过滤我们认为可以接受的答案类型。这些没什么是特别困难的;但却是必须要做的。更困难的是在目前的环境中让人们达成共识:认为种族主义和仇恨是不好的。

    这是人类价值观的问题,而不是机器智能的问题。我们会构建出反映了我们自身价值观的机器:我们已经在那样做了。它们是我们想要反映的价值吗?

    白宫对数据科学的报告《Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights(大风险、大机遇:大数据和民权的交集)》在总结章节中提到,我们需要研究审核算法的方法,以“确保人们被公平对待”。随着我们从“大数据”走向人工智能,对算法的审核以及确保它们反映我们所支持的价值观的需求将只会增长。

6