协作系统研究主要是研究帮助开发能与其他系统或人类协作的自动化系统的模型和算法。
众包和人类计算研究是研究增强计算系统的方法,增强方式是通过自动调用人类经验,解决计算机不能单独解决的问题。
算法博弈论(Algorithmic game theory)和计算社会选择(computational social choice)吸引了人工智能经济和社会计算领域的注意,比如系统如何处理潜在的不恰当激励机制,包括自私的人类参与者或公司以及代表他们的自动化人工智能代理。
物联网(IoT)研究专注于将大量设备(包括家电、汽车、建筑、摄像头)连接起来,收集并共享各自丰富的传感信息从而达到智能目标。
神经形态计算是一系列寻求模拟生物神经网络从而改进计算机系统硬件效率和稳健性的技术,它取代了用独立的输入/输出、处理指令、存储模块的旧方法。
现在与未来的人工智能政策
人工智能应用是否成功的标准是他们为人类创造的价值。在此角度看,设计人工智能应用应该使得人们成功的理解人工智能系统,参与到其使用中并建立对它们的信任。公共政策应该帮助社会轻松采纳人工智能应用、扩展其收益,并缓和它们的难免的错误和失败。
对人工智能如何开展的争论包括对隐私保护和人工智能收益公平分配的忧虑,这种忧虑是该被鼓励的。在人工智能技术如此快的实现速度之下,也伴随着对其应用的担心。研究小组建议所有的政府律师掌握人工智能技术知识。
此外,要通过移除障碍并增加私营和公共支持,鼓励在人工智能系统公平性、安全性、隐私和社会化应用上的研究。目前在美国,至少有16个独立的经济相关的政府部门涉及到人工智能。人工智能研究,特别是其应用的快速进展,需要这些部门的专家开发新的法律、政策概念与隐喻(metaphor)。
当自动驾驶汽车发生车祸、医疗设备事故时谁该负责?如何避免人工智能应用宣传种族歧视或者金融诈骗?谁该得益于人工智能技术带来的效率?对技术过时的人群应该提供什么样的保护?随着人们在产业流程和消费产品中更广、更深的融入人工智能,更好的实践需要被铺开,也须要有更适合的政府制度。
研究小组没有考虑近期人工智能系统会自动选择对人造成伤害,可能的是人们使用基于人工智能的系统做好的以及坏的目的。而且尽管人工智能算法可能比人类做出一些较少偏见的决策,保证用于人工智能决策的数据没有偏见仍是一项技术挑战,这些偏见可能导致基于种族、性别以及其他因素的歧视。
面临人工智能技术产生的重大变革,逼迫生成更多、更严格的条例也可能使不可避免的。错误理解什么是人工智能可能刺激人们反对有益于每个人的这些技术。不合适的条例可能造成悲剧。信息贫乏的条例会而扼杀创新,或者将其转移到其他司法权可能是达不到预期目标的。
幸运的是,领导产生如今数字技术成功条例的原则为我们提供了起点。在私营条例中,宽泛的法律规定配合强硬的透明度需求和有意义的强制措施(而非严格的控制)能够鼓励公司开发流程,鼓励职业人员实施隐私控制,与外部利益相关者结合,并将实践适应于技术发展。这反过来也能支持专业贸易协会和标准委员会在开展最好的实践上的发展。
在人工智能中,监控着也能加强内部和外部问责、透明度、专业度之间活动的良性循环。我们急需一场重要的、有力的、信息丰富的讨论会,讨论如何以一种丰富我们生活与社会的方式最好的控制人工智能,同时鼓励该领域的创造性。
由于高计算能力和大规模数据是很多人工智能技术的燃料且不平等的分布于社会,这使得人工智能技术把机遇不平等性变得更宽。这些技术将促进有机会接触数据和计算能力的那群人的能力和效率。在政策是否培养民主价值观、公平共享人工智能收益,或者是否将力量和收益聚集于少数幸运的人手中,我们要对政策进行评估。
就像本报告记录的那样,人工智能相关的重大进展在过去15年中已经对北美城市造成了影响,而且在接下来的15年中将会发生更多大量的进展。近期的进步主要是由于互联网带来的大型数据集的增长和分析、传感技术的进步,以及深度学习的应用。
在接下来几年,随着公众鼓励在交通、医疗这些领域的人工智能新应用,它们肯定会以一种建立可靠的、理解的方式被引入,并且还要尊重人权与公民权利。在鼓励创新的同时,政策和流程应该解决道德、隐私和安全影响,还应该保证人工智能技术的收益公平、广泛的分配。
如果人工智能研究与应用到2030年以及更远的未来在北美城市生活发挥积极的影响,做上面提到的事情是很重要的。