本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

wzatv:【j2开奖】深度 | 关于人工智能未来发展的十三点预测

时间:2016-11-22 17:26来源:报码现场 作者:www.wzatv.cc 点击:
参与:沈泽江、李亚洲 曾经,人工智能被人们视作未来科技。但如今,人们想要看到超越人工智能的未来。 在如今物联网、机器人、纳米科技及机器学习逐渐发展和崛起的背景下,

参与:沈泽江、李亚洲

曾经,人工智能被人们视作未来科技。但如今,人们想要看到超越人工智能未来在如今物联网、机器人、纳米科技及机器学习逐渐发展和崛起的背景下,本文试图解读人们对人工智能在未来五年内发展的看法。

一、概要

很显然,在过去几年间,人工智能给许多领域造成了非常大影响。不过,人们现在考虑的是,人工智能在未来五年内会在哪些领域发展。笔者认为,有必要(撰写一篇文章)描述如今我们如今看到的一些发展趋势,并对关于机器学习领域未来的发展做出一些预测。如下提出的列表并不一定穷举了所有的可能,读者也无需奉之为圭臬。但它们源自于在考虑人工智能对我们世界影响时,笔者认为有用的一些观点。

二、关于人工智能的十三点预测

1.人工智能工作时需要的数据量会变得更少。诸如 Vicarious 或 Geometric Intelligence 这样的公司,正在努力减少训练神经网络所需要的数据集的大小。训练人工智能使用的数据量如今被视为其发展的主要障碍,同时也是其最主要的竞争优势。同时,使用概率归纳模型(probabilistic induction, Lake 等人提出, 2015)能够解决这个在人工智能发展上的主要问题。某种不那么需要大量数据的算法,最终将会以丰富地方式学习、吸收并使用这个概念,无论是在行动上、想象上还是在探索中。

2.新的学习模型是关键要素。一种名为转移学习(Transfer Learning)的技术能允许标准的强化学习(Reinforcement Learning)系统基于之前获取的知识进行构建——而这是人类能轻松完成的。它隶属于增量学习(Incremental Learning)技术。而 MetaMind 则在研究多任务学习(Multitask Learning)问题。在其中,同一个神经网络被用来解决不同类型的问题,且当该神经网络能够在一类问题上表现更好时,那么它也能在另一些问题上表现更好。MetaMind 的下一步发展,是引入动态神经网络(Dynamic Memory Network)的概念,它能够回答特定问题,并能够推断一系列话语间的逻辑联系。

3.人工智能会消除人类(认知)偏差,并能让我们变的更像「人造」的。人类的天性,将会因为人工智能而改变。Simon(1995)表示,人类不会作出完全理性的选择,因为(做出)最优化选择代价高昂,还因为人脑计算能力有限(Lo, 2004)。人们常常做的是寻求满意解,即挑选出至少是能使自己满意的选择。在生活中引入人工智能,或许会结束这样的情况。当(装备了人工智能)人类不再受计算能力约束后,这终将会一劳永逸地回答,是认知偏差真实存在并且是人类本能,还是这些行为只是在有限信息环境下或限制性情况下进行决策的捷径。Lo(2004)认为,人类(做决策时)的满意点,是在一系列的进化尝试和自然选择的过程中形成的。在其中,个体基于过去数据和经验进行预测并做出选择。他们根据接受的正/负反馈进行学习,并能够启发式的快速解决相关问题。但是,一旦环境改变,适应过程则有些延迟和缓慢,而且一些老的习惯并不能适应新的改变——这就造成了行为偏差。人工智能则会缩减这些延迟时间到 0,虚拟化的消除任何行为偏差。

此外,基于经验随时间进行学习,人工智能成为新的变革工具:我们通常不评估所有的备选决策,因为我们不能想到所有决策(知识空间有限)。

4.人工智能会被愚弄。如今的人工智能远非完美,同时也有很多人正专注于研究如何欺骗人工智能设备。最近一个被叫做对抗样例(Adeversarial Examples; Papernot 等人, 2016; Kurakin 等人, 2016)算法被研发出来,它是首个能够误导计算机视觉的方法。智能图像识别软件会被经过微妙处理的图像所愚弄,该软件会对这些图像进行错误地分类。但有趣的是,这种方法却不会欺骗人类。

5.人工智能的发展伴随着风险。主流的声音认为,人工智能正越来越成为人类潜在的灾难。当一个超级人工智能系统(ASI, Artificial Super Intelligence)被造出的时候,也许它的智慧远超过人类,甚至它能够想到并做到我们今天不能预测的事情。尽管如此,我们认为,在这些可怕的于人类存亡相关的威胁之外,还存在着不少和人工智能相关的风险。我们对于超级人工智能会做什么、怎么做,这背后隐藏的风险实际上都无法理解,无论它们会对人们造成正面的还是负面的影响。再之,在从狭义人工智能(Narrow Artifical Intelligence)向强人工智能乃至超级人工智能转换的过程中,会产生一个内在的责任风险——谁会对可能出现的错误或者故障负责?更进一步,在究竟谁能主导人工智能、人工智能的能力应该被如何使用的方面,也同样存在着风险。在这种情况下,我们确实觉得,人工智能应当作为一个工具(或是面向所有人的公众服务)被使用,并预留一定程度的决策权给人类以帮助该系统处理罕见的意外情况。

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容