人工智能到底有多聪明?

文章发表于2020-11-26 10:44:37,归属【科技前沿】分类,已有735人阅读

科技前沿

我们常说机器会思考、学习和推断。这门学科就叫“人工智能”,是将我们人类的推理模式用算法的行为来实现,牛津大学博士生David Watson在他最近发表的文章《人工智能中的仿真与现实》中写道。在讨论人工智能时,尽管拟人仿真技术有很多好处,但我认为往好了说是误导,往坏了说是彻头彻尾的危险。让算法拟人化,是新兴技术带来的伦理问题,对挑战进行恰当概念化的障碍。

我们所说的智能是什么意思?1994年《华尔街日报》发表了一个定义,反映了52领域领先的学术研究者的共识与情报:“智力是一种非常普遍的心理能力,除此之外,包括能力原因,计划,解决问题,抽象思维,理解复杂的想法,快速学习和从经验中学习。这不仅仅是书本上的学习,一种狭隘的学术技能,或应试的智慧。相反,它反映了一种更广泛、更深层次的理解我们周围环境的能力——“理解”、“分辨事物”,或者“弄清楚该做什么”。这是对智力的一个很好的定义——这种智力长期以来一直在智商测试中通过,而且在可预见的未来,只有人类才拥有。”

另一方面,专业智能是指在特定环境中有效地解决定义明确的特定目标的能力,是一种面向任务的智能,是许多人类工作的一部分。在过去的几年里,我们日益智能的机器已经相当熟练地处理各种各样的智能任务。人工智能技术在视觉、语音识别、语言翻译、各种癌症的早期检测和诊断,以及其他曾被视为人类专属领域的能力方面都有突破,正在接近或超过人类的智力水平。

深度学习在人工智能最近的成就中发挥了核心作用。机器学习是从几十年前对神经网络的研究中发展而来的,神经网络是一种让机器从数据中学习的方法,它是一种模拟生物大脑(由大量高度连接的神经元组成)学习解决问题的方式。人工智能神经网络中的每个节点都与许多其他这样的节点相连,根据用于训练系统的数据,这些连接可以在统计上得到增强或减弱。人工智能的最新进展都是基于深度学习算法,这是一种强大的统计技术,可以使用非常大的训练数据集和多层深度神经网络对模式进行分类。在多层深度神经网络中,每一层都使用前一层的输出作为输入。

 

“甚至神经网络这个词……都会让人联想到一个像大脑一样的机器,在做决定,”Watson指出。

 

但是,尽管受到人脑解剖学的启发,但深层神经网络(DNNs)的性能与人脑的实际性能相比还是脆弱、低效、短视的。

 

定义深度神经网络

 

脆弱

通过对训练输入的轻微干扰,dnn很容易被愚弄。这篇文章引用了许多例子,比如在训练图像中加入少量的噪声后,深度学习算法就会被欺骗,将熊猫误归为长猿,将斑马误归为马,将香蕉误归为烤面包机,以及其他一些荒谬的组合。人类不会被训练图像的轻微扰动所迷惑,因为我们对这种微小的变化有更强的适应能力。生物神经网络和人工神经网络之间的这种主要差异,对DNNs在临床医学和自动驾驶汽车等关键领域的适用性提出了深层的挑战。

 

低效

深度神经网络缺乏数据,效率低下,需要大量的训练例子来学习。人类水平的智能则要超越数据和深度学习算法的能力。人类能够建立他们感知世界的模型,包括日常常识,然后使用这些模型来控制他们的行为和决定。三个月大的婴儿对周围世界的理解比任何人工智能应用程序都要实际。一个人工智能应用程序在从它分析的数据模式中学习之前是一张白纸,而婴儿在数百万年的进化过程中获得了遗传优势,大脑结构使他们能够学习的不仅仅是数据和模式。

纽约大学教授加里·马库斯在最近的一篇文章中写道:“人类可以在几次试验中学会抽象的关系。”目前,深度学习缺乏通过明确的、口头的定义来学习抽象概念的机制,当有成千上万、数百万甚至数十亿的训练例子时,效果最好。“当通过明确的定义学习时”,你不是依靠成百上千或数百万的训练例子,而是依靠一种能力来表达像代数一样的变量之间的抽象关系。

人类可以通过显式定义和更隐式的方式学习这种抽象。事实上,即使是7个月大的婴儿也能做到这一点,从少量未标注的例子中获得已学会的抽象语言类规则,只需两分钟。”

 

短视

与人类认知能力相比,深度学习被证明是一种奇怪的短视。它可以看到许多单独的树木,但很难理解整个森林。例如,在图像分类中,深度学习算法在被分析图像的中间层寻找共同的特征,却不能掌握这些特征之间的相互关系。因此,尽管人类可以本能地分辨出可能具有狗的形状和特征的云不是真正的狗,但深度学习算法将难以区分看起来像什么和实际上是什么。

这种脱节表明,与生物大脑相比,人工神经网络缺少在现实世界中导航所必需的关键部件。

 


新推理模式

 

说这些算法重现了人类智能是错误的;相反,它们引入了一些新的推理模式,这些模式在某些方面优于我们,但在其他方面却不尽人意……。然而,当我们开始将这些仿真过于当真时,问题就出现了,尤其是在刑事司法、信用评分和军事行动等领域,这些领域涉及对相关人员的生活产生重大影响的高风险决策。

 

传统上,我们依赖人类专家来判断这种高风险的决定,有三个关键原因:

准确性——专家应该有能力将严重错误最小化;

信任——我们需要信任做出这些重要决定的推理;

道德责任——专家对他们的决定和行动负责。

 

人工大脑能表现出这些品质吗?

Watson认为,人工智能似乎可以达到精确度的要求,但在多大程度上与人类的表现相匹配或超过人类的表现是一个经验问题,必须逐个案例加以处理。信任问题更大,因为深度学习决策背后的原因(对连接大量人工神经元的权重进行细微调整),与人类使用的推理方式大不相同。最后,虽然可以说算法对其结果负责,但在可预见的未来,赋予算法任何道德责任都是没有意义的。

 

算法只能行使机构的社会建构环境一些任务的机器……挑战伦理的AI,我们不仅要正确理解这些算法是如何工作的优缺点,他们的能力和控制它如何融入更大的社会技术框架。

商务咨询

13020133833

技术支持

18621663782

您的反馈是我们前行的动力