您的位置:首页>知识>

溯因推理人工智能的盲点

导读深度学习的最新进展重新点燃了人们对能够像人类一样思考和行动的机器或通用人工智能的迫在眉睫的兴趣。通过遵循构建更大更好的神经网络的路

深度学习的最新进展重新点燃了人们对能够像人类一样思考和行动的机器或通用人工智能的迫在眉睫的兴趣。通过遵循构建更大更好的神经网络的路径,我们将能够越来越接近创建人脑的数字版本。

但这是一个神话,计算机科学家埃里克·拉森认为,所有证据都表明人类和机器智能完全不同。Larson 的新书《人工智能的神话:为什么计算机不能像我们一样思考》讨论了广泛宣传的关于智能和推理的误解如何导致人工智能研究走上限制创新和科学发现的狭窄道路。

拉尔森警告说,除非科学家、研究人员和支持他们工作的组织不改变方向,否则他们将注定要“屈服于机器世界的蠕变,真正的发明被边缘化,转而支持未来主义的谈话。方法,通常来自根深蒂固的利益。”

人工智能的神话

从科学的角度来看,人工智能的神话假设我们将通过在狭窄的应用程序上取得进展来实现通用人工智能(AGI),例如对图像进行分类、理解语音命令或玩游戏。但是,这些狭义人工智能系统背后的技术并没有解决一般智能能力必须解决的更广泛的挑战,例如进行基本对话、在家里完成简单的家务或其他需要常识的任务。

“当我们成功地应用更简单、更窄的智能版本时,这些智能版本受益于更快的计算机和大量数据,我们并没有取得渐进式进展,而是在摘取唾手可得的果实,”拉森写道。

人工智能神话的文化后果是无视智能的科学奥秘,无休止地谈论深度学习和其他当代技术的持续进步。这个神话阻碍了科学家思考解决智力挑战的新方法。

“如果我们选择忽略核心谜团而不是直面它,我们就不太可能获得创新,”拉森写道。“健康的创新文化强调探索未知事物,而不是大肆宣传现有方法的扩展……关于人工智能不可避免的成功的神话往往会扼杀真正进步所必需的发明文化。”

演绎、归纳和溯因推理

流程图

你走出家门,注意到街道是湿的。你的第一个想法是一定是下雨了。但是天气晴朗,人行道干燥,因此您立即排除了下雨的可能性。当你看向一边时,你看到一辆洗路车停在街上。您得出结论,道路是湿的,因为油轮冲洗了它。

这是一个例子“推理”,从观察到结论的行为,是智能生物的基本功能。我们不断地根据我们所知道的和我们所感知的来推断事物。大多数情况是在潜意识中发生的,在我们的思想背景中,没有重点和直接关注。

“任何推理系统都必须具有一些基本的智能,因为使用已知和观察到的更新信念的行为与我们所说的智能不可避免地联系在一起,”拉森写道。

AI 研究人员的系统基于两种类型的推理机:演绎和归纳。演绎推理使用先验知识来推理世界。这是符号人工智能的基础,是人工智能早期几十年研究人员的主要关注点。工程师通过赋予符号系统一组预定义的规则和事实来创建符号系统,人工智能使用这些知识来推理它接收到的数据。

在过去十年中,归纳推理在人工智能研究人员和科技公司中越来越受到关注,它是通过经验获取知识。机器学习算法是归纳推理引擎。在相关示例上训练的 ML 模型将找到将输入映射到输出的模式。近年来,人工智能研究人员使用机器学习、大数据和高级处理器来训练超出符号系统能力的任务模型。

第三种推理,溯因推理,最早由科学家查尔斯·桑德斯·皮尔斯 (Charles Sanders Peirce) 在 19 世纪提出。溯因推理是一种认知能力,可以提出直觉和假设,做出比随机刺探真相更好的猜测。

例如,街道变湿的原因可能有很多(包括一些我们以前没有直接经历过的),但溯因推理使我们能够选择最有希望的假设,快速消除错误的假设,寻找新的假设并得出可靠的结论。正如 Larson 在《人工智能的神话》中所说的那样,“我们猜测,在有效无限可能性的背景下,哪些假设看起来可能或合理。”

溯因推理是许多人所说的“常识”。它是我们查看事实或数据的概念框架,也是将其他类型的推理结合在一起的粘合剂。它使我们能够随时关注我们头脑中存在的大量信息和我们通过感官接收到的大量数据之间的相关内容。

问题在于 AI 社区还没有对溯因推理给予足够的重视。

人工智能和溯因推理

Abduction 在 1980 年代和 1990 年代通过尝试 Abductive Logic Programming 进入 AI 讨论,但这些努力有缺陷,后来被放弃。“它们是对逻辑编程的重新表述,这是演绎的一种变体,”拉森告诉TechTalks。

Abduction 在 2010 年代获得了另一个机会,即贝叶斯网络,即尝试计算因果关系的推理引擎。但与早期的方法一样,新的方法也有不能捕捉真实溯因的缺陷,拉森说,并补充说贝叶斯和其他图形模型“是归纳的变体”。在人工智能的神话中,他将它们称为“名副其实的绑架”。

在大多数情况下,人工智能的历史一直以演绎和归纳为主。

“当 [Alan] Newell、[Herbert] Simon、[John] McCarthy 和 [Marvin] Minsky 等早期人工智能先驱提出人工推理(人工智能的核心)的问题时,他们认为编写演绎式规则会足以产生智慧的思想和行动,”拉森说。“事实并非如此,事实上,早先在关于我们如何开展科学的讨论中应该承认这一点。”

几十年来,研究人员试图通过为符号 AI 系统提供手动编写的规则和事实来扩展它们的能力。前提是,如果你赋予人工智能系统人类所知道的所有知识,它就能像人类一样聪明地行动。但纯粹的符号人工智能由于种种原因而失败了。符号系统无法获取和添加新知识,这使得它们变得僵化。创建符号 AI 变成了无休止的追逐,添加新的事实和规则,结果却发现系统犯了无法修复的新错误。我们的大部分知识都是隐含的,无法用规则和事实表达,也无法输入到符号系统中。

“在这里很奇怪,没有人真正明确地停下来说‘等等。这行不通!'”拉尔森说。“这将直接将研究转向绑架或假设生成,或者说,'上下文敏感推理。'”

在过去的二十年里,随着数据和计算资源的可用性不断增加,机器学习算法——尤其是深度神经网络——已经成为人工智能社区关注的焦点。深度学习技术已经解锁了许多以前超出计算机极限的应用。它吸引了世界上一些最富有的公司的兴趣和资金。

“我认为随着万维网的出现,经验或归纳(以数据为中心)的方法接管了,而与演绎一样的溯因,在很大程度上被遗忘了,”拉森说。

但是机器学习系统也受到严重限制,包括缺乏因果关系、边缘情况处理不当以及需要太多数据。随着研究人员尝试将 ML 应用于医疗保健和金融等敏感领域,这些限制变得越来越明显和成问题。

免责声明:本文由用户上传,如有侵权请联系删除!