快捷搜索:

人工智能理解常识的数十年挑战,如何让 AI 不再

最新一波 AI 进步浪潮,结合了机械进修与大年夜数据,已为我们供给能够对口头敕令做出相应的对象,以及可以识别蹊径前方物体的自动驾驶汽车。

但不得不说,这些所谓“智能”产品的知识基础为零。

亚马逊智能助理 Alexa 与苹果智能助理 Siri 可以经由过程引用维基百科(Wikipedia)来获取某莳植物的信息,但并不知晓将植物放在黑阴郁会发生什么;能够识别前方蹊径障碍物的智能法度榜样,平日也无法理解为何避开人群比避免堵车加倍紧张。

人工智能要变得像人一样智慧,知识推理能力是其必备的能力之一。但若何让人工智能理解知识,已是一个困扰了人工智能 50 多年的难题。

纽约大年夜学教授欧内斯特·戴维斯(Ernest Davis)已经钻研人工智能的知识问题数十年。他觉得,理解知识对付推进机械人技巧至关紧张。机械必要掌握光阴、因果关系和社交互动等基础观点,才能展示出真正的聪明。而这恰是我们今朝所面临的最大年夜障碍。

知识问题是人工智能的重大年夜盲点

“知识”一词不仅仅是指一种常识,还可以指对这种常识的见地,不是特定的学科领域,而是一种广泛可重复应用的背景常识,险些是每小我都应该拥有的。

例如,人去餐馆是去吃食品而不仅仅是点菜和付钱的;把火柴扔到一堆木柴上,意味着有人在考试测验生火。大年夜多半知识常识的隐式属性,使得这类常识很难被明确表示出来。

虽然早期钻研者觉得,可以经由过程把现实天下的事实都记下来构建一个常识库,以此作为实现自动化知识推理的第一步。然而这种做法实现起来远比听起来可贵多。无论常识库网络多么富厚多彩的常识,都难免无法捕捉到人类知识推理中常呈现的迷糊其词和关联重叠的环境。

IBM 沃森(Watson)谋略机系统前首席钻研员大年夜卫·费鲁奇(David Ferrucci),如今正在向新发现的机械解释一个儿童故事。在这个故事中,费尔南多(Fernando)和佐伊(Zoey)买了一些植物。费尔南多将他的植物放在窗台上,佐伊则将植物扔在她暗中的房间里。几天后,费尔南多的植物长得郁郁葱葱,佐伊的植物叶子却已变成褐色。在佐伊把植物转移到窗台上后,叶子又开始焕发活力。

费鲁奇眼前的屏幕上呈现了一个问题:“费尔南多将植物放在窗台上是由于他想让植物更康健吗?这是否故意义?洒满阳光的窗户毫光充沛,植物就能维持康健。”

这个问题是费鲁奇创造的人工智能系统努力进修天下运作要领的部分内容。对付我们而言,能随意马虎理解费尔南多将植物放在窗台上的启事。但对付 AI 系统而言,这一点很难掌握。

由于在涉猎文本时,人类可以做出知识性的推理,这些推理对理解叙事性故事(narrative,由具有逻辑、因果等关系的events构成)起支撑感化。要让机械和人类一样具有这个能力,就必须无限地获取相关知识,越准确越好。

费鲁奇和他的新公司元素认知(Elemental Cognition)盼望经由过程教会机械获取并利用日常常识,来与人类进行交流、推理并察看周围情况,以此办理今众人工智能中的重大年夜盲点。

钻研职员经由过程在屏幕上单击“是”按钮,就能回答费尔南多植物的问题。而在某处的办事器上,一个称为 CLARA 的 AI 法度榜样将该信息添加到事实与观点库中,进修这种人造的知识。就像一个永世好奇的孩子一样, CLARA 赓续向费鲁奇扣问有关植物故事的问题,试图“理解”事物为何以这种要领展现出来。

“我们能否让机械真正理解他们所涉猎的内容?” 费鲁奇说,“这异常艰苦,但恰是元素认知想要实现的目标。”

AI 理解知识的历程

只管人工智能领域开始钻研知识问题已久,然而进展照样慢得出奇。一开始,钻研职员考试测验将知识翻译成谋略机说话——逻辑。钻研职员觉得,假如能够将人类知识中所有不成文的规则用谋略机说话写下来,那谋略机就能够像做算术一样,使用这些知识进行推理。

不过,这种措施依附人工,不具有扩展性。新西兰奥克兰大年夜学人工智能钻研职员 Michael Witbrock 表示,能够方便地用逻辑形式表示的常识量,原则上是有限的,并且事实证实这种措施实现起来异常艰难。

另一条通往知识的蹊径,是应用神经收集进行深度进修。钻研职员设计这样的人工智能系统来模拟生物大年夜脑中互相连接的神经元层,在不必要法度榜样员事先指定的环境放进修模式。

在以前的十几年间,颠末大年夜量数据练习的越来越繁杂的神经收集,已经厘革了谋略机视觉和自然说话处置惩罚领域的钻研。然而,虽然神经收集具有较强的智能能力以及机动性(实现自动驾驶,在国际象棋、围棋中击败天下一流的玩家),然则这些系统却仍旧会犯很多令人啼笑皆非的知识性差错(无意偶尔以致是致命的)。

在 2011 年,沃森谋略机经由过程解析大年夜量文本,找到了智力角逐节目《危险边缘》问题的谜底,但在理解知识方面仍有很多局限性。随后,人工智能领域的深度进修开始兴起。经由过程教谋略机识别人脸,转录语音并向它们供给大年夜量数据来履行其他操作,深度进修已获得广泛利用,且近几年在说话理解方面取得了新的冲破。今朝可以经由过程特定的人工神经收集天生问题谜底或者具有连贯性的文本模型。谷歌、百度、微软,以及 Open AI 都已创建更繁杂的说话处置惩罚模型。

以 CLARA 为例,其目标是经由过程明确逻辑规则,将深度进修与构建常识到机械中的要领相结合,主要应用统计措施来识别句子中的名词和动词等观点。

有关特定主题的常识滥觞于亚马逊 Mechanical Turkers,随后会内置到 CLARA 的数据库中。CLARA 再将其给出的事实与深度进修说话模型结合在一路,孕育发生自己的知识。此外,CLARA 还能经由过程与用户互动来网络知识。假如碰到不同,它可以扣问哪种述说最为准确。

CLARA 并非独一可以理解知识的人工智能。华盛顿大年夜学教授,艾伦人工智能钻研所钻研员 Yejin Choi 与相助者近期提出自动构建知识常识库模型 COMET(Commonsense Transformers),交融了符号推理与深度进修两种截然不合的人工智能措施。

与纯深度进修说话模型比拟,COMET 在交谈或回答问题时的理解差错频率更低。由于COMET 与许多应用规范模板存储常识的传统常识库恰恰相反,知识常识库仅存储松漫衍局的开放式常识描述。经由过程借鉴 Transformer 高低文感知说话模型,在 ATOMIC 和 ConceptNet 常识库中拔取种子常识练习集进行预练习,使得模型可以自动构建知识常识库,给定头实体和关系,天生尾实体。

只管知识建模存在寻衅,但 Yejin Choi 的查询造访显示,将来自深层预练习说话模型的隐式常识转移到知识图中天生显式常识时,结果很有盼望。钻研的实证结果注解,COMET 能孕育发生被人类认可的高质量新常识,其最高1位的正确度能达到 77.5%(ATOMIC)和 91.7%(ConceptNet),靠近人类的体现。应用知识天生模型COMET进行自动构建知识常识库,或许能成为常识抽取构建常识库的合理替代规划。

“假如我生活在一个没有其他人(可以交谈)的天下里,我仍旧能够拥有知识——我仍旧能够理解这个天下是若何运转的,并且对我应该看到什么和不应该看到什么抱有预期。”布朗大年夜学的谋略机科学家 Ellie Pavlick 说,他今朝正在钻研若何经由过程在虚拟现实中与人工智能系统互动来教授它们知识。

对 Pavlick 来说,COMET 代表了“真正令人愉快的进步,但缺少的是实际的参考方面”。“苹果”这个词不必然便是真的苹果,这种意义必须以某种形式存在,而不是说话本身。”

Salesforce 公司的高档钻研科学家 Nazneen Rajani 也在追求类似的目标,但她觉得,神经说话模型的整个潜力还远未开拓出来。她正在钻研神经说话模型是否能学会推理涉及根基物理的知识情景,比如一个装有球的罐子被打翻平日会导致球掉落出来。

“现实天下真的很繁杂,”Rajani 说,“但自然说话就像一个低维度的代理,反应了现实天下的运作要领。神经收集可以经由过程文本提示来猜测下一个单词,但这不应该是它们的限定。他们可以进修更繁杂的器械。”

跟着AI理解知识钻研的赓续冲破,或许很快,我们身边的人工智能助手就会变得越来越智慧和气解人意。

您可能还会对下面的文章感兴趣: