Skip to main content

全新的人工智能

专题文章:COMPSAC 75周年

Charles Petrie, 美国加利福利亚州,斯坦福区,斯坦福大学,邮编94305

人工智能(AI)是计算机科学这个新领域中的新分域,其在复杂性、排队论中都有明确的数学基础,且在编译器、数据库和计算机系统结构上有着更扎实的工程学基础。相比之下,AI的定义明显不够明确,并且主要应用于两方面:(1)符号推理,(2)神经网络。二者均有广泛的科学基础,但对人工智能的说法却存在争议。当然,这是完全没必要的;但其实争议产生的原因可能是人工的实际应用并没有名字听起来那么响亮。接下来通过个人的回顾来研究这一点,并对一些未来的研究提出了建议。

要涉及整个人工智能(AI)的历史是无望的,因此这里只重点提及了对我本人来说重要的几点。这里有我个人的回顾,以及退休后的一些想法,可能对那些想继续研究的人来说稍有价值。作为已经退休的老人,这段回顾要从很久以前开始说起了。

大学里刚出现第一台大型电子计算机,并开设第一门本科编程课程(FORTRAN IV)时,我便开始了我的计算机之路。我在狂欢节假日(LSU)期间阅读了教科书,找到了窃取账户的方法,又找到了运行Calcomp 绘图仪的子程序,之后就开始忽视这门课程。直到机器操作员对我完全失去耐心,我才向我的导师展示了我的所作所为。他把我单独拉到了一边,并让我为工程部门编写图形子程序。

而在这之前,他们仍没有在计算机上找到合适的方法旋转物体并从不同角度查看。这就是当时我们所处的位置。[1]

与此同时,我还学习了数学逻辑,即符号计算的基础。那时候我只有20岁,很容易受到影响。

符号人工智能VS学习人工智能

随着深度学习的成功,出现了“人工智能”的含义。这只是一种有利有弊、新研发的技术。但二者区别并不太大1。计算机科学系仍在教授符号推理,将二者2优势结合一起的工作也一直在开展。深度学习对于整个国家在新技术中争夺优势都至关重要。值得一提的是,此前日本和美国在逻辑编程方面也存在有竞争。

在此,我的担心的问题是,二者均不是用以找到智能模型的手段,而其目的在于产生更有用的计算机应用程序。事实上,我时常反对使用“智能”一词将技术描述为一个毫无意义的形容词3。但在说到这个之前,让我在此前的段落以外再深入讨论一下人工智能的种类。

符号人工智能

符号人工智能对我来说尤为重要。本科期间,我在Kleene的介绍教材4中接触了数理逻辑,同时也学习了FORTRAN。因此,在数学研究生院的第一年,我一直在研究自认为是原创的想法,即尽管Gödel的定理并不完整,但证明仍可以由计算机生成。这件事让我的数学教授们感到很沮丧,他们认为计算机并不重要。就在这样的情况下,90年代,我误打误撞开始在Woody Bledsoe教授的指导下开始了学习和工作,那时候Jon Doyle刚发表《真相维护》(TMS)5的论文,这篇论文给我带来了很多启发。我被这样的想法深深吸引了:某种形式的自动定理证明(ATM)和具有依赖性定向回溯(DDB)的真相维护(TMS)可以帮助解决分布式问题。我们的小组建立了一些非常复杂(的在那个时候看来)推理机制,并取得了初步的成功6

而关键是,几乎在我发现人工智能之后,我就立刻意识到,与其说其“智能”,倒不如把它描述成利用基于计算逻辑新符号推理机制来实现以前无法完成的一种新手段,从Bob Simons7下的自然语言处理开始。这样的过程很有趣,充满挑战且令人满意。我从中获得了相当不错的职业生涯。并且,我认为这种类型的人工智能还远远没有结束。

我在斯坦福大学通过代理、规划和语义网络进行符号推理。目前很多工作已经完成,且今天看来仍在继续。我一直批评人类对特定技术过高的期望,但即使尚未实现,我也从来没有怀疑过这些技术的潜力。事实上,我对此的批评并未能够解决难题。多年来,我一直领导着语义Web挑战(Semantic Web Challenge)8,其中展现了即便是简单问题也有的困难程度,尤其是当人们试图创建可组合的技术时。事实上,这就是当时的愿景:解决问题的技术可以自动组合以解决更大的问题。但这愿景尚未实现,主要是因为在解决剩下的硬工程方面问题没有学术信用,而且工业工程界对与众不同的学术技术根本不感兴趣。

我还有另一个愿景,对此我经常在本文刊9中提及。该愿景是:与其直接处理问题,计算机可以用作帮助人们在大型分布式项目中协同工作。该系统不仅允许人类共享信息,还会主动监测整体设计冲突和机会,并就相关人员如何共同解决此类问题提供建议。我将这项研究称为“协调科学(Coordination Science)10”,并指出我自己的工作便是其存在的证明。该主题中的许多问题带来了了丰富的研究以及改进大型项目管理的巨大潜力。事实上,多年前正是Doyle的原始TMS激发了这一愿景。

为什么这些象征性的努力都没有达到预期呢?部分原因在于我们对其技术状态的期望太高了。专家系统起初因为尚未成功而收到嘲笑。事实上,尽管该技术被嵌入其他系统11中,但仍被广泛使用。符号推理在满足要求方面的普遍失败不仅在于这些要求太过于有远见,还因为这些技术不易融入更传统的系统里,并且一般情况下,这些技术解决的是无人问津的问题。我们在1980年代的一项初始技术取得了一段时间的早期成功,直到几年后使用该技术的公司确定其无法培训足够的工业工程师来支持新产品,因为其无法与标准技术重叠6

回顾我对协调科学的推广时,想到了另一个个人案例,现在看来我当时并没有考虑到众多社会因素:尤其是学界的因素。实际上我们已经建成了一个协调系统的原型,并为一个主要的国防承包商解决了一个重要的问题。尽管他们很欣赏这个新原型,他们还是将我们的分布式系统整合成了一个集中式系统,因为工程师们跟喜欢在一个房间里用一台计算机工作,而不是分布开来。后来,我发表了一个完全非正式的理论,称为紧急集体,也是关于分布式工作的,但仅针对那些扩展的理论,因为个人还是认为自己对社区作出了贡献12。这种暂时性的非正式理论却出人意料地受欢迎。

直到多年后的现在我才将这两件事放在一起。而且我怀疑,大部分的代理和语义网络社区现仍由于缺乏对“神经典型性”工作的认知而苦苦挣扎。我严重怀疑我们这些领域中的许多人都会被那些为运动队加油的人群困扰。我可以继续讨论这点,但这并非重点。可能已经说的太多了。在硅谷,众人皆知的笑话是这里便是阿斯伯格症患者繁衍后代的地方。

深度学习

由于超出了我的专业范围,在此内容将比符号推理更短。

早期

神经网络在早期被符号推理研究人员一度嗤之以鼻。原因之一便是原则上的。学到新知识意味着什么?在符号推理中,只有三种推理。归纳推理很常见但并不可靠。溯因推理则不太常见,而且可能会导致错误,且在DDB中使用;它最终的答案和演绎推理一致。演绎推理是可靠的,但所演绎的知识在某种意义上是已知的,因为其隐含在公理和演绎系统的逻辑闭环中。这种思维唯一的“学习”意义就在于发现经验事实。那神经网络如何学习任何新事物呢?

神经网络也曾被像我一样的人嘲笑,因为在80年代在对系统进行实验时,我们发现报告的成功很大程度上取决人研究人员在识别出正确答案时终是否终止系统循环。

最后,我们对此类系统的不重视,很明显的原因是因为这类系统与符号系统不一样,其结果就像“黑匣子”,不提供关于内在概念关系的知识。这些系统可以通过某种修改人为得以为人所用。

深度学习获胜

再回到现在,学习系统完全主导了“人工智能”。此类系统不仅可以通过修改后为人所用,而且可以在符号系统几十年一直渴望的认知游戏中获胜。在2016年AlphaMove中对阵李世石的第二场比赛中,获胜的第37步,象征着符号推理的结束13

这件事情在别处解释可能更好,但更快的机器也其用了更多层的神经网络(因此称之为“深度”),并与其他技术一起使用,例如强化学习、将特征提取与分类相结合、各种高级计算技术,以及对大数据的访问。现如今,深度学习的成功受到了广泛赞赏,甚至到了令人恐惧的程度。

而从中又学到了什么?其中的知识至少类似科学家为解释经验事实而开发的理论。这些理论之所以成功,正是因为其有效地预测了结果。而新的发现可能会让这些理论中的一个不再成立。因此,理论并不是符号推理者所理解的知识,或者即便能理解,也是将其理解为单纯归纳性。更糟糕的是,从深度学习中提取出这样的理论极度困难,甚至不可能。如果我们自己正在学习新知识,这样的理论通常可以预测结果,且其结果往往十分有效。

也就是说,他们的应用仍然受限,但可以通过符号推理进行扩展。尽管有关方面的工作正在进展,但其推理解释系统实际上仍不存在。最后,请注意,“行为有效”是对深度学习系统的轻描淡写罢了。虽然这些系统之后存在真正的科学,但却未曾告知我们为特定结果所采用的推理。

二者共有的批评

符号人工智能同样注重于结果。当然结果都是重要的。但符号推理研究院的做法大都和我一样:我们意识到现在对智能的本质进行有用的推测还为时尚早,相反,我们着重于基于构建知识网络且日益复杂的推理系统,这可能是有效的。当深度学习系统产生了更有用的系统时,则说明技术赢得了这场比赛。

当然还有很多事情可以做。并且,和学习系统一样,没人知道未来几十年此类研究会产生怎样的结果。符号系统和学习系统的结合很有前景2,而且符号系统更有潜力产生出例如可以证明正确并可修改的计划。学习系统可能会产生比应用于该应用程序的符号系统更好的协调系统。语义网络可能通过增强链接系统的元语义链接。

尽管如此,与闻名的基于脚本简单程序Eliza14相比,这一切似乎更不符合人工智能的标志。考虑到计算机技术的现状,我和其他研究人员还雄心不够。但现在是21世纪,也许是时候要跨出一步了,更何况往往第一步只需要敢想。

智能

如果我们要讨论“人工智能”,或许值得指出的一点,是我们对“智能”这一词是否都有个精准的定义。比如,如果你问一名自闭者是否知道现在的时间,他们的回答是“是”,那么这个答案智能吗?这个人“智能”吗?

智能软件代理

如前所述,我不喜欢用“智能”一词来描述技术,因为这个词常常被用作营销的术语,而非用于区分技术13,有些违背本意15了。但为了重述我就这个主题所讲的内容,考虑“智能软件代理”对至少一种技术种类意味着什么是很有用的,正如我在职业生涯中多次口头或书面说过的那样,技术区别若无法展示区别,则毫无作用。

我曾经就这项技术术语的模糊使用发表过一次讲话。当时在欧洲,所以没人愿意在公共场合主动站出来和我争论。但后来一位年轻的研究人员找到我,用她认为可靠的反例问我“但我正在建立一个智能代理”。我回答道“你怎么知道?”她便走开去思考了。[甲]

智能软件代理作为一种技术,已经被多次定义为具有反应性、审慎性、感知性、感知性和/或自主性的软件。 警惕的读者可能会注意到,这些完全是主观的标准。我之前就已经提出一种区分技术的操作性定义。这个定义的部分取决于消息传递协议。另一部分则更与本次讨论相关:此类系统中的代理必须通过交换信息来完成任务,并且必须使用对等协议以达到最佳的表现。诚然,这样的定义由那些以最佳方式完成应用程序任务的某些定义决定。但这比“自主”好多了。

如果单个软件模块可以仅使用客户端/服务器协议与其他候选代理进行通信,而不会降低集体任务的性能,那这个模块就根本算不上是代理。在Petrie3的研究中,我认为如果这个定义捕捉并排除了符合我们对名称直觉的软件系统,因此是个可使用的定义[乙]。由于之前可以景写过相关文章,我不会在此继续说明,并且这也超出了本次回顾和我想涉及有关人工智能批评的范围。

智能是社会性的

我想从该定义论文中抽象出的关键思想则和自愿提供有效信息并更好地完成联合任务一样。更准确地说,我想提出的是,智能只有在社会上才能体现出。当一个智能体(具有某种人类水平)能够自发理解至少一个其他智能体的目标,并对此采取行动(可能通过言语行为)来帮助或阻碍其实现目标以进一步达到自己的目标,这个智能体就可以算作智能的。我不打算在这里深度讨论如何得知这些目标,尽管这样的讨论会很有趣。

请思考以下示例。如果你和某个人讨论,你能预测他们所有的回答,你就不会认为他们聪明。如果你问某个人现在的时间,答案永远是“正午”,则结论是一样的。如果你身处2001年,问某人“你知道欧元和德国马克的转换率吗?”那个人的回答是“我知道,是2.1,但你应该知道明年一月之后德国马克将不再通用。”你会认为这是个聪明的回答。如果你问旅行社“你可以提供去克罗地亚的旅行套餐吗?”聪明的旅行社员工可能会回复你“这里可以根据你的喜好,提供你需要的一切行程。”但1994年可能有一名更聪明的中介可能会根据当年的战争和你说“你可能更想去希腊。”“今年你可能会考虑克里特岛”,聪明的旅行社在第一次希腊之旅后九个月通过一封不请自来的电子邮件如是介绍到,因为他预测你会再次旅行。可以看出这些例子更符合社会观念中的“智能”。

很多智力测试不涉及这种概念的智能,对此很多人会合理地提出反对。再次说明,如果没有长时间的讨论,我也会反驳:要么测试的内容是天赋或某种技能,要么被测试者可以弄清测试者的意图。为了测试结果更好,我亲自尝试过后者方法。为了给出“正确”答案,我总是在模拟测试着的思维方式。我发现即使在大学物理中,这种方法也非常有用。有一次我在物理考试中得了94分,而上次班上出现第二高的成绩还是在1970年代。我从与同学的谈话中了解到,我对老师教授的物理学习起来并没有其他人更优秀,但我不断向教授提问,因此比其他参与考试的人更能了解出题者想要的答案。

你应该也能看出这种方式同样适用于游戏:尤其是AlphaMove中的第37步,据说是故意走了人类玩家意想不到的一步。在此我唯一的评论是,如果AlphaMove在一般情况下还能做到这一点,而不仅仅受限于围棋上,那它便是真正的智能了。

超越人类的机器

这应该与“Eliza”形成对比,它愚弄了那些不知道其代码的人。人们将代理归功于它,部分原因是人类似乎倾向于将代理归因于一切:泛神论中的复仇之风或过程哲学中的认知原子就是例子。我也将Eliza的能力归功于这样一个事实,即当时的大多数人都不熟悉计算机,并且对这种简单算法产生的明显见解感到惊讶,即人类很早以前发生的一种算法。Eliza基于对用户的了解生成了令人惊讶且有用的陈述。它似乎是智能的。这个错误指出了我们对智能看法的社会性质。

再次声明,我不是贬低自动驾驶汽车或强大的自动定理证明器(ATP)。但我从没见过我认为是智能的ATP。即使是在过去,当我还很年轻,可以证明课堂上的定理时,即使作为一名人类,我也没有很智能地完成这个证明。我喝其他人一样,有一定成都的天赋。对于足够简单的定理,我都可以证明。但我对这些定理的用途一无所知。实际上,我在证明下一条定理的时候便会忘记上一条。我仅仅是一个人类ATP。我只是在展示我的天赋,并不是智能之处。

冒着引发稻草人理论的风险,这个例子确实对我自己的智能概念提出了靠谱的批评。毫无疑问,ATP在应用时,是有效解决问题的一个单纯示例。而“有效”则意味着成功。如果ATP用于帮助某人,这不符合我提出的智能定义吗?其实并不。正是研发人员通过开发可以帮助他人解决问题的方式来体现智能。如果我们能为这些人树立正确的榜样,且软件能被视为有潜力解决这些人关心的问题,那我们则有可能获得资助。但这并不意味着能有效解决问题的软件就是智能的。

这样概念的智能有很多可能的阐述方式。当然,开发有效信息速度与其有效性的程度同样重要。数学和物理学提供了交流中介,以及人们在不同程度上理解和欣赏这些结果的层次结构,并将其应用于改进问题的解决方案。

总而言之,在此我的理论是,最好将智能客观地理解为一种社会现象,其中一个代理以令人惊讶的方式提供或自发提供信息,根据自己的目标帮助或阻碍第二个代理实现目标。但这只是我对智能的简化概念,因此可能存在可大可小的错误。但能肯定的其发展不是一帆风顺的。

我真正的观点是,如果人工智能的最初追求在此或者其他一些特定的智能理念,我们现在可能会走得更远,而不仅限于开发单纯(非常)有效的工程应用程序。这便是我在本节中对人工智能的批评:人工智能从来没有明确的目标。这不禁让我先到了Lewis Carroll的那句名言:如果你不知道你前进的方向,则没有道路能带你通向你的目标。可能是时候该重新思考重点了。但我对人工智能还有一条截然不同的批评,以及雄伟想法的建议。

思维架构

人工智能还有另一种,且并非前后矛盾的方式便是尝试通过计算机属于理解“心智”。早期的工作似乎有指向这个方向,但并无很大的进展。一些软件系统甚至定义了“概念”,但我从未认为其中具有说服力(这里我跳过了参照,因为参照都是反面例子)。

我父亲是希尔斯的电器维修工(可谷歌搜索)。由于我们住在路易斯安娜州的郊外,他都是开车到人们家中处理报备的电器故障。晚上父亲回家会带着别人赠与的蔬菜,和我们讲各种有趣的故事。有一个故事是一位女士抱怨她的洗衣机根本无法工作。父亲向她指出洗涤设置拨盘刚好处在两个设置中间位置。她更习惯使用旋钮来设置,而旋钮或多或少都是连续着的。这是她第一次接触数字思维。当研究人员可以向我展示她的“拨号”概念如何从连续设置演变为离散设置时,我才承认他们或者正在研究着什么。当他们可以以计算形式解释为何我们其他人看到这个问题,笑而不解释这位女士只知道旋钮,我才会真正留下印象。

这是我对意识某一方面的仔细讨论的延续,我在“超越人类的机器”这一节中刻意避开了这样的内容。我并不是提议解决这个问题。而且我知道,很多人都试图将认知“计算机化”。我只是认为他们错过了一些基本的东西。

之前我提出,智能设计对其他人目标的塑造。为了继续讨论更实质的内容,我在这里要先提出一个毫无争议的概念:意识也涉及对自我的塑造。这不仅仅是了解一个人的周围环境,不仅要做出反应,还要计划行动,才能维持体内平衡。意识允许人们反思自己对该过程的思考,实际上,意识的度量可能取决于这种思考的回归层数是多少。也许可以设计来度量这一点的测试。这我尚不清楚。我对具有解释力的理论很感兴趣。也就是说,是那些预测结果和经验一致的更具体的理论。此类理论也类似于图灵的论点,即其可计算函数的形式概念符合数学家对该术语的直观使用。

很多研究围绕意识的神经基础展开。在此我想引用一本书17,书中深度探索了可能的意识神经基础,以及该作者18另一篇出名的文章。后者提及人类的意识从大脑皮层传出,即wulst的扩展,之后反过来又从更基本的构造中生成。但是在这里我的兴趣点并不是意识本身。

我的兴趣点是这些理论涉及自我塑造以控制注意力。该理论内容则是那些躯体结构不断进化以维持日益增强的塑造功能,其中还包括自我塑造,以及对他人的塑造。其认为其他动物也有不同程度的自我意识,在进化中也被正式有效。按照我的标准,这算不上什么“理论”,但我想饮用热门文章18中的一句话“:即使你背弃了一个对象,你的大脑皮层仍然可以将处理资源集中于其之上。”

这句话什么意思?对我来说,关于思考的一个关键问题是“什么才是注意力”?如果这意味着切换处理资源的重点,那些资源是什么?到目前为止,我认为用磁共振完成的思维神经基础并不是很有帮助,至少对计算机科学家来说是这样的。我们反倒更应该关心工作中的计算机制。

注意力

大家都知道“注意力”是什么:我们使用注意力并依赖吸引他人对事物的注意力。但实际上,原理究竟是什么?

大家都能理解注意力在计算机中的工作原理。有一个中央处理单元(CPU),可以从各种程序中获取指令以执行。操作系统(OS)可以决定每个程序在各个时间可以得到多少CPU周期。在现实生活里控制进程的计算机中,传感器可能会输入某种“中断板”,其会覆盖正常程序并把优先权分配给应该响应传感器输入的程序。这便是我们的机械操作过程层面上理解的一种注意力,即计算层面。中断板将CPU的处理能力重新集中在重要程序上。人类注意力的计算机制是什么?哪些计算资源会被重新聚焦?也就是说,在这里,主要问题是我想把你的注意力集中在哪里?

先前引用的神经研究和许多其他研究清楚地表明,大脑由一系列令人眼花缭乱的专有结构组成,它们以我们尚未完全理解的方式相互作用,我们可能永远都无法理解他们是如何相互作用的。明斯基很早以前就提出了这一点19。对我来说重要的是所有的这些结构都是专门用于某种目的?且这些神经元连接结构中的每一个都被加权用于特殊目的。着就是神经网络的工作原理。似乎并没有通用目的“CPU”。

有吗?有的话则会是一组非常灵活的神经元和连接,以体验和控制其他专有的集合,并训练专有的结构。我所说的“模仿”,其实我自己也不知道具体是什么意思。当你的注意力被吸引到一组而非另一组想法时,很明显这些想法是特别且专有的。但那个以不同方式思考的“你”还是那个你。

如果注意力由独立的结构自身执行,且有证据证明其存在和其位置[丙],那么其职能便是创建某种模型来“体验”其他结构的流程。它为这些流程提供了某种通用资源。但该资源本身就是某种专有的结构。不管是何物,这都是重新聚焦的计算资源。

可以非常确定的一点是,人类的大脑中没有一组神经元可以立即采用其他神经元结构的权重和连接并执行其流程,从而创造我们对这些流程的体验。相反,更可能存在一种结构,可以在某种抽象层面上通过其他结构的输入来塑造/模拟,塑造这些结构正在执行的流程。注意力在切换输入,当然对于此类切换,还存在有控制机制。但被切换的资源究竟是哪些资源,这才是计算难题。

这远不止一些可以处理不同指令的简单CPU。我们实际上都不知道大脑注意力结构正在做什么,但我们应该早就知道了。一般来说,计算机科学家应该思考何种计算机制可以实现这一点。

主观时间

无论这种机制是何物,都应该可以解释我们对主管时间的体验。大家都知道,当专注于外部事件时,我们会放慢速度。不知为何,我们越是专注,事件发生的速度就越慢。心急吃不了热豆腐。事件以慢动作开展。这里被聚焦的究竟是什么?这个资源是什么?

另一方面,如果我们身心愉悦,注意力被分散,时间就像飞逝一样。有个简单的假设:我们的专有流程之一便是“计算”变化并将时间也保持如此。当愉快地分心时,资源会以某种方式从计数过程中转移,直到忘记计数。当将资源集中在查看事件上时,计算的太多则会导致时间似乎变慢了。

当外部事件少到无法计算,且自身并没有试着去计算,则时间似乎也会过得很快。如果你一个人呆在山洞里,几个星期很快就过去了。

因此,这种计算资源可以集中用于计算永恒事件,但当该资源被转移到其他流程中时,计算就会出错,就像事件中出现了不寻常的缺失,导致无法计算。这个计算资源是什么?如何才能通过数学建立模型?怎样的计算机架构才会这样运作?为什么我们没有对此作出更多思考?

注意力有很多方面,包括人类在长时间内思考某件事情的能力,以及智能手机类的事物如何训练我们使注意力机制更短,这有待深究。但在我看来,关键问题在于关注哪些资源正被聚焦,并且如果有人开发了注意力的计算架构,那它应该预测与观察想对应的主管时间。

相关研究

我个人的研究策略是,最好永远避免那些最聪明的人再怎么努力也解决不了的问题,尽管终有一天,这些问题还是会被解决。我在九年级的时候确实愚蠢地试图解决四色地图的问题,这是我从中吸取的教训。

我知道像威廉詹姆斯这样的心理学家已经将注意力作为研究的主题,但他们没有通过计算方法来解决相关问题。

许多聪明的学者在尝试理解计算认知时在该领域做出了出色的研究工作。

有个研究领域叫做行为的计算认知模型20。这实际上是课堂上的课程之一。所有的研究都由心理学家完成,但并没有回答我所提出的问题。

哲学家的《心智计算理论》21与之更为接近。其中调查了塑造有机思维的各种正式方式。但主要由哲学家完成,尽管其中也考虑了形式语义学和逻辑理论,但这并不是我在此要解决的问题。

我非常喜欢《大脑计算:计算机科学视角》22,这本书代表了将人类有机认知映射到计算机架构上的各种研究和问题。

但这些似乎都没有解决有关注意力那些明显瞩目的问题。

结论

现在有了我个人对人工智能的反思和批评。但未能将智能定义为该领域的目标,而且未能从计算机架构的角度探索注意力的本质。或者,更有建设性地说,回顾迄今为止取得的进展可以看出,我们希望能有新一代的计算机科学研究人员勇敢探索以计算方式塑造智能和注意力。

正如我在讲座中经常说的那样,我可能错过了一些重要的事情 。或者我可能完全错了。请随时纠正我,或告诉我为什么我提出的观点是错误的,亦或帮助纠正对这些观点的模糊表述。如果有人能在这些蜿蜒曲折的想法上扎根,我会很高兴。

感谢你的关注。

参考

  1. Wooldridge, “Artificial intelligence is a house divided,” The Chronicle of Higher Education, The Review Jan. 20, 2021. [Online]. Available: https://www.chronicle.com/article/artificial-intelligence-is-a-house-divided [1]
  2. Ebrahimi, A. Eberhart, F. Bianchi, and P. Hitzler, “Towards bridging the neuro-symbolic gap: Deep deductive reasoners,” Appl. Intell., 2021, doi: 10.1007/ s10489-020-02165-6.
  3. Petrie, “Agent-based engineering, the web, and intelligence,” IEEE Intell. Syst., vol. 11, no. 6, pp. 24–29, Dec. 1996, doi: 10.1109/64.546579.
  4. C. Kleene, Mathematical Logic (Dover Books on Mathematics). Chelmsford, MA, USA: Courier Corp., 2013, p. 416.
  5. Doyle, “A truth maintenance system,” Artif. Intell., vol. 12, no. 3, pp. 231–272, 1979, doi: 10.1016/0004-3702(79) 90008-0.
  6. Gibson and E. Rogers, “Technology transfer and MCC,” in R&D Collaboration on Trial. Boston, MA, USA: Harvard Bus. School Press, 1994, p. 607.
  7. Simmons and D. Chester, Computations From the English: A Procedural Logic Approach for Representing and Understanding English Texts. Englewood Cliffs, NJ, USA: Prentice-Hall, 1984, p. 297.
  8. Petrie, T. Margaria, H. Lausen, and M. Zaremba, Eds., Semantic Web Services Challenge: Results From the First Year (Semantic Web and Beyond, 8, XXII). Berlin, Germany: Springer, 2009, p. 290.
  9. Petrie, “Plenty of room outside the firm [Peering],” IEEE Internet Comput., vol. 14, no. 1, pp. 92–95, Jan./Feb. 2010.[Online]. Available: http://www-cdr.stanford.edu/ petrie/online/peer2peer/vision2010.pdf
  10. Petrie, “Enterprise coordination on the Internet,” Future Internet, vol. 3, no. 1, pp. 49–66 2011, doi: 10.3390/ fi3010049.
  11. Hameurlain et al., “Database and expert systems applications,” in Proc. 22nd Conf., 2011, p. 252.
  12. Petrie, “Emergent collectives for work and play,” Société De Stratége AGIR Revue Generale De Stratégié 20-21, La Société De L’information, pp. 146–152, Jan. 2005. [Online]. Available: http://www-cdr.stanford.edu/ petrie/revue/
  13. Metz, “In two moves, AlphaGo and Lee Sedol redefined the future,” Wired Business, 2016. [Online]. Available: https://tinyurl.com/yxnguae7
  14. Weizenbaum, “ELIZA—A computer program for the study of natural language communication between man and machine,” Commun. ACM, vol. 9, no. 1, pp. 36–45, Jan. 1966, doi: 10.1145/365153.365168.
  15. Petrie and C. Bussler, “Industrial light and semantics [Peering],” IEEE Internet Comput., vol. 10, no. 1, pp. 94– 96, Jan./Feb. 2006. [Online]. Available: http://www-cdr. stanford.edu/petrie/online/peer2peer/w406.pdf
  16. Petrie, Agent-Oriented Software Engineering (Lecture Notes AI, 1957), P. Ciancarini and M. Wooldridge, Eds. Berlin, Germany: Springer-Verlag, 2001, pp. 58–76. [Online]. Available: http://www-cdr.stanford.edu/petrie/agents/abse/abse.html
  17. Graziano, Rethinking Consciousness. New York, NY, USA: W. W. Norton, 2019, p. 203.
  18. Graziano, “A new theory explains how consciousness evolved,” The Atlantic, Jun. 6, 2016. [Online]. Available: https://www.theatlantic.com/science/archive/2016/06/how-consciousness-evolved/485558/
  19. Minsky, The Society of Mind. New York, NY, USA:Simon & Schuster, 1986, p. 339.
  20. C. Wilson and A. G. C. Collins, “Ten simple rules for the computational modeling of behavioral data,” eLife, vol. 8, 2019, Art. no. e49547, doi: 10.7554/eLife.49547.
  21. Rescorla, “The computational theory of mind,” Stanford Encyclopedia of Philosophy, E. N. Zalta, Ed.Stanford, CA, USA, Stanford Univ., 2020. [Online]. Available: https://plato.stanford.edu/archives/fall2020/entries/computational-mind/
  22. Maass, C. H. Papadimitriou, S. Vempala, and R.Legenstein, “Brain computation: A computer science perspective,” in Computing and Software Science (Lecture Notes in Computer Science, 10000), B. Steffen, G. Woeginger, Eds. Berlin, Germany: Springer, 2019, doi:10.1007/978-3-319-91908-9.

  • [甲] 这类似于我问博士的三个问题中的第三个问题。 论文提案者:你提出要解决的问题是什么,我为什么要关心它,我应该如何确定你是否在解决方案上取得了任何进展?
  • [乙] 这种“定义”是指一些更正式的定义捕捉了一个词非正式用法的概念,例如“可计算性”。
  • [丙] 这本书准确地将它定位在背侧颞顶交界处。

https://brendenlake.github.io/CCM-site/

1089-7801 " © 2021 IEEE
Digital Object Identifier 10.1109/MIC.2021.3063025

http://www-cdr.stanford.edu/$petrie/Intelligence/index. html

本文作者Charles Petrie已从美国加利福利亚州斯坦福大学退休,他曾任计算机科学系的高级研究科学家。其在美国得克萨斯州奥斯汀市的德克萨斯大学获得了计算机科学博士学位。也是网络计算IEEE的创始EIC。他的职业传记(包括简历和联系方式)于http://www-cdr.stanford.edu/petrie/bio.html邮箱地址为[email protected]