人工智能怎么了解人类目的

作者:fun88com

时间:
2023-03-18 04:00:36

  英国《新科学家》周刊网站2月14日刊登题为《认识一下那些具有交际才能的AI,它们开端了解人类的目的》的文章,作者是埃德·根特。内容编译如下:

  特别的人工智能(AI)现已进入咱们的日子。在象棋、围棋或许处理猜想蛋白质结构等艰深的科学问题方面,核算机的才能远远超越人类。但人类还具有一项它们远远没有把握的超才能:心思剖析。

  人类具有揣度别人方针、期望和信仰的难以幻想的才能,这项重要技能意味着咱们能够预见别人行为和本身行为的结果。心思剖析对人类来说很简略。假如AI要在日常日子中变得实在有用——与咱们进行有用协作,例如,就自动驾驶轿车而言,知道一个孩子或许会跟着球跑到路上——那么它们就需求树立相似的直觉才能。

  费事在于,这要比练习一位国际象棋大师难得多。由于人类行为具有不确定性,这需求灵敏的考虑,而这对AI来说往往很难。但最近的一些研讨效果,包含有依据标明,ChatGPT背面的AI能了解别人的观念,阐明有交际才能的机器不是白日梦。更重要的是,这或许是朝着更雄伟的方针迈出的一步——具有自我意识的人工智能。

  美国哥伦比亚大学的霍德·利普森说:“假如咱们期望机器人或一切AI无缝融入咱们的日子,那么咱们就有必要处理这个问题。咱们有必要给它们这份进化赋予人类的礼物,即读懂别人的心思。”

  心思学家把了解别人心思状况的才能称为心智理论。美国加利福尼亚大学伯克利分校的艾莉森·戈普尼克说,在人类身上,这种才能在很小的时分就开端构成。人类到了5岁左右,就具有揣度别人主意的高档才能。

  不过,人们还不清楚怎么在机器中仿制这些才能。问题之一在于,所谓的心智理论并非单一要求。美国布朗大学的伯特拉姆·马莱说:“人们所说的心智理论包含许多要素。这是才能的大集合。”这其中最简略的是了解行为背面的动机,而最难的是杂乱的交际活动。

  美国耶鲁大学的朱利安·贾拉-埃廷格说,最大的应战之一是布景。比方,假如有人问你要不要跑步,你答复“外面正在下雨”,他们立刻就揣度出答案是否定的。但这需求许多关于跑步、气候和人类喜爱的布景常识。

  马莱说,在教会AI这些技能时,要从最简略的开端,尤其是考虑到心智理论的技能看起来是分等级的。他说:“某些才能在动物国际中更遍及,且在人类的开展中呈现得更早,杂乱程度更低。”

  但是,即使教会机器最简略的交际技能也并非易事。它所触及的核算与核算机一般运用的公式逻辑截然不同。

  英国曼彻斯特大学的塞缪尔·卡斯基说,最重要的是,它们需求学会应对不确定性。

  一个人的内涵心思过程是无法直接调查到的,所以你只能依据现有的依据做出有依据的猜想。这样做一般需求改动一种被称为强化学习的传统机器学习技能。依照传统的办法,这包含为AI设定一个方针,并在它采纳有助于完成这一方针的举动时给予它奖赏。经过重复实验和试错,它将学会到达目的的行为。“逆向强化学习”则是另辟蹊径:在一段时刻里继续调查或人的行为,渐渐估测这个人想要干什么。这相似于儿童第一次看别人玩捉迷藏游戏,并敏捷估测出不同玩家的方针是什么。

  一种盛行的逆强化学习办法依托的是被称为贝叶斯推理的计算技能。这让你在剖析新数据的一起考虑到之前的常识。卡斯基说,这项技能十分强壮,由于它很好地应对了不确定性,使你能够使用已知信息,并习惯新信息。

  2022年,卡斯基及其搭档塞巴斯蒂安·佩乌特使用贝叶斯推理的办法开宣布一款原型数字帮手,能够帮忙人类做出一系列彼此相关的决议。在这个比方中,AI帮忙人们依据预算、时刻和偏好规划周末的参观行程。这个比方或许看起来微乎其微,但卡斯基说,这从底子上相似于帮忙处理工程设计等更杂乱的使命,他的方针是开发帮忙科学家和医师作业的AI帮手。他说:“实在的动力来自能够更好地处理更难的问题。”

  迄今为止,大多数关于机器心智理论的研讨依托简化的场景,如揣度移动智能体在底子二维网格国际中的方针。但美国麻省理工学院的乔希·特南鲍姆正试图将这些技能带入实际国际。2020年,他的团队把贝叶斯推理与机器人编程言语结合起来,他说这终究或许有助于将这些技能使用于机器人应战。最近,他们把这项使命的杂乱性前进到了三维层面。

  特南鲍姆说,测验幼儿心智理论的要害办法之一是向他们展现其别人的视频,然后问询孩子这些人想要到达什么目的,他的团队期望用AI来测验这项测验。2021年,特南鲍姆和他的搭档们展现了一项新应战,让AI观看3D卡通人物在坡道上奔驰、翻墙和穿门而过的动画。他们的贝叶斯模型在几种情形中都挨近人类的测验水平。

  特南鲍姆说,虽然现在还为时尚早,但他的团队正在与微软、IBM和谷歌的研讨人员协作,这些研讨人员有志于将他们的主意使用于实在的产品。他说:“咱们还远远没有一个完好的心智理论模型。但咱们有满足的根底资料,实际上现已到达工程规划,能够在一系列使用发挥效果。”

  还有一些研讨人员采纳了彻底不同的道路。近年来最受重视的人工智能前进大多依托深度学习神经网络,一个受大脑启示的算法宗族。一个重要特点是,程序员们很少在这些体系中树立曾经的常识,而是让它们吸收海量数据来学习经历。

  谷歌旗下“深层思维”公司的研讨人员开发的“心智理论网络”(NoM-net)就采用了这一道路年,他们证明,NoM-net能够经过“过错信仰测验”。尔后,还有一些研讨者也把相似的主意使用于更杂乱的范畴。

  利普森说,儿童心智理论开展的一个要害里程碑是,能了解别人观念能够与自己的观念不同。比方,4岁以下的孩子常常会闭上眼睛就以为自己躲起来了,以为他们看不到你,你就看不到他们。因而,2019年利普森及其搭档用深度学习AI应战了一场捉迷藏游戏。

  他们发明了一个布满障碍物的3D模仿场景,并放入两个智能体——一个捕食者和一个猎物,它们仅有的信息来历只要从环境中取得的一手信息。捕食者受一套规矩的分配,这些规矩旨在帮忙它找到另一个智能体;而猎物受神经网络操控,经过屡次实验后,这些神经网络成功地学会了怎么躲藏。

  利普森说,要应战成功,猎物有必要会经过捕食者的眼睛看国际。他说:“我以为这是心智理论的底子。要能够实在从另一个人的视点来看国际,而不仅仅是从逻辑上考虑。”

  2021年,利普森及其搭档扩展了他们的办法,证明在用数千张机器人进行简略活动的图片进行练习后,AI能够猜出机器人的目的,准确率到达99%。它甚至能经过“过错信仰测验”。

  利普森的办法的一个要害动机是,他期望心智理论在学习过程中自发地呈现。他说,把曾经的常识植入到AI中,会让它依托咱们对心智理论的不完美了解。此外,AI或许能开宣布咱们永久无法幻想的办法。利普森说:“还有许多办法的心智理论咱们并不了解。原因很简略,由于咱们存在于一个具有特定类型感官和特定考虑才能的人体中。”

  本月早些时分,斯坦福大学的迈克尔·科辛斯基报告了这方面心智理论开展的振奋人心的依据。他在一篇未经同行评议的论文中介绍,他用一些经典的“过错信仰测验”文本信息“投喂”ChatGPT背面的深度学习AI。在没有经过任何特别练习的情况下,AI在测验中的体现到达了9岁儿童的水平。

  美国元世界公司研讨人员的最新效果标明,将多种办法结合在一起或许是更强壮的手法,能够仿制一些触及心智理论的才能。上一年11月,他们开宣布一款名为“西塞罗”的AI,它能在战略棋盘游戏《交际》中打出人类等级的体现。这款游戏最多可有7名玩家,方针是抢夺欧洲的操控权。在每轮比赛前,玩家能够彼此商洽并结成联盟。这对AI来说极具应战性,由于这不但需求有用的交流,还需求猜想其他玩家的目的,以研讨怎么协作。

  该团队经过将一种深度学习言语模型与一种战略规划模型相结合,处理了这一难题。最要害的是,规划模型依托的是博弈论的概念,即用数学模型来了解战略决策。西塞罗使用实在《交际》游戏的数据进行练习,以猜想玩家会依据棋盘状况和之前的对话做什么。这些随后被归入规划模型中,该模型提出了一种战略,即在一切玩家理论上的最佳举动,以及他们的对话暗示他们要做什么之间进行权衡。然后,西塞罗会生成对话,以帮忙它完成方针。在一个在线联盟的排名中,它进入了前10%,但并没有引起人们对它是AI的置疑。

  首要研讨人员之一诺姆·布朗说:“我以为咱们实在做到了让它了解玩家的信仰、方针和目的。”这是在通向具有交际才能的机器的道路上迈出的重要一步。但特南鲍姆说,西塞罗模仿玩家心思过程才能还算不上实在的心智理论,由于这局限于《交际》这款游戏,不能使用在其他使命中。他说:“它们好像现已取得了一些反映人类运用心智理论的战略,但这并不等于它们现已取得了心智理论。”

  特南鲍姆说,咱们期望AI具有更挨近人类的心智理论,是有实际原因的。深度学习体系一般是黑匣子——很难破解它们究竟是怎么做决议的。另一方面,人类能够用自己的言语和思维,明晰地向其别人解说自己的方针和期望。特南鲍姆说,虽然根据学习的办法或许在开发更强壮的AI方面发挥重要效果,但以同享的办法构建常识或许对人类信赖AI并与之交流至关重要。

  特南鲍姆说:“它们应当在底子上具有类人道。假如仅仅走大数据道路,并进行许多机器学习,我以为是得不到这些的。”他还说,假如咱们期望使用AI来帮忙咱们更好地了解心智理论对人类的效果,这一点相同重要。

  不过,利普森说,重要的是要记住,向机器灌注心智理论不仅仅是为了制作更多有用的机器人。这也是在为完成人工智能和机器人研讨的更深层次方针铺路,这个方针便是——制作实在有爱情的机器。