今天的人工智能系统正在迅速发展,成为人类的新的最好朋友。我们现在拥有的人工智能可以调制出获奖的威士忌,写诗,并帮助医生进行极其精确的外科手术。但有一件事它们做不到--从表面上看,这比其他所有这些事情简单得多--那就是使用常识。
常识不同于智力,因为它通常是人类与生俱来的、自然的东西,可以帮助他们驾驭日常生活,而且无法真正地被教导。1906年,哲学家G.K.切斯特顿写道:"常识是一种野生的东西,野蛮的,超越规则的"。

当然,机器人是在算法上运行的,这些算法就是:规则。
所以,不,机器人不能使用常识--现在还不能。但由于目前在该领域的努力,我们现在可以测量人工智能的核心心理推理能力,使我们更近一步。
那么,为什么我们是否教给人工智能常识是重要的呢?
实际上,这归结为一个事实,即常识将使人工智能更好地帮助我们解决现实世界的问题。许多人认为,为复杂问题设计的人工智能驱动的解决方案,例如诊断Covid-19的治疗方法,往往会失败,因为系统不能随时适应现实世界的情况,那里的问题是不可预测的,模糊的,不是由规则定义。
在人工智能中注入常识对人类来说可能意味着大事;更好的客户服务,机器人可以真正帮助一个不满的客户,而不是把他们送入一个无休止的 "从以下选项中选择 "的循环。它可以使自动驾驶汽车对意外的道路事件做出更好的反应。它甚至可以帮助军队从情报中获取生死攸关的信息。
那么,为什么到目前为止,科学家们还没有能够破解常识的密码呢?
常识被称为 "人工智能的暗物质",它既是人工智能未来发展的关键,又是迄今为止难以捉摸的。实际上,自计算机科学领域开始以来,为计算机配备常识一直是该领域的一个目标;1958年,先锋计算机科学家约翰-麦卡锡发表了一篇题为 "具有常识的程序 "的论文,探讨了如何将逻辑作为一种方法在计算机内存中表示信息。但从那时起,我们并没有在使其成为现实方面取得多大进展。
常识不仅包括社会能力和推理,还包括 "天真的物理学意识"--这意味着我们知道关于物理学的某些事情,而不需要通过物理学方程式,比如为什么你不应该把保龄球放在一个倾斜的表面上。它还包括关于时间和空间等抽象事物的基本知识,这使我们能够计划、估计和组织。"奥克兰大学的人工智能研究员迈克尔-维特布洛克说:"这是你应该拥有的知识。
所有这些都意味着常识不是一个精确的东西,因此不能轻易用规则来定义。
秘密代理人
我们已经确定,常识要求计算机根据复杂的、现实世界的情况来推断事物--这种东西对人类来说很容易,从婴儿期就开始形成。
计算机科学家正在朝着建立能够推断心理状态、预测未来行动并与人类合作的人工智能代理取得(缓慢)但稳定的进展。但为了了解我们实际上有多接近,我们首先需要一个严格的基准来评估人工智能的 "常识",或其心理推理能力。
来自IBM、麻省理工学院和哈佛大学的研究人员已经创建了这样的基准。AGENT,即行动-目标-效率-约束-能力的缩写。经过测试和验证,这个基准被证明能够评估一个人工智能模型的核心心理推理能力。这意味着它实际上可以给人一种社会意识,可以在现实世界的环境中与人类互动。
那么,什么是AGENT?AGENT是一个大规模的3D动画数据集,其灵感来自研究儿童认知发展的实验。这些动画描述了某人在不同的物理约束下与不同的物体进行互动。根据IBM的说法。
"这些视频由不同的试验组成,每个试验包括一个或多个代理人在特定物理环境中的典型行为的'熟悉'视频,与同一代理人在新环境中的行为的'测试'视频配对,鉴于代理人在相应的熟悉视频中的行为,这些视频被标记为'预期'或'令人惊讶'。"
然后,一个模型必须根据它在 "熟悉 "视频中所学到的行为,判断代理人在 "测试 "视频中的行为有多令人惊讶。使用AGENT基准,然后通过大规模的人类评级试验来验证该模型,人类将 "令人惊讶的""测试 "视频评为比 "预期 "测试视频更令人惊讶。
IBM的试验表明,为了展示常识,人工智能模型必须有人类计划方式的内置表示。这意味着既要有基本的物理学意识,又要有 "成本-回报权衡",这意味着要理解人类如何 "根据效用采取行动,将其目标的回报与达到目标的成本进行交易"。
虽然还不完美,但这些发现表明AGENT是一个有希望的诊断工具,用于开发和评估人工智能中的常识,这也是IBM正在研究的问题。它还表明,我们可以利用类似的传统发展心理学方法,用于教导人类儿童的物体和想法的关系。
在未来,这可能有助于大大减少这些模型的培训需求,让企业节省计算能源、时间和金钱。
机器人还不了解人类的意识--但随着像AGENT这样的基准工具的发展,我们将能够衡量我们有多接近。
常识不同于智力,因为它通常是人类与生俱来的、自然的东西,可以帮助他们驾驭日常生活,而且无法真正地被教导。1906年,哲学家G.K.切斯特顿写道:"常识是一种野生的东西,野蛮的,超越规则的"。

当然,机器人是在算法上运行的,这些算法就是:规则。
所以,不,机器人不能使用常识--现在还不能。但由于目前在该领域的努力,我们现在可以测量人工智能的核心心理推理能力,使我们更近一步。
那么,为什么我们是否教给人工智能常识是重要的呢?
实际上,这归结为一个事实,即常识将使人工智能更好地帮助我们解决现实世界的问题。许多人认为,为复杂问题设计的人工智能驱动的解决方案,例如诊断Covid-19的治疗方法,往往会失败,因为系统不能随时适应现实世界的情况,那里的问题是不可预测的,模糊的,不是由规则定义。
在人工智能中注入常识对人类来说可能意味着大事;更好的客户服务,机器人可以真正帮助一个不满的客户,而不是把他们送入一个无休止的 "从以下选项中选择 "的循环。它可以使自动驾驶汽车对意外的道路事件做出更好的反应。它甚至可以帮助军队从情报中获取生死攸关的信息。
那么,为什么到目前为止,科学家们还没有能够破解常识的密码呢?
常识被称为 "人工智能的暗物质",它既是人工智能未来发展的关键,又是迄今为止难以捉摸的。实际上,自计算机科学领域开始以来,为计算机配备常识一直是该领域的一个目标;1958年,先锋计算机科学家约翰-麦卡锡发表了一篇题为 "具有常识的程序 "的论文,探讨了如何将逻辑作为一种方法在计算机内存中表示信息。但从那时起,我们并没有在使其成为现实方面取得多大进展。
常识不仅包括社会能力和推理,还包括 "天真的物理学意识"--这意味着我们知道关于物理学的某些事情,而不需要通过物理学方程式,比如为什么你不应该把保龄球放在一个倾斜的表面上。它还包括关于时间和空间等抽象事物的基本知识,这使我们能够计划、估计和组织。"奥克兰大学的人工智能研究员迈克尔-维特布洛克说:"这是你应该拥有的知识。
所有这些都意味着常识不是一个精确的东西,因此不能轻易用规则来定义。
秘密代理人
我们已经确定,常识要求计算机根据复杂的、现实世界的情况来推断事物--这种东西对人类来说很容易,从婴儿期就开始形成。
计算机科学家正在朝着建立能够推断心理状态、预测未来行动并与人类合作的人工智能代理取得(缓慢)但稳定的进展。但为了了解我们实际上有多接近,我们首先需要一个严格的基准来评估人工智能的 "常识",或其心理推理能力。
来自IBM、麻省理工学院和哈佛大学的研究人员已经创建了这样的基准。AGENT,即行动-目标-效率-约束-能力的缩写。经过测试和验证,这个基准被证明能够评估一个人工智能模型的核心心理推理能力。这意味着它实际上可以给人一种社会意识,可以在现实世界的环境中与人类互动。
那么,什么是AGENT?AGENT是一个大规模的3D动画数据集,其灵感来自研究儿童认知发展的实验。这些动画描述了某人在不同的物理约束下与不同的物体进行互动。根据IBM的说法。
"这些视频由不同的试验组成,每个试验包括一个或多个代理人在特定物理环境中的典型行为的'熟悉'视频,与同一代理人在新环境中的行为的'测试'视频配对,鉴于代理人在相应的熟悉视频中的行为,这些视频被标记为'预期'或'令人惊讶'。"
然后,一个模型必须根据它在 "熟悉 "视频中所学到的行为,判断代理人在 "测试 "视频中的行为有多令人惊讶。使用AGENT基准,然后通过大规模的人类评级试验来验证该模型,人类将 "令人惊讶的""测试 "视频评为比 "预期 "测试视频更令人惊讶。
IBM的试验表明,为了展示常识,人工智能模型必须有人类计划方式的内置表示。这意味着既要有基本的物理学意识,又要有 "成本-回报权衡",这意味着要理解人类如何 "根据效用采取行动,将其目标的回报与达到目标的成本进行交易"。
虽然还不完美,但这些发现表明AGENT是一个有希望的诊断工具,用于开发和评估人工智能中的常识,这也是IBM正在研究的问题。它还表明,我们可以利用类似的传统发展心理学方法,用于教导人类儿童的物体和想法的关系。
在未来,这可能有助于大大减少这些模型的培训需求,让企业节省计算能源、时间和金钱。
机器人还不了解人类的意识--但随着像AGENT这样的基准工具的发展,我们将能够衡量我们有多接近。
打赏
-
支付宝扫一扫
-
微信扫一扫