您的当前位置:首页>技术 > 正文

犹豫不决时AI帮你做决策!DeepMind让AI更懂人类思维

来源:智东西 时间:2023-08-13 08:49:49

智东西

编译| 铭滟

编辑 | 徐珊


(资料图)

智东西8月10日消息,据TechXplore报道,剑桥大学、普林斯顿艾伦图灵研究所和Google DeepMind的研究人员联合发布了一项新型人工智能系统。该系统可以在人类给出模糊反馈的情况下,训练机器学习系统给出确定的决策。

研究人员的目的是让人工智能能够更好地理解人类的思维方式,从而提高人机协同效率。此前机器学习的设定前提是以人类的确定答案为基础,但是以人类的正常思维模式而言,在多数情况下,人类是难以给出确定答案的。这一点正是此前的研究空白。

图为该论文摘要

该研究有助于降低人工智能系统风险并提高人工智能的可靠性,这一点在类似医疗诊断等高安全需求的情景下尤为重要。

一、模糊决策训练可提升人工智能性能

许多人工智能系统无法“接受”人的错误和不确定性,这一点在人类与机器学习模型反馈的系统中体现的尤为明显。许多人工智能系统的编程基础为假定人类总能给出正确答案,但这只是人类日常思维的一部分,另一部分则包含许多不确定性和错误的结论。所以,研究人员试图通过模糊决策(与确定决策相对)训练机器学习系统。

图为图片识别反馈日志

研究人员采用通用的图像分类数据集,让实验人员在标记特定图像时提供反馈并标明其决策的模糊程度。

研究人员使用了三个基础机器学习数据集:一个是数字分类,一个是对胸部X光片进行分类,一个是对鸟类图像进行分类。对于前两个数据集,实验人员需要给出模糊反馈。但对于鸟类图像数据集,实验人员需要给出确定反馈:例如,鸟是红色还是橙色。

这些由实验人员提供的特定反馈可以让研究人员追踪机器学习的决策过程,并确定其最终输出结果是如何改变的。

研究人员发现,尽管模糊决策训练会导致人工智能系统的整体性能下降,但是,使用模糊标签进行训练可以提高这些系统处理模糊反馈的性能。

二、优化人工智能新思路:从人类思维出发

该项研究解决的核心问题即为,当人类犹豫不决时,人工智能应该怎么办?

“人类对待世界天然具有不确定性,但许多人工智能系统未能考虑到这一点,”剑桥大学工程系的第一作者Katherine Collins说。“许多开发人员都在努力让模型变得确定且可靠。但很少有人从人类思维模式角度出发,思考人工智能系统应该如何优化。”

研究人员表示,许多人工智能系统的预设前提是人类总能给出确定的答案。但这是不可能的,因为人都会犯错,都会犹豫。他们想知道当人类给出模糊反馈时,人工智能系统会怎么办?这一点在应用于安全需求较高的环境中时尤为重要,比如临床医生使用医疗人工智能系统的场景。

图为哮喘患者反馈日志

“我们需要更好的工具和数据来重新校准这些模型,这也是为了提高未来人机协作的效率。”研究人员Matthew Barker说。“机器学习模型就是在与人类的真实思维模式相处。”

研究人员表示,他们正在发布用于机器学习的数据集,以便未来让人工智能能够更好地理解人类的思维方式。

“在某些方面,这项研究发现的问题比回答的问题多。”Barker说。

结语:人工智能系统或可更接近人类真实思维模式

研究人员曾表示,基于他们数十年的人类行为学研究,他们认为人类天然具有不确定性,他们也正在努力弥合人类的真实思维方式与机器学习这两个领域,以便机器学习可以更接近人类的真实思维。

从人工智能训练的角度而言,或许也可以通过细化分析人的行为决策路径,将模糊决策转化为概率问题,从而进一步优化人机交互系统。

来源:TechXplore

标签:

最新新闻:

新闻放送
Top