到目前为止,我们对人工智能聊天机器人的体验非常复杂。
在某一时刻,感觉就像在和一个真实的人交谈,他可以提供真正的见解和建议。但也有一些对话会让人感到沮丧,因为过于急切的算法会提供无意义的内容或错误的事实主张。
但是,如果我们的经验反映了我们在开始这些对话之前的期望呢?换句话说,如果人工智能只是反映了我们自己的信念,这是许多人怀疑了一段时间的事情,那该怎么办?
在该杂志上发表的一项新研究中,来自麻省理工学院媒体实验室的一组研究人员发现,对特定的人工智能体验“做好准备”的受试者几乎总是最终拥有这种体验。
如果你仔细想想,这是相当惊人的:这似乎表明,聊天机器人的许多吸引眼球的功能可以通过用户将他们的期望投射到系统上来解释。
“人工智能是一面镜子,”麻省理工学院媒体实验室的Pat Pataranutaporn说,他是这项研究的合著者。
“基本上,我们想量化人工智能安慰剂的效果,”他补充说。“我们想看看,如果你对人工智能有一定的想象,会发生什么:这将如何体现在你的互动中?”
在一项实验中,研究小组将300名参与者分成三组。所有参与者都被要求使用人工智能来接受心理健康支持,并评估其提供支持的有效性。
然而,这三组人都被告知期待不同的体验,尽管事实上所有300名参与者都会遇到OpenAI的生成式GPT-3或ELIZA,这是一种更简单的基于规则的人工智能,两者都没有以任何方式被操纵。
一组被告知人工智能没有动机。第二组被告知,人工智能被训练出同情和同情。第三个人被告知人工智能有“恶意,试图操纵或欺骗用户”。
结果是惊人的,所有三组的大多数参与者都报告说,他们的经历与他们被告知的预期一致。
Pataranutaporn说:“当人们认为人工智能有爱心时,他们会对它变得更加积极。”他认为,“强化反馈”会导致参与者根据他们被告知的内容改变他们对人工智能的看法。
Pataranutaporn和他的同事们认为,随着时间的推移,整个文化看待人工智能的方式最终可能会影响这项技术的使用和发展方式。
研究人员在论文中写道:“我们发现,心理模型在很大程度上影响了用户的评分,并影响了用户和人工智能的行为。”“这种心理模式是受启动效应影响的个人文化背景、个人信仰和特定情境的结果。”
这也意味着这些人工智能背后的人具有相当大的影响力。
他说:“市场营销人员或产品制造人员希望以某种方式塑造产品。”“他们想让它看起来更有同情心或更值得信赖,即使内部引擎可能会有很大的偏见或缺陷。”
他补充说,虽然我们主要专注于研究人工智能答案中存在的偏见,但我们也应该“考虑人类与人工智能的互动,这不仅仅是一条单行道”。“你需要考虑人们给这个系统带来了什么样的偏见。”