对于大型团体设置(例如,在线论坛和社交媒体),我们做出的选择对我们来说似乎很自然。但是我们的决策过程比我们所知道的更为复杂。因此,研究人员一直在努力了解看似直观的过程背后的原因。
现在,华盛顿研究的新大学发现,在大集团基本上是匿名成员,人们做出基于“模型选择的头脑组”和的选择会如何影响理论头脑的演变模拟。
借助植根于人工智能和机器人技术的数学框架,威斯康星大学的研究人员能够揭示一个人如何在群体中做出选择的过程。而且,他们还发现,与传统的描述方法相比,他们能够更频繁地预测一个人的选择。结果发表在11月27日星期三的《科学进展》上。
威斯康星大学Paul G. Allen计算机科学学院的CJ和Elizabeth Hwang教授,资深作者Rajesh Rao说:“鉴于社交媒体在指示人类如何作为特定群体的成员方面起着越来越重要的作用,我们的结果特别有趣。”和工程学以及神经技术中心联合主任。
“在在线论坛和社交媒体小组中,匿名小组成员的共同行动会影响您的下一个行动,相反,您自己的行动会改变整个小组的未来行为,” Rao说。
研究人员希望找出在此类环境中起作用的机制。
在论文中,他们解释了人类的行为依赖于对环境未来状态的预测(对可能发生的情况的最佳猜测),并且该环境的不确定性在社会环境中“急剧增加”。为了预测当另一个人参与时可能发生的情况,一个人建立了另一个人的思想模型,称为思想理论,然后使用该模型来模拟一个人自己的行为将如何影响另一个“思想”。
尽管此行为对于一对一的交互作用很好,但是要在大型组中为单个思维建模的能力要困难得多。这项新的研究表明,即使不知道其他人的身份,人们也可以创建代表该人“思想”的平均模型。
为了研究团队决策中出现的复杂性,研究人员集中在“志愿者的困境任务”上,其中一些人忍受了一些使整个团队受益的成本。他们在论文中解释说,任务的例子包括守卫职责,献血和在公共场所向前迈进以制止暴力行为。
为了模仿这种情况并研究行为和大脑反应,研究人员将受试者逐个放入MRI,然后让他们玩游戏。在称为公共物品游戏的游戏中,对象对公共金钱的贡献会影响其他人,并确定团队中每个人的回报。一个受试者可以决定捐献一美元,也可以决定“搭便车”,也就是说,不希望获得报酬,而是希望其他人也可以贡献力量。
如果总捐款额超过预定数额,每个人都将获得两美元。受试者与他们从未见过的其他人进行了数十轮比赛。对于这个主题不为人知的是,其他的实际上是由模仿先前人类玩家的计算机模拟的。
“我们几乎可以瞥见人类的思想,并分析其做出集体决策的潜在计算机制,”主要作者艾伦学院的博士生Koosha Khalvati说。“当与大量人进行互动时,我们发现人们试图基于普通的小组成员的意图模型来预测未来的小组互动。重要的是,他们还知道自己的行为会影响小组。例如,他们意识到即使他们对其他人都是匿名的,他们的自私行为也会减少小组在未来的互动中的协作,并可能带来不希望的结果。”
在他们的研究中,研究人员能够为这些动作分配数学变量,并创建自己的计算机模型来预测人在游戏中可能做出的决定。他们发现,他们的模型比强化学习模型更能预测人的行为(也就是说,当一个参与者根据上一轮的支付方式而不论其他参与者如何学习而做出贡献时)以及更传统的描述性方法。
鉴于该模型为人类行为提供了定量解释,Rao想知道在构建与人类互动的机器时是否有用。
他说:“在机器或软件与大批人员交互的情况下,我们的结果可能会为AI带来一些教训。” “一台模拟“一群人的思想”并模拟其行为如何影响该群的机器可能会导致更人性化的AI,其行为会更好地与人类的价值观保持一致。”