发表在科学杂志《自然-神经科学》上的一项研究提供了一个可能的解决方案:数据压缩。
该研究的资深作者之一、葡萄牙Champalimaud基金会理论神经科学实验室负责人克里斯蒂安-马肯斯说:"压缩外部世界的表征类似于消除所有不相关的信息并对情况采取临时的'隧道视野'。"
"大脑通过使用数据压缩使性能最大化,同时使成本最小化,这种想法在感官处理的研究中普遍存在。然而,它还没有真正在认知功能中得到研究,"资深作者、Champalimaud神经科学研究项目主任Joe Paton说。"使用实验和计算技术的组合,我们证明了这个相同的原则延伸到了比以前更广泛的功能领域。
(资料图片仅供参考)
研究人员在他们的试验中采用了一个计时范式。小鼠必须在每次试验中决定两个音调的间隔时间是大于还是小于1.5秒。当动物完成挑战时,研究人员同时捕捉到其大脑中多巴胺神经元的活动。
"众所周知,多巴胺神经元在学习行动的价值方面起着关键作用,"Machens解释说。"因此,如果动物在某次试验中错误地估计了间隔时间,那么这些神经元的活动将产生一个'预测错误',有助于提高未来试验中的表现。"
为了确定哪种计算强化学习模型最能体现神经元的活动和动物的行为,该研究的第一作者Asma Motiwala构建了一些模型。这些模型在如何表示可能与执行任务有关的数据方面各不相同,但它们有某些共同的原则。
该小组发现,数据只能由具有压缩任务表征的模型来解释。
"大脑似乎会消除所有不相关的信息。奇怪的是,它显然也摆脱了一些相关的信息,但还不足以对动物收集的总体奖励的多少产生真正的打击。小鼠显然知道如何在这个游戏中取得成功,"Machens说。
有趣的是,所代表的信息类型不仅是关于任务本身的变量。相反,它还捕捉到了动物自身的行动。
"以前的研究侧重于独立于个体行为的环境特征。但我们发现,只有依赖于动物行为的压缩表征才能完全解释数据。事实上,我们的研究首次表明,学习外部世界表征的方式,可能以不寻常的方式与动物选择如何行动相互作用,"Motiwala解释说。
据作者称,这一发现对神经科学和人工智能有广泛的影响。"虽然大脑显然已经进化到可以有效地处理信息,但人工智能算法往往通过蛮力解决问题:使用大量数据和大量参数。我们的工作提供了一套原则来指导未来的研究,即在生物学和人工智能的背景下,世界的内部表征如何能够支持智能行为,"Paton总结道。