动物大脑可以在许多时间尺度上利用环境变化。他们利用时间结构来学习因果关系和良好分解的表示。最近发表在arXiv.org上的一篇论文从生物大脑中获得灵感,并开发了一种简单的算法,该算法在推理时使用优化来产生内部生成的上下文信号。它们允许代理将其时间经验解析为离散事件并组织对它们的学习。
结果表明,按顺序训练任务的网络可以动态推断任务,不再需要任务标识符。提出了一种将序列经验解析为事件的算法。它可以推广到新的任务并发现没有预先指定数量的事件的时间事件。此外,该算法适用于开放式学习,因为它不需要区分训练阶段或测试阶段。
动物在不断变化的环境中茁壮成长,并利用时间结构来学习分解良好的因果表示。相比之下,传统的神经网络在不断变化的环境中会遭受遗忘,并且已经提出了许多方法来通过不同的权衡来限制遗忘。受大脑丘脑皮层电路的启发,我们引入了一种简单的算法,该算法在推理时使用优化来生成时间上下文的内部表示并动态推断当前上下文,从而允许代理将时间经验流解析为离散事件并组织对它们的学习.我们表明,使用传统权重更新在一系列任务上训练的网络可以使用潜在任务嵌入空间(潜在更新)中的梯度下降步骤动态推断任务。然后,我们在权重更新和潜在更新之间交替以到达Thalamus,这是一种与任务无关的算法,能够使用简单的梯度下降在未标记的任务流中发现解开的表示。在持续的学习基准上,它达到了具有竞争力的最终平均准确性并展示了知识转移。在学习了任务的一个子集之后,它可以通过一次性潜在更新将它们泛化到未见过的任务,因为它们在分解良好的潜在空间内变得可访问。该算法满足了开放式环境中理想的持续学习代理的许多要求,其简单性表明在具有丰富反馈控制回路的电路中进行基本计算,例如大脑中的丘脑皮质电路。一种与任务无关的算法,能够使用简单的梯度下降在未标记的任务流中发现解开的表示。在持续的学习基准上,它达到了具有竞争力的最终平均准确性并展示了知识转移。在学习了任务的一个子集之后,它可以通过一次性潜在更新将它们泛化到未见过的任务,因为它们在分解良好的潜在空间内变得可访问。该算法满足了开放式环境中理想的持续学习代理的许多要求,其简单性表明在具有丰富反馈控制回路的电路中进行基本计算,例如大脑中的丘脑皮质电路。一种与任务无关的算法,能够使用简单的梯度下降在未标记的任务流中发现解开的表示。在持续的学习基准上,它达到了具有竞争力的最终平均准确性并展示了知识转移。在学习了任务的一个子集之后,它可以通过一次性潜在更新将它们泛化到未见过的任务,因为它们在分解良好的潜在空间内变得可访问。该算法满足了开放式环境中理想的持续学习代理的许多要求,其简单性表明在具有丰富反馈控制回路的电路中进行基本计算,例如大脑中的丘脑皮质电路。它实现了具有竞争力的最终平均准确性并展示了知识转移。在学习了任务的一个子集之后,它可以通过一次性潜在更新将它们泛化到未见过的任务,因为它们在分解良好的潜在空间内变得可访问。该算法满足了开放式环境中理想的持续学习代理的许多要求,其简单性表明在具有丰富反馈控制回路的电路中进行基本计算,例如大脑中的丘脑皮质电路。它实现了具有竞争力的最终平均准确性并展示了知识转移。在学习了任务的一个子集之后,它可以通过一次性潜在更新将它们泛化到未见过的任务,因为它们在分解良好的潜在空间内变得可访问。该算法满足了在开放式环境中理想的持续学习代理的许多要求,其简单性表明在具有丰富反馈控制回路(如大脑中的丘脑皮质回路)的回路中进行基本计算。