新人工智能使用联想学习技术而不是人工智能的传统神经网络来挑战人工神经元和突触是人工智能的唯一组成部分的传统观念。牛津大学材料系的研究人员与埃克塞特和明斯特的同事合作开发了一种片上光学处理器,该处理器检测数据集中的相似性的速度比在电子处理器上运行的传统机器学习算法快1000倍。
发表在Optica上的新研究受到诺贝尔奖获得者IvanPavlov发现经典条件反射的启发。在他的实验中,巴甫洛夫发现,通过在喂食过程中提供另一种刺激,例如铃铛或节拍器的声音,他的狗开始将这两种体验联系起来,并且只听到声音就会流口水。两个不相关的事件配对在一起的重复关联可以产生学习反应——条件反射。
共同第一作者JamesTanYouSian博士在牛津大学材料系攻读博士学位,他说:“巴甫洛夫联想学习被认为是塑造人类和动物行为的基本学习形式——但人工智能系统的采用在很大程度上是闻所未闻的。我们对巴甫洛夫学习与并行光学处理的研究证明了各种人工智能任务的令人兴奋的潜力。
大多数AI系统中使用的神经网络在学习过程中通常需要大量数据示例——训练模型以可靠地识别猫可能使用多达10,000张猫/非猫图像——计算和处理成本很高。
关联单子学习元素(AMLE)不是依靠神经网络青睐的反向传播来“微调”结果,而是使用一种记忆材料来学习模式,将数据集中的相似特征关联在一起——模仿巴甫洛夫在案例中观察到的条件反射的“比赛”。
AMLE输入与正确的输出配对以监督学习过程,并且可以使用光信号重置记忆材料。在测试中,仅用五对图像进行训练后,AMLE就可以正确识别猫/非猫图像。
与传统电子芯片相比,新型光学芯片具有相当可观的性能,这归因于设计上的两个关键差异:
芯片硬件使用光来发送和检索数据,以最大限度地提高信息密度——同时发送多个不同波长的信号进行并行处理,从而提高识别任务的检测速度。每个波长都会提高计算速度。
明斯特大学的合著者WolframPernice教授解释说:“该设备自然地捕捉数据集中的相似性,同时使用光并行这样做以提高整体计算速度——这远远超过了传统电子芯片的能力。”
联合第一作者、现复旦大学的郑增光教授澄清说,联想学习方法可以补充神经网络,而不是取代它们。
“对于不需要对数据集中高度复杂的特征进行大量分析的问题,它更有效”,程教授说。“许多学习任务都是基于数量的,没有那种复杂程度——在这些情况下,联想学习可以更快地完成任务,并且计算成本更低。”
“越来越明显的是,人工智能将成为我们将在人类历史下一阶段见证的许多创新的中心。这项工作为实现为特定类型的人工智能计算捕获数据关联的快速光学处理器铺平了道路,尽管前方仍有许多令人兴奋的挑战。领导这项研究的哈里什·巴斯卡兰教授说。