液态神经网络(Liquid Neural Networks,简称LNN)是一种新型的神经网络,它受到生物大脑的启发,特别是秀丽隐杆线虫(Caenorhabditis elegans)的神经系统。这种线虫虽然只有302个神经元,却能展现出复杂的行为,如寻找食物、睡眠和学习。液态神经网络的核心特点是其动态性和连续性,它能够顺序处理数据,保留过去输入的记忆,并根据新输入调整其行为,处理可变长度的输入以增强任务理解能力。 2020 年的论文《液态时间常数网络Liquid Time Constant Networks》 将LNN带到了 AI/ML 领域的前沿。它旨在提高单个神经元的表征能力,而不是通过规模获得能力。 LNN已经加入到QuantML-Qlib的模型qlib/contrib/model/pytorch_lnn_ts.py当中,通过config配置好参数之后,即可一键运行。 在未经任何优化的情况下,LNN在选股中的表现已经超越目前SOTA模型GRU的结果,显示出了巨大的潜力 具体运行方式如下:按照教程配置好QuantML-Qlib之后,在examples/benchmarks/LNN/workflow_config_lnn_Alpha360.yaml修改相应的参数,运行目录下的run.py即可进行训练并得到最终的预测结果。 中证500内回测效果如下: GRU: LNN: 相比于GRU, LNN的累计超额收益从42%提升到了49%,最大回撤从27%下降到23%,具有明显的提升。且LNN模型未经任何优化,优化后结果会有进一步提升。 目前QuantML-Qlib Model Zoo中已经集成了40+经典以及前沿的AI模型,未来我们将继续融合新的前沿模型,希望能够使研究员专注模型优化以及策略开发,节省大量的模型开发时间。同时还有Alpha Zoo项目,目前包括GP, RL, KAN, AlphaNET, LLM, 研报因子挖掘等方法。LNN介绍
液态神经网络的关键特性包括:
QuantML-Qlib 实现