zoukankan      html  css  js  c++  java
  • 量化都玩IPU了?Man Group-Oxford研究所给你答案

    https://mp.weixin.qq.com/s/pI6oLyuQaBkJabPfNcG8LA

    人工智能可以预测走势

    近日,根据彭博报道,Oxford-Man量化研究所的研究人员表示,他们已经开发出了一个机器学习程序,可以预测股价的走势——预测范围在30s内,且该程序的成功率达到了80%!

     

    图片

    根据报道,该算法计算出价格在100个tick内的走势,这相当于大约30秒到2分钟的交易时间。

     

    该研究所副教授、此项目联合负责人Stefan Zohren表示:“在多步预测中,我们实际上有一个经过训练的模型,可以在更小的范围内进行预测。我们将这些信息反馈给预测本身,并将预测向前滚动,从而得到更长周期的预测。”

    Man AHL首席科学家Anthony Ledford表示:“该算法仍处于测试阶段。如果我们建立并且持有自己的仓位,你可能会持有该仓位数周。但实际上,通过一系列规模较小的交易,实际上让你持有该仓位的时间要短得多。”

     

    Ledford也表示:“虽然这项研究是兴奋的,但Man尚未承诺推出该模型!

    随着行业竞争的加剧,核心策略的收益越来越低,量化分析师们正在争相部署学习股票统计模式的程序,以降低交易成本,并找到新的投资信号。

    Zohren与研究助理Zihao Zhang还在今年共同撰写了下面这篇论文,大家可以看看:

    图片

    https://arxiv.org/pdf/2105.10430.pdf

    在这篇论文中的一个核心点在于,研究人员使用了Graphcore(拟未科技)公推出司的IPU(Intelligence Processing Unit)优化了其计算性能。

    什么是IPU?

     

    用一句话来总结为什么需要IPU,可以这样说:

     

    如果CPU和GPU是AI技术的“适应者”,那IPU就是针对AI而生的技术!

     

    的确,现在有越来越多的AI技术是在CPU、GPU之后才出现,但只有IPU是为了实现AI的技术而设计,速度更快、更完整呈现算法。

     

    至于GPU跟IPU实际上的差别,Graphcore曾说道:“如果是用来执行分类静态图片的前馈卷积神经网络(feed-forward convolutional neural networks),GPU的表现已经相当好,但IPU可以提供两到三倍的性能优势、有时甚至是五倍。若是更复杂的模型,像是尝试理解场景对话的模型,由于资料需来回快速传递,但是因为所有的模型都保存在我们的处理器中,IPU可以比GPU快很多,甚至可能快十倍、二十倍或者五十倍。”

    我们知道,多时间窗口(multi-horizon)预测模型的实用性在很大程度上受到了CPU和GPU训练缓慢的影响。

     

    图片

    多时间窗口预测

    由于IPU为AI设计的架构为Oxford-Man量化研究所减少了多时间窗口预测模型的训练时间,以便更准确地估计市场价格变动,他们发现IPU的速度至少比普通GPU快至少10倍左右。

    单时间窗口(single horizon)预测通常是作为一个标准的监督学习方法,其目的是建立限价订单簿上的买/卖价格和在特定时刻的最终市场价格之间的关系。然而,影响市场定价的因素众多,有用的信噪比相对较低,使得很难从单时间窗口推断出长期的预测路径。

    一种实现多时间窗口预测的技术借用了NLP中常见的方法,采用Seq2Seq和Attention模型,这些模型包括编码器和解码器的复杂循环神经层。Attention模型有助于解决Seq2Seq模型的某些限制,这些限制阻止它们处理一些长序列。

    图片

    Seq2Seq网络体系结构

    但是,这种模型的递归结构不利于GPU等处理器体系结构上的并行处理。考虑LOB数据的速度很快,这种情况尤成问题。

    对于这个计算问题已经提出了几种解决方案,包括使用具有完全连接层的Transformer。

    然而,Oxford-Man量化研究所的团队认为,Seq2Seq/Attention组合的周期性结构与多时间窗口预测中时间序列的性质非常吻合,从而能够总结过去的信息并传播到随后的时间戳。

     

    LOB数据被Oxford-Man量化研究团队用来训练一些模型,其中包括DeepLOB,由其团队开发:

     

    图片

    https://arxiv.org/pdf/1906.04404.pdf

    多时间窗口预测方面,研究人员测试了DeepLOB的两个变体DeepLOB-Seq2Seq和DeepLOB-Attention,它们分别使用Seq2Seq和Attention模型作为解码器。

     

    图片

    模型架构:具有编码器/解码器结构的DeepLOB

    在包括DeepLOB-Seq2Seq和DeepLOB-Attention在内的一系列模型中,Graphcore IPU系统在训练时间方面优于其GPU:

    图片

    同时,Zohren还考虑将编码器-解码器结构应用于强化学习框架,正如下面这篇论文所述:

    图片

    https://www.oxford-man.ox.ac.uk/wp-content/uploads/2020/06/Deep-Reinforcement-Learning-for-Trading.pdf

  • 相关阅读:
    我就这么点时间,我该做些什么?
    如何排解压力
    渡过难关
    获得财富前,先问一下自己创造了什么
    程序员娶妻之道
    20150929雨
    我是小号
    tensorflow 源码编译tensorflow 1.1.0到 tensorflow 2.0,ver:1.1.0rc1、1.4.0rc1、1.14.0-rc1、2.0.0b1
    python大文件读取
    1《数学之美》第3章 统计语言模型
  • 原文地址:https://www.cnblogs.com/dhcn/p/15142087.html
Copyright © 2011-2022 走看看