最简最快的WorldQuant 101 Alpha因子实现

DolphinDB database 是一款高性能分布式时序数据库(time-series database),它特别适用于投资银行、对冲基金和交易所的定量查询和分析,能够用于构建基于历史数据的策略测试。下面咱们将举例说明如何在DolphinDB中快速构建复杂的Alpha因子。php

著名论文 101 Formulaic Alphas 给出了世界顶级量化对冲基金之一的WorldQuant所使用的101个Alpha因子公式。不少我的和机构尝试用不一样的语言来实现这101个Alpha因子。本文中,咱们例举了较为简单的Alpha #001和较为复杂的Alpha #098两个因子的实现,分别使用了2行和4行DolphinDB SQL代码,可谓史上最简。ios

因子介绍git

Alpha#001公式:rank(Ts_ArgMax(SignedPower((returns<0?stddev(returns,20):close), 2), 5))-0.5github

Alpha #001的详细解读能够参考【史上最详细】WorldQuant Alpha 101因子系列#001研究数据库

Alpha#98公式:(rank(decay_linear(correlation(vwap, sum(adv5,26.4719), 4.58418), 7.18088))- rank(decay_linear(Ts_Rank(Ts_ArgMin(correlation(rank(open), rank(adv15), 20.8187), 8.62571), 6.95668) ,8.07206)))编程

这两个因子在计算时候既用到了cross sectional的信息,也用到了大量时间序列的计算。也即在计算某个股票某一天的因子时,既要用到该股票的历史数据,也要用到当天全部股票的信息,因此计算量很大。架构

须要的数据app

输入数据为包含如下字段的table:dom

symbol:股票代码分布式

date:日期

volume:成交量

vwap:成交量的加权平均价格

open:开盘价格

close:收盘价格

在计算Alpha #001因子时,只须要股票代码、日期和收盘价格三个字段。

代码实现

def alpha1(stock){
    t= select date,symbol ,mimax(pow(iif(ratios(close) < 1.0, mstd(ratios(close) - 1, 20),close), 2.0), 5) as maxIndex from stock context by symbol
    return select date,symbol, rank(maxIndex) - 0.5 as A1 from t context by date
}

def alpha98(stock){
    t = select symbol, date, vwap, open, mavg(volume, 5) as adv5, mavg(volume,15) as adv15 from stock context by symbol
    update t set rank_open = rank(open), rank_adv15 = rank(adv15) context by date
    update t set decay7 = mavg(mcorr(vwap, msum(adv5, 26), 5), 1..7), decay8 = mavg(mrank(9 - mimin(mcorr(rank_open, rank_adv15, 21), 9), true, 7), 1..8) context by symbol
    return select symbol, date, rank(decay7)-rank(decay8) as A98 from t context by date 
}

以上代码使用了DolphinDB的一些内置函数:

pow:计算指数幂

iif:条件运算函数

ratios:对向量X的每一个元素,计算X(n)X(n-1)

mstd:在滑动窗口中计算标准差

mavg:在滑动窗口中计算平均值

mcorr:在滑动窗口中计算相关性

msum:在滑动窗口中求和

mrank:返回元素在滑动窗口的按升序或降序排序后的位置

mimin:返回滑动窗口中最小值的索引位置

mimax:返回滑动窗口中最大值的索引位置。

全部的核心代码都用SQL实现,对用户很是方便,可读性也很好。SQL中最关键的功能是context by子句实现的分组计算功能。与group by每一个组产生一行记录不一样,context by会输出与输入相同行数的记录,方便的进行多个函数嵌套。cross sectional计算时,咱们用date分组。时间序列计算时,咱们用symbol(股票代码)分组。

性能分析

咱们使用美国证券市场从2007年到2016年总共11,711只股票进行回测。每一个股票每一个交易日产生一个因子值, 总共产生1700万个因子值。测试机器配置以下:

CPU: Intel Core i7-9700 @ 3.0 GHz

内存: 32GB

操做系统: Ubuntu 18.04.4

使用单线程计算,Alpha #001因子耗时仅1.5秒,复杂的Alpha #098因子耗时仅4.3秒。使用pandas计算,Alpha #98耗时760.1秒,性能相差150倍以上。pandas实现代码见文末。DolphinDB的高性能得益于它的设计思路和技术架构,详情能够参考揭秘高性能DolphinDB

在计算Alpha因子时,除了要考虑性能问题,代码的简洁性和可读性也不容忽视。DolphinDB实现Alpha #001因子只须要2行核心代码,实现Alpha #098因子仅须要4行核心代码,而其余系统实现则须要大段代码,能够参考pandas实现或者其余系统计算Alpha #001因子。为何DolphinDB的实现如此简洁?这得益于DolphinDB功能强大的脚本语言。在DolphinDB中,脚本语言与SQL是彻底融合在一块儿的,SQL查询能够直接赋给一个变量或做为函数的参数。DolphinDB的SQL引擎除了支持标准的SQL之外,还为大数据分析特别是时间序列数据分析作了不少有用的扩展。好比上面使用到的context by是DolphinDB的特点之一,它至关于其余系统(SQL Server、PostgreSQL)的窗口函数,可是它比其余系统的窗口函数功能丰富得多,语法上也更简洁灵活,对面板数据很是友好。DolphinDB内置了许多与时序数据相关的函数,并进行了优化,大幅度提升了计算性能,好比上面使用到的mavg、mcorr、mrank、mimin等计算滑动窗口指标的函数复杂度仅为O(n)或O(nlogk), k为窗口大小。若是你想了解更多DolphinDB的脚本语言,能够参考DolphinDB脚本语言的混合范式编程

感兴趣的朋友能够到官网下载 DolphinDB database 尝试实现本身的Alpha因子和策略回测。

附件

pandas代码:

from time import time

import pandas as pd
import numpy as np
from scipy.stats import rankdata

def rank(df):
    return df.rank(pct=True)


def decay_linear(df, period=10):
    if df.isnull().values.any():
        df.fillna(method='ffill', inplace=True)
        df.fillna(method='bfill', inplace=True)
        df.fillna(value=0, inplace=True)
    na_lwma = np.zeros_like(df)
    na_lwma[:period, :] = df.iloc[:period, :]
    na_series = df.as_matrix()
    divisor = period * (period + 1) / 2
    y = (np.arange(period) + 1) * 1.0 / divisor
    # Estimate the actual lwma with the actual close.
    # The backtest engine should assure to be snooping bias free.
    for row in range(period - 1, df.shape[0]):
        x = na_series[row - period + 1: row + 1, :]
        na_lwma[row, :] = (np.dot(x.T, y))
    return pd.DataFrame(na_lwma, index=df.index, columns=['CLOSE'])


def rolling_rank(na):
    return rankdata(na)[-1]


def ts_rank(df, window=10):
    return df.rolling(window).apply(rolling_rank)


def ts_argmin(df, window=10):
    return df.rolling(window).apply(np.argmin) + 1


def correlation(x, y, window):
    return x.rolling(window).corr(y)


def decay7(df):
    return rank(decay_linear(correlation(df.vwap, df.adv5, 5).to_frame(), 7).CLOSE)


def decay8(df):
    return rank(decay_linear(ts_rank(ts_argmin(correlation(rank(df.open), rank(df.adv15), 21), 9), 7).to_frame(), 8).CLOSE)


def alpha098(df):
    return (decay7(df) - decay8(df)).to_frame()


path = 'your_path/USPrices.csv'
df = pd.read_csv(path, parse_dates=[1])
df = df[df.date.between('2007.01.01', '2016.12.31')]

print("loaded")

df["vwap"] = df["PRC"]
df["open"] = df["PRC"] + np.random.random(len(df))
df['adv5'] = df.groupby('PERMNO')['VOL'].transform(lambda x: x.rolling(5).mean())
df['adv15'] = df.groupby('PERMNO')['VOL'].transform(lambda x: x.rolling(15).mean())
df['rank_open'] = df.groupby('date')['open'].rank(method='min')
df['rank_adv15'] = df.groupby('date')['adv15'].rank(method='min')

print("start")
start = time()
df['A98'] = df.groupby('PERMNO').apply(alpha098)
end = time()

print(end - start)
相关文章
相关标签/搜索