由于大模型当下的热度,很多同学表示非常感兴趣,认为这是方向,当然也有部分同学提出“强烈”质疑,觉得LLM根本不成熟,不足以支撑量化投资。
这里我来专门做个回应和答疑。
首先,使用LLM来挖掘因子不是我的原创,而是来自华泰金融工程的研报。研报拆解:大语言模型LLM和多智能体(Multi-Agents)实现量价因子挖掘框架
研发使用三个智能体:factor-gpt, code-gpt, eval-gpt。
我是1v1复现这个研报,目前实现了factor-gpt,兼容KIMI和ChatGPT4的API。
通过few-shot的方式,
{
“expr“: “(-1 * rank(((high – open) / open))) * rank(((low – close) / close))“,
“desc“: “这个因子表达式计算了每日的高低价相对于开盘价和收盘价的变动比例,并取其排名。然后,将这两个排名进行相乘,并取其负值。这个因子可能捕捉到价格在日内波动中相对于开盘和收盘的表现,从而揭示潜在的交易机会。”
}
后续还有第二步,会评价因子是否语法正确,通过code-gpt进行计算,如果不正确,会返回结果给factor-gpt重新生成,下次注意语法以进行改进。如果计算正确,则进行第三步效果评估。
效果评估与gplearn和强化学习的fitness机制类似,可以使用ic、ir或者直接使用回测的夏普比,卡玛比率等指标。
然后把评估结果再反馈给factor-gpt做进一步优化,可以告诉gpt,要降低波动或者提升收益。
就这是研报的基本逻辑,也是下周咱们要实现的重要。
昨天大家的讨论中,最核心的逻辑是说:
GPT通用大模型,没有使用因子表达式构造的数据特别训练过(事实上也没有这样的数据),因此GPT就是“照猫画虎”写了表达式,并没有金融逻辑。
————这个逻辑只对了前一半。确实没有使用所谓因子构建的数据训练过。但gpt本身是一个“合格”的量化分析师,她懂金融术语,然后可以按我们自己“输入”的few-shot案例,包括我们的因子语义,她会进行有效的学习。——我们用的“示例”是world-quant101,大家可以换成自己公司积累的因子库,换成自己的函数集,可以写明这些函数的语义,求全因子的逻辑。——gpt完全学得会!
另外,通过eval-gpt会持续给出修改方向,让factor-gpt去收敛。
对比gplearn,有同学说,gplearn至少输出了我们的金融数据——我想说,你可能对于gplearn原理不明白。gplearn只是有“技巧”的搜索参数空间,fitness大的就保留,所以过拟合是常态,且会搞出很多“不可解释”的因子。——强化学习端对端也没有本质改进,都是“搜索”的方式不一样罢了。
gpt没有去搜索,它按“语义”去构建。然后评估fitness后,根据语义再改进。对于不同的数据集,也许没那么快收敛,但只要有效,就是可解释的,如果不考虑gpt消耗token的成本,你可以“持续”迭代下去。另外有一个最最关键的点,人工经验可以补充进行,告诉gpt如何去优化因子。
当然了,技术讨论,仁者见仁,越碰撞越能启发思考。
但大模型应用于AI量化,我选择拥抱。
发布者:股市刺客,转载请注明出处:https://www.95sca.cn/archives/103452
站内所有文章皆来自网络转载或读者投稿,请勿用于商业用途。如有侵权、不妥之处,请联系站长并出示版权证明以便删除。敬请谅解!