利用强化学习进行股票操作实战(一)

2023-10-27

利用强化学习进行股票操作实战

今天开始利用强化学习实现股票操作。

我在网上找了一个简单的强化学习进行股票操作的例子,并在此基础上进行了小改动。
首先讲下建模的思路,当模型发出买入指令时,我们一次性全部买入;当模型发出卖出指令时则一次性全部卖出。模型只在一支股票上进行操作。模型我们选取Q-learning模型。(如果对Q-learning和DeepQ不了解的,建议先理解这两个模型,不然后面看不懂)

废话不多说直接上代码。

定义一个agent类

其初始化参数包括以下:
在这里插入图片描述

参数解释

state_size: q-learning需要输入一个状态(目前环境状态),其大小表示状态的维度。
window_size: 在这里我们利用过去一段时间的收盘价表示输入的状态,window_size表示观测数据的时间窗大小。如果window_size=5,表示利用过去5天收盘价(包括当天)。
trend: 用于训练的数据,为历史收盘价数据
skip:操作频率
action_size: 3 (有买入、卖出、观望三种操作)
batch_size:神经网络训练的batch size
memory:记录一些历史操作
gamma、epsilon等:Q-learning中奖励衰减及动作选取中的贪婪系数

下面是Q网络的一些参数设置(输入是状态,输出是动作)
在这里插入图片描述

agent类中的一些函数

动作选择函数

函数很好理解,以小概率随机选动作,以大概率选择最好的动作。
在这里插入图片描述
获得状态函数:(注释已解释的比较清楚)
在这里插入图片描述
replay函数:主要用于更新Q网络
在这里插入图片描述

这里主要说明一下在计算loss时传入的参数。Q-learning算法中需要新Q和原Q的差值来更新Q表。在这里我们也类似,用新Q和原Q的差值更新Q网络。
下图一段代码为获得新Q值,
在这里插入图片描述
在计算loss时,将当前状态与新Q的值输入进去。tf的网络流程中会利用X(当前状态)获得原Q值,Y是新Q值,利用这两个Q的差值更新网络,loss计算可以看参数定义里面。
在这里插入图片描述
训练代码:(核心代码,最重要的地方)
在这里插入图片描述

部分参数解释
Inventory:存储过去的一些操作
last_value:上一天的总市值(包括剩余资金及持有股票)
maket_value:当天的总市值
hold_money:持有的现金
hold_num:持有的股票数量

部分代码解释:
循环每日状态
在这里插入图片描述
如果返回的action是买入操作,则计算可买入的数量,更新股票市值和剩余现金。(不考虑印花税啥的,还没来得及加)
在这里插入图片描述
如果action是卖出操作,则全部卖出,更新剩余现金和股票市值。
在这里插入图片描述
每天都计算一次总市值,更新与上一天相比获得的利润(用作Q-learning的reward),将每天的操作存储起来,每天都更新一次网络。
在这里插入图片描述
Buy函数(用于测试):

里面很多东西与train函数类似,不再解释。
在这里插入图片描述

主函数代码
在这里插入图片描述

测试结果

总收益达到了27.22%(这个结果没啥用,看看就好)
在这里插入图片描述

结语

这个版本的强化学习,还有很多漏洞,有很多地方需要完善。在接下来的时间里将会把问题考虑更细致,不断完善强化学习模型。

代码github:
https://github.com/wbbhcb/stock_market

代码参考:
https://blog.csdn.net/qq_39388410/article/details/94395020(与这个csdn博客代码几乎一致,修改了部分操作)

对量化、数据挖掘、深度学习感兴趣的可以关注公众号,本人不定期分享有关这些方面的研究。
在这里插入图片描述
个人知乎:
https://www.zhihu.com/people/e-zhe-shi-wo/activities

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

利用强化学习进行股票操作实战(一) 的相关文章