Ai And M L
作者
Sarah Jenkins
1 分钟阅读
强化学习如何适应市场波动

大多数交易机器人都是静态的。你设置参数,它们就会盲目执行。 强化学习 (RL) 通过引入通过反复试验学习的代理来改变游戏规则,优化奖励函数(通常是损益)。
交易中的 RL 循环
- 代理: 交易机器人。
- 环境: 市场(价格、订单簿)。
- 行动: 买入、卖出或持有。
- 奖励: 利润(正)或损失(负)。
代理不断观察市场状况,采取行动并接收反馈。经过数百万次模拟(或“纪元”),它学习了一种最大化长期回报的策略。
适应波动性
强化学习的超能力是适应。
- 牛市: 代理人了解到“买入并持有”会产生最高的奖励。
- 波动的市场: 代理意识到持有会导致亏损,因此它切换到均值回归风格。
与需要定义范围的 Grid Bots 不同,RL 代理可以动态找到最佳范围。
强化学习的挑战
一切并非一帆风顺。强化学习模型很容易出现过度拟合——记住过去的噪音而不是学习真实的模式。这就是为什么特征工程对于为代理提供干净、有意义的数据至关重要。
尝试一下
我们在 仪表板 上的“自适应”策略利用 RL 原理来实时调整止损和止盈。体验交易的演变。
