Ai And M L
sarah-jenkins
Parašė
Sarah Jenkins
1 min skaitymo

Kaip skatinamasis mokymasis prisitaiko prie rinkos nepastovumo

Kaip skatinamasis mokymasis prisitaiko prie rinkos nepastovumo

Dauguma prekybos botų yra statiški. Jūs nustatote parametrus, ir jie vykdo aklai. Skatinamasis mokymasis (RL) keičia žaidimą įvedant agentą, kuris mokosi per bandymus ir klaidas, optimizuodamas atlygio funkciją (paprastai Pelną ir Nuostolį).

RL ciklas prekyboje

  1. Agentas: Prekybos botas.
  2. Aplinka: Rinka (kainos, užsakymų knyga).
  3. Veiksmas: Pirkti, Parduoti arba Laikyti.
  4. Atlygis: Pelnas (teigiamas) arba Nuostolis (neigiamas).

Agentas nuolat stebi rinkos būseną, imasi veiksmo ir gauna grįžtamąjį ryšį. Per milijonus simuliacijų (arba "epochų"), jis išmoksta politiką, kuri maksimaliai padidina ilgalaikius atlygius.

Reinforcement Learning Loop

Prisitaikymas prie nepastovumo

RL supergalia yra adaptacija.

  • Bulių rinka: Agentas išmoksta, kad "Pirkti ir Laikyti" duoda didžiausią atlygį.
  • Kapotų rinka: Agentas supranta, kad laikymas veda prie nuosmukių, todėl pereina prie vidurkio grįžimo stiliaus.

Adaptive Bull vs Bear Strategy

Skirtingai nei Grid botai, kurie reikalauja nustatyti diapazoną, RL agentas gali rasti optimalų diapazoną dinamiškai.

RL iššūkiai

Ne viskas sklandu. RL modeliai gali būti linkę į perteklinį pritaikymą (overfitting)—praeities triukšmo įsiminimą vietoj tikrų modelių mokymosi. Todėl Funkcijų inžinerija yra labai svarbi.

Overfitting Trap

Išbandykite

Mūsų "Adaptyvios" strategijos Prietaisų skydelyje naudoja RL principus.

Pasiruošę panaudoti savo žinias?

Pradėkite prekiauti su AI paremtu pasitikėjimu jau šiandien

Pradėti

Prieinamumo ir skaitymo įrankiai