Ai And M L
tradingmaster-ai-bull
Написано от
TradingMaster AI Bull
3 мин четене

Transformer модели за прогнозиране на цените: Отвъд LSTM

Transformer модели за прогнозиране на цените: Отвъд LSTM

Резюме: Години наред мрежите с дългосрочна краткосрочна памет (LSTM) бяха златният стандарт за прогнозиране на времеви редове. Но те имаха недостатък: забравяха данни отпреди 100 стъпки. Влиза Transformer. Първоначално създаден за език (ChatGPT), оказва се, че механизма "Self-Attention" е перфектен за разбиране на пазарните цикли.


1. Въведение: Attention is All You Need (За Алфа)

Пазарите са език.

  • Думи = Ценови тикове.
  • Изречения = Дневни свещи.
  • Параграфи = Пазарни цикли.

LSTM четат този език дума по дума, забравяйки началото на изречението до момента, в който стигнат до края. Трансформърите четат цялата история наведнъж, което им позволява да забележат корелации между срива от 2026 г. и срива от 2020 г. незабавно.

Long Term Memory Laser Timeline

2. Основен анализ: Механизмът на вниманието

2.1 Как работи

Механизмът "Self-Attention" (Самовнимание) приписва тежест на всяка минала свещ.

  • Сценарий: Биткойн пада с 5%.
  • LSTM: Гледа само последните 10 свещи.
  • Transformer: "Този спад изглежда точно като Ликвидационната каскада от май 2021 г. Ще припиша голяма тежест на тези събития."

Transformer Reading Market Data

2.2 Времеви фузионни трансформатори (TFT)

Архитектурата TFT на Google е статуквото за 2026 г. Тя комбинира:

  1. Статични ковариати: Метаданни, които не се променят (напр. "Това е AI монета").
  2. Известни бъдещи входове: Дати на срещи на FOMC или Halvings.
  3. Наблюдавани входове: Цена и обем.

Това позволява на модела да предсказва не само какво ще се случи, но и защо (Интерпретируемост).

3. Техническа реализация: PyTorch Forecasting

Използваме библиотеката pytorch-forecasting.

# 2026 Temporal Fusion Transformer Setup
from pytorch_forecasting import TemporalFusionTransformer, TimeSeriesDataSet

# Define the Dataset
training = TimeSeriesDataSet(
    data,
    time_idx="time_idx",
    target="price",
    group_ids=["symbol"],
    min_encoder_length=24,  # Look back 24 hours
    max_encoder_length=168, # Look back 7 days
    min_prediction_length=1,
    max_prediction_length=24, # Predict next 24 hours
    static_categoricals=["symbol"],
    time_varying_known_reals=["hour_of_day", "day_of_week"],
    time_varying_unknown_reals=["price", "volume"],
)

# Initialize TFT
tft = TemporalFusionTransformer.from_dataset(
    training,
    learning_rate=0.03,
    hidden_size=16,
    attention_head_size=4,
    dropout=0.1,
    hidden_continuous_size=8,
    output_size=7,  # 7 quantiles for probabilistic forecast
    loss=QuantileLoss(),
)

4. Предизвикателства и рискове: "Look-Ahead Bias"

Най-честата грешка при обучението на Transformer е Look-Ahead Bias (Пристрастие за гледане напред). Ако неволно подадете "Утрешната цена на отваряне" като характеристика за "Утрешната цена на затваряне", моделът ще има 99% точност при обучението и 0% в продукцията.

  • Поправка: Строго маскиране на бъдещи данни в потока DataSaver.

5. Бъдещи перспективи: Фундаментални модели за финанси

Точно както GPT-4 е фундаментален модел за текст, ние виждаме възхода на FinGPT — модели, обучени върху всеки финансов актив в историята. Не ги обучавате; просто ги прецизирате (fine-tune) (LoRA) върху вашия конкретен актив (напр. Dogecoin).

6. ЧЗВ: Трансформъри

1. По-добро ли е от XGBoost? За сложни задачи с мулти-променливи и дълга памет? Да. За прости таблични данни? XGBoost все още е по-бърз и конкурентен.

2. Колко данни ми трябват? Трансформърите са гладни за данни. Нуждаете се от поне 100 000 реда данни (5-минутни свещи за 2 години), за да получите добри резултати.

3. Може ли да предсказва Черни лебеди? Никой модел не може да предскаже Черен лебед (по дефиниция). Но Трансформърите се адаптират по-бързо към нови режими от LSTM.

4. Какво е "Вероятностно прогнозиране"? Вместо да казва "BTC ще бъде $100k", TFT казва "Има 90% шанс BTC да бъде между $98k и $102k". Това е от решаващо значение за Управлението на риска.

Probabilistic Forecasting Cone

5. Имам ли нужда от GPU? Да. Обучението на Transformer на CPU е болезнено бавно.

Готови ли сте да използвате знанията си?

Започнете да търгувате с увереност, задвижвана от AI, днес

Започнете

Инструменти за достъпност и четене