Ai And M L
tradingmaster-ai-bull
Được viết bởi
TradingMaster AI Bull
4 phút đọc

Mô Hình Transformer Để Dự Đoán Giá: Vượt Ra Ngoài LSTM

Mô Hình Transformer Để Dự Đoán Giá: Vượt Ra Ngoài LSTM

Tóm tắt điều hành: Trong nhiều năm, mạng Bộ nhớ ngắn hạn dài hạn (LSTM) là tiêu chuẩn vàng để dự báo chuỗi thời gian. Nhưng chúng có một sai sót: chúng quên dữ liệu từ 100 bước trước. Hãy bước vào Transformer. Ban đầu được xây dựng cho ngôn ngữ (ChatGPT), hóa ra 'Self-Attention' (Tự chú ý) là hoàn hảo để hiểu các chu kỳ thị trường.


1. Giới thiệu: Sự chú ý là tất cả những gì bạn cần (Cho Alpha)

Thị trường là một ngôn ngữ.

  • Từ = Tick giá.
  • Câu = Nến hàng ngày.
  • Đoạn văn = Chu kỳ thị trường.

LSTMs đọc ngôn ngữ này từng từ một, quên đi phần đầu của câu khi chúng đến cuối. Transformer đọc toàn bộ lịch sử cùng một lúc, cho phép chúng phát hiện ngay các mối tương quan giữa sự sụp đổ năm 2026 và sự sụp đổ năm 2020.

Long Term Memory Laser Timeline

2. Phân tích cốt lõi: Cơ chế chú ý

2.1 Cách nó hoạt động

Cơ chế "Self-Attention" gán trọng số cho mỗi nến trong quá khứ.

  • Kịch bản: Bitcoin giảm 5%.
  • LSTM: Chỉ nhìn vào 10 nến cuối cùng.
  • Transformer: "Sự sụt giảm này trông giống hệt như Thác thanh lý tháng 5 năm 2021. Tôi sẽ đặt trọng số lớn cho các sự kiện đó."

Transformer Reading Market Data

2.2 Transformer Hợp nhất Thời gian (TFT)

Kiến trúc TFT của Google là hiện trạng của năm 2026. Nó kết hợp:

  1. Biến số tĩnh: Dữ liệu meta không thay đổi (ví dụ: "Đây là Coin AI").
  2. Đầu vào tương lai đã biết: Ngày họp FOMC hoặc Halving.
  3. Đầu vào quan sát được: Giá và Khối lượng.

Điều này cho phép mô hình dự đoán không chỉ cái gì sẽ xảy ra, mà còn tại sao (Khả năng giải thích).

3. Triển khai kỹ thuật: PyTorch Forecasting

Chúng tôi sử dụng thư viện pytorch-forecasting.

# Thiết lập Temporal Fusion Transformer 2026
from pytorch_forecasting import TemporalFusionTransformer, TimeSeriesDataSet

# Xác định Bộ dữ liệu
training = TimeSeriesDataSet(
    data,
    time_idx="time_idx",
    target="price",
    group_ids=["symbol"],
    min_encoder_length=24,  # Nhìn lại 24 giờ
    max_encoder_length=168, # Nhìn lại 7 ngày
    min_prediction_length=1,
    max_prediction_length=24, # Dự đoán 24 giờ tới
    static_categoricals=["symbol"],
    time_varying_known_reals=["hour_of_day", "day_of_week"],
    time_varying_unknown_reals=["price", "volume"],
)

# Khởi tạo TFT
tft = TemporalFusionTransformer.from_dataset(
    training,
    learning_rate=0.03,
    hidden_size=16,
    attention_head_size=4,
    dropout=0.1,
    hidden_continuous_size=8,
    output_size=7,  # 7 phân vị cho dự báo xác suất
    loss=QuantileLoss(),
)

4. Thử thách & Rủi ro: "Thiên kiến nhìn trước" (Look-Ahead Bias)

Lỗi phổ biến nhất trong quá trình đào tạo Transformer là Look-Ahead Bias. Nếu bạn vô tình đưa "Giá mở cửa ngày mai" làm tính năng cho "Giá đóng cửa ngày mai", mô hình sẽ có độ chính xác 99% trong quá trình đào tạo và 0% trong sản xuất.

  • Khắc phục: Che giấu nghiêm ngặt dữ liệu tương lai trong quy trình DataSaver.

5. Triển vọng tương lai: Mô hình nền tảng cho tài chính

Giống như GPT-4 là Mô hình nền tảng cho văn bản, chúng ta đang thấy sự trỗi dậy của FinGPT — các mô hình được đào tạo trên mọi tài sản tài chính trong lịch sử. Bạn không đào tạo chúng; bạn chỉ tinh chỉnh (LoRA) chúng trên tài sản cụ thể của mình (ví dụ: Dogecoin).

6. Câu hỏi thường gặp: Transformer

1. Nó có tốt hơn XGBoost không? Đối với các vấn đề đa biến phức tạp với bộ nhớ dài? Có. Đối với dữ liệu dạng bảng đơn giản? XGBoost vẫn nhanh hơn và cạnh tranh hơn.

2. Tôi cần bao nhiêu dữ liệu? Transformer rất "đói" dữ liệu. Bạn cần ít nhất 100.000 dòng dữ liệu (nến 5 phút trong 2 năm) để có kết quả tốt.

3. Nó có thể dự đoán Thiên nga đen không? Không có mô hình nào có thể dự đoán Thiên nga đen (theo định nghĩa). Nhưng Transformer thích ứng với các chế độ mới nhanh hơn so với LSTM.

4. "Dự báo xác suất" là gì? Thay vì nói "BTC sẽ là $100k", TFT nói "Có 90% khả năng BTC sẽ nằm trong khoảng từ $98k đến $102k." Điều này rất quan trọng đối với Quản lý rủi ro.

Probabilistic Forecasting Cone

5. Tôi có cần GPU không? Có. Đào tạo Transformer trên CPU chậm đến mức đau đớn.

Sẵn Sàng Áp Dụng Kiến Thức Của Bạn Vào Thực Tế?

Bắt đầu giao dịch được hỗ trợ bởi AI một cách tự tin ngay hôm nay

Bắt Đầu

Hỗ trợ tiếp cận & Công cụ đọc