Ai And M L
tradingmaster-ai-bull
كتب بواسطة
TradingMaster AI Bull
قراءة 3 دقيقة

نماذج المحولات للتنبؤ بالأسعار: ما بعد LSTM

نماذج المحولات للتنبؤ بالأسعار: ما بعد LSTM

ملخص تنفيذي: لسنوات، كانت شبكات الذاكرة طويلة قصيرة المدى (LSTM) هي المعيار الذهبي للتنبؤ بالسلاسل الزمنية. لكن كان لديهم عيب: لقد نسوا البيانات منذ 100 خطوة. ادخل المحول (Transformer). تم تصميمه في الأصل للغة (ChatGPT)، وتبين أن 'الانتباه الذاتي' (Self-Attention) مثالي لفهم دورات السوق.


1. مقدمة: الانتباه هو كل ما تحتاجه (لأجل ألفا)

الأسواق لغة.

  • كلمات = حركات السعر (Ticks).
  • جمل = شموع يومية.
  • فقرات = دورات السوق.

تقرأ نماذج LSTM هذه اللغة كلمة بكلمة، وتنسى بداية الجملة بحلول الوقت الذي تصل فيه إلى النهاية. تقرأ المحولات التاريخ بأكمله في وقت واحد، مما يسمح لها باكتشاف الارتباطات بين انهيار عام 2026 وانهيار عام 2020 على الفور.

Long Term Memory Laser Timeline

2. التحليل الأساسي: آلية الانتباه

2.1 كيف تعمل

تعين آلية "الانتباه الذاتي" وزنًا لكل شمعة سابقة.

  • السيناريو: انخفض البيتكوين بنسبة 5٪.
  • LSTM: تنظر فقط إلى آخر 10 شموع.
  • المحول: "يبدو هذا الانخفاض تمامًا مثل شلال التصفية في مايو 2021. سأعطي وزنًا كبيرًا لتلك الأحداث."

Transformer Reading Market Data

2.2 محولات الاندماج الزمني (TFT)

هندسة TFT من Google هي الوضع الراهن لعام 2026. إنها تجمع بين:

  1. المتغيرات المشتركة الثابتة: البيانات الوصفية التي لا تتغير (على سبيل المثال، "هذه عملة ذكاء اصطناعي").
  2. المدخلات المستقبلية المعروفة: تواريخ اجتماعات اللجنة الفيدرالية للسوق المفتوحة (FOMC) أو التنصيف (Halvings).
  3. المدخلات المرصودة: السعر والحجم.

يسمح هذا للنموذج ليس فقط بالتنبؤ بما سيحدث، ولكن لماذا (قابلية التفسير).

3. التنفيذ الفني: تنبؤ PyTorch

نستخدم مكتبة pytorch-forecasting.

# إعداد محول الاندماج الزمني لعام 2026
from pytorch_forecasting import TemporalFusionTransformer, TimeSeriesDataSet

# تعريف مجموعة البيانات
training = TimeSeriesDataSet(
    data,
    time_idx="time_idx",
    target="price",
    group_ids=["symbol"],
    min_encoder_length=24,  # النظر إلى الوراء 24 ساعة
    max_encoder_length=168, # النظر إلى الوراء 7 أيام
    min_prediction_length=1,
    max_prediction_length=24, # التنبؤ بالـ 24 ساعة القادمة
    static_categoricals=["symbol"],
    time_varying_known_reals=["hour_of_day", "day_of_week"],
    time_varying_unknown_reals=["price", "volume"],
)

# تهيئة TFT
tft = TemporalFusionTransformer.from_dataset(
    training,
    learning_rate=0.03,
    hidden_size=16,
    attention_head_size=4,
    dropout=0.1,
    hidden_continuous_size=8,
    output_size=7,  # 7 قسيمات للتنبؤ الاحتمالي
    loss=QuantileLoss(),
)

4. التحديات والمخاطر: "تحيز النظر إلى الأمام" (Look-Ahead Bias)

الخطأ الأكثر شيوعًا في تدريب المحولات هو Look-Ahead Bias. إذا قمت بإدخال "سعر الافتتاح لغدًا" عن غير قصد كميزة لـ "سعر الإغلاق لغدًا"، فسيكون للنموذج دقة 99٪ في التدريب و 0٪ في الإنتاج.

  • الإصلاح: إخفاء صارم للبيانات المستقبلية في خط أنابيب DataSaver.

5. التوقعات المستقبلية: النماذج الأساسية للتمويل

تمامًا كما أن GPT-4 هو نموذج أساسي للنصوص، فإننا نرى صعود FinGPT — نماذج مدربة على كل أصل مالي في التاريخ. أنت لا تدربهم؛ أنت فقط تقوم بضبطهم الدقيق (LoRA) على أصولك المحددة (على سبيل المثال، Dogecoin).

6. الأسئلة الشائعة: المحولات

1. هل هو أفضل من XGBoost؟ للمشاكل المعقدة ومتعددة المتغيرات ذات الذاكرة الطويلة؟ نعم. للبيانات الجدولية البسيطة؟ لا يزال XGBoost أسرع وتنافسيًا.

2. كم من البيانات أحتاج؟ المحولات متعطشة للبيانات. تحتاج إلى ما لا يقل عن 100,000 صف من البيانات (شموع 5 دقائق لمدة عامين) للحصول على نتائج جيدة.

3. هل يمكنه التنبؤ بالبجعات السوداء؟ لا يوجد نموذج يمكنه التنبؤ بالبجعة السوداء (بحكم التعريف). لكن المحولات تتكيف بشكل أسرع مع الأنظمة الجديدة مقارنة بـ LSTM.

4. ما هو "التنبؤ الاحتمالي"؟ بدلاً من القول "سيكون BTC عند 100 ألف دولار"، يقول TFT "هناك احتمال 90٪ أن يكون BTC بين 98 ألف دولار و 102 ألف دولار." هذا أمر بالغ الأهمية لإدارة المخاطر.

Probabilistic Forecasting Cone

5. هل أحتاج إلى GPU؟ نعم. تدريب المحول على CPU بطيء بشكل مؤلم.

مستعد لوضع معرفتك موضع التنفيذ؟

ابدأ التداول بثقة مدعومة بالذكاء الاصطناعي اليوم

ابدأ الآن

أدوات الوصول والقارئ