Saya memiliki model XGBoost yang mencoba memprediksi apakah suatu mata uang akan naik atau turun pada periode berikutnya (5 menit). Saya memiliki dataset dari 2004 hingga 2018. Saya membagi data secara acak menjadi 95% kereta dan validasi 5% dan akurasi pada set Validasi hingga 55%. Ketika saya kemudian menggunakan model pada set Tes baru (data dari 2019), akurasi turun menjadi di bawah 51%.
Adakah yang bisa menjelaskan mengapa itu terjadi?
Maksud saya, saya berasumsi model itu tidak "melihat" (dilatih tentang) data validasi lebih daripada memiliki data uji sehingga dapatkah itu benar-benar overfitting?
Saya telah melampirkan model sederhana di bawah ini untuk menggambarkan. Yang satu memberikan 54% pada set validasi tetapi hanya 50,9% pada set tes .
Terima kasih atas bantuannya!
NB Satu teori yang saya miliki adalah, karena beberapa fitur bergantung pada data historis (misalnya rata-rata bergerak), itu bisa berupa kebocoran data. Saya kemudian mencoba untuk memperbaikinya dengan hanya sampel data yang bukan bagian dari menciptakan moving average. Misal jika ada rata-rata bergerak 3 periode saya kemudian tidak mencicipi / menggunakan baris data dari 2 periode lalu. Itu tidak mengubah apa pun sehingga tidak ada dalam model di bawah ini.
NB2 Model di bawah ini adalah versi sederhana dari apa yang saya gunakan. Alasan untuk set validasi bagi saya adalah bahwa saya menggunakan algoritma genetik untuk penyetelan hyperparameter tetapi semua yang dihapus di sini untuk kejelasan.
import pandas as pd
import talib as ta
from sklearn.utils import shuffle
pd.options.mode.chained_assignment = None
from sklearn.metrics import accuracy_score
# ## TRAINING AND VALIDATING
# ### Read in data
input_data_file = 'EURUSDM5_2004-2018_cleaned.csv' # For train and validation
df = pd.read_csv(input_data_file)
# ### Generate features
#######################
# SET TARGET
#######################
df['target'] = df['Close'].shift(-1)>df['Close'] # target is binary, i.e. either up or down next period
#######################
# DEFINE FEATURES
#######################
df['rsi'] = ta.RSI(df['Close'], 14)
# ### Treat the data
#######################
# FIND AND MAKE CATEGORICAL VARAIBLES AND DO ONE-HOT ENCODING
#######################
for col in df.drop('target',axis=1).columns: # Crude way of defining variables with few unique variants as categorical
if df[col].nunique() < 25:
df[col] = pd.Categorical(df[col])
cats = df.select_dtypes(include='category') # Do one-hot encoding for the categorical variables
for cat_col in cats:
df = pd.concat([df,pd.get_dummies(df[cat_col], prefix=cat_col,dummy_na=False)],axis=1).drop([cat_col],axis=1)
uints = df.select_dtypes(include='uint8')
for col in uints.columns: # Variables from the one-hot encoding is not created as categoricals so do it here
df[col] = df[col].astype('category')
#######################
# REMOVE ROWS WITH NO TRADES
#######################
df = df[df['Volume']>0]
#######################
# BALANCE NUMBER OF UP/DOWN IN TARGET SO THE MODEL CANNOT SIMPLY CHOOSE ONE AND BE SUCCESSFUL THAT WAY
#######################
df_true = df[df['target']==True]
df_false = df[df['target']==False]
len_true = len(df_true)
len_false = len(df_false)
rows = min(len_true,len_false)
df_true = df_true.head(rows)
df_false = df_false.head(rows)
df = pd.concat([df_true,df_false],ignore_index=True)
df = shuffle(df)
df.dropna(axis=0, how='any', inplace=True)
# ### Split data
df = shuffle(df)
split = int(0.95*len(df))
train_set = df.iloc[0:split]
val_set = df.iloc[split:-1]
# ### Generate X,y
X_train = train_set[train_set.columns.difference(['target', 'Datetime'])]
y_train = train_set['target']
X_val = val_set[val_set.columns.difference(['target', 'Datetime'])]
y_val = val_set['target']
# ### Scale
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
cont = X_train.select_dtypes(exclude='category') # Find columns with continous (not categorical) variables
X_train[cont.columns] = sc.fit_transform(X_train[cont.columns]) # Fit and transform
cont = X_val.select_dtypes(exclude='category') # Find columns with continous (not categorical) variables
X_val[cont.columns] = sc.transform(X_val[cont.columns]) # Transform
cats = X_train.select_dtypes(include='category')
for col in cats.columns:
X_train[col] = X_train[col].astype('uint8')
cats = X_val.select_dtypes(include='category')
for col in cats.columns:
X_val[col] = X_val[col].astype('uint8')
# ## MODEL
from xgboost import XGBClassifier
model = XGBClassifier()
model.fit(X_train, y_train)
predictions = model.predict(X_val)
acc = 100*accuracy_score(y_val, predictions)
print('{0:0.1f}%'.format(acc))
# # TESTING
input_data_file = 'EURUSDM5_2019_cleaned.csv' # For testing
df = pd.read_csv(input_data_file)
#######################
# SET TARGET
#######################
df['target'] = df['Close'].shift(-1)>df['Close'] # target is binary, i.e. either up or down next period
#######################
# DEFINE FEATURES
#######################
df['rsi'] = ta.RSI(df['Close'], 14)
#######################
# FIND AND MAKE CATEGORICAL VARAIBLES AND DO ONE-HOT ENCODING
#######################
for col in df.drop('target',axis=1).columns: # Crude way of defining variables with few unique variants as categorical
if df[col].nunique() < 25:
df[col] = pd.Categorical(df[col])
cats = df.select_dtypes(include='category') # Do one-hot encoding for the categorical variables
for cat_col in cats:
df = pd.concat([df,pd.get_dummies(df[cat_col], prefix=cat_col,dummy_na=False)],axis=1).drop([cat_col],axis=1)
uints = df.select_dtypes(include='uint8')
for col in uints.columns: # Variables from the one-hot encoding is not created as categoricals so do it here
df[col] = df[col].astype('category')
#######################
# REMOVE ROWS WITH NO TRADES
#######################
df = df[df['Volume']>0]
df.dropna(axis=0, how='any', inplace=True)
X_test = df[df.columns.difference(['target', 'Datetime'])]
y_test = df['target']
cont = X_test.select_dtypes(exclude='category') # Find columns with continous (not categorical) variables
X_test[cont.columns] = sc.transform(X_test[cont.columns]) # Transform
cats = X_test.select_dtypes(include='category')
for col in cats.columns:
X_test[col] = X_test[col].astype('uint8')
predictions = model.predict(X_test)
acc = 100*accuracy_score(y_test, predictions)
print('{0:0.1f}%'.format(acc))
Seperti mantra investasi lama berjalan, "kinerja masa lalu bukan merupakan indikasi kinerja masa depan".
Kandidat utama saya overfitting. Sementara kesempatan untuk pola tertentu untuk menjadi gejala dari arah tertentu meskipun tidak kausal (atau prediksi di luar sampel yang ada) sama sekali kecil secara astronomis, ada juga sejumlah pola astronomi yang dapat dideteksi yang dapat menunjukkan perilaku seperti itu. .
Mari kita asumsikan mereka adalah pola nyata yang Anda pelajari:
Ketika Anda sedang melatih algo mempelajari dasar tiga dan kepala dan pundaknya ratusan bank juga, dan melakukannya lebih cepat daripada Anda dan menggunakan informasi itu.
Informasi itu tercermin dalam pergerakan harga yang berbeda, karena mereka tahu lebih banyak daripada tahun 2018 dan bertindak secara berbeda, model Anda belum tahu untuk mengambil tindakan tersebut karena mereka masih baru.
sumber