-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathsave_model.py
More file actions
160 lines (132 loc) · 5.82 KB
/
save_model.py
File metadata and controls
160 lines (132 loc) · 5.82 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
import numpy as np
import pandas as pd
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.preprocessing import StandardScaler, OneHotEncoder
from sklearn.impute import SimpleImputer
from sklearn.pipeline import Pipeline
from sklearn.compose import ColumnTransformer
import joblib
# Загрузка данных
print("Загрузка данных...")
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')
y_train = train_data['Survived']
# Инженерия признаков (повторяем то же, что и в titanic_model.py)
print("Инженерия признаков...")
full_data = pd.concat([train_data.drop('Survived', axis=1), test_data])
# Извлекаем титулы из имен
full_data['Title'] = full_data['Name'].str.extract(' ([A-Za-z]+)\\.', expand=False)
# Группируем редкие титулы
title_mapping = {
'Mr': 'Mr',
'Miss': 'Miss',
'Mrs': 'Mrs',
'Master': 'Master',
'Dr': 'Rare',
'Rev': 'Rare',
'Col': 'Rare',
'Major': 'Rare',
'Mlle': 'Miss',
'Mme': 'Mrs',
'Ms': 'Miss',
'Lady': 'Rare',
'Sir': 'Rare',
'Capt': 'Rare',
'Countess': 'Rare',
'Jonkheer': 'Rare',
'Dona': 'Rare',
'Don': 'Rare'
}
full_data['Title'] = full_data['Title'].map(lambda x: title_mapping.get(x, 'Rare'))
# Создаем признак размера семьи
full_data['FamilySize'] = full_data['SibSp'] + full_data['Parch'] + 1 # +1 включает самого пассажира
# Создаем признак одиночества
full_data['IsAlone'] = (full_data['FamilySize'] == 1).astype(int)
# Извлекаем палубу из каюты
full_data['Deck'] = full_data['Cabin'].str.slice(0, 1)
full_data['Deck'] = full_data['Deck'].fillna('U') # U для неизвестных
# Создаем группы по возрасту
full_data['AgeBand'] = pd.cut(full_data['Age'], bins=[0, 5, 12, 18, 35, 60, 100],
labels=['Baby', 'Child', 'Teen', 'Young Adult', 'Adult', 'Senior'])
# Создаем группы по стоимости билета
full_data['FareBand'] = pd.qcut(full_data['Fare'].fillna(full_data['Fare'].median()), 4,
labels=['Low', 'Medium_Low', 'Medium_High', 'High'])
# Создаем признак частоты встречаемости билетов
ticket_counts = full_data['Ticket'].value_counts()
full_data['TicketFreq'] = full_data['Ticket'].map(ticket_counts)
# Признак выживаемости семьи
train_size = train_data.shape[0]
family_survival = {}
for i, row in train_data.iterrows():
surname = row['Name'].split(',')[0]
family_survival[surname] = 0
for i, row in train_data.iterrows():
surname = row['Name'].split(',')[0]
family_members = train_data[train_data['Name'].str.contains(surname)]
if len(family_members) > 1:
others = family_members[family_members['PassengerId'] != row['PassengerId']]
if len(others) > 0:
family_survival[surname] = others['Survived'].mean()
# Применяем значения выживаемости семьи
full_data['FamilySurvivalRate'] = 0.5 # Значение по умолчанию
for i, row in full_data.iterrows():
if i < train_size:
surname = row['Name'].split(',')[0]
if surname in family_survival:
full_data.loc[i, 'FamilySurvivalRate'] = family_survival[surname]
# Определяем признаки для использования в модели
numeric_features = ['Age', 'Fare', 'SibSp', 'Parch', 'FamilySize', 'TicketFreq', 'FamilySurvivalRate']
categorical_features = ['Pclass', 'Sex', 'Embarked', 'Title', 'Deck', 'IsAlone', 'AgeBand', 'FareBand']
# Разделяем обратно на тренировочный и тестовый наборы
X_train = full_data.iloc[:train_size][numeric_features + categorical_features]
# Заполняем пропущенные значения
for col in numeric_features:
if X_train[col].isnull().any():
median_val = X_train[col].median()
X_train[col] = X_train[col].fillna(median_val)
for col in categorical_features:
if X_train[col].isnull().any():
mode_val = X_train[col].mode()[0]
X_train[col] = X_train[col].fillna(mode_val)
# Создаем конвейер предобработки
numeric_transformer = Pipeline(steps=[
('imputer', SimpleImputer(strategy='median')),
('scaler', StandardScaler())
])
categorical_transformer = Pipeline(steps=[
('imputer', SimpleImputer(strategy='most_frequent')),
('onehot', OneHotEncoder(handle_unknown='ignore'))
])
preprocessor = ColumnTransformer(
transformers=[
('num', numeric_transformer, numeric_features),
('cat', categorical_transformer, categorical_features)
])
# Создаем GradientBoosting модель с оптимальными параметрами
model = GradientBoostingClassifier(
n_estimators=200,
learning_rate=0.1,
max_depth=3,
min_samples_split=2,
min_samples_leaf=2,
random_state=42
)
# Создаем полный пайплайн
pipeline = Pipeline(steps=[
('preprocessor', preprocessor),
('model', model)
])
# Обучаем модель
print("Обучение модели...")
pipeline.fit(X_train, y_train)
# Сохраняем модель
print("Сохранение модели...")
joblib.dump(pipeline, 'titanic_model.joblib')
print("Модель успешно сохранена!")
# Дополнительно сохраняем информацию о признаках для использования в веб-приложении
feature_info = {
'numeric_features': numeric_features,
'categorical_features': categorical_features
}
joblib.dump(feature_info, 'feature_info.joblib')
print("Информация о признаках сохранена!")