逻辑回归:信贷违规预测!
theme: smartblue
公众号:尤而小屋
作者:Peter
编辑:Peter
大家好,我是Peter~
今天给大家带来一篇新的kaggle数据建模文章:信贷违约预测
本文是基于一份Lendingclub上面的信贷数据,根据贷款人的历史数据和贷款信息,建立一个逻辑回归模型来预测借款人是否会偿还他们的贷款。
导图显示本文的主要工作,其中缺失值处理和特征工程是重点。
导入库
```python import numpy as np import pandas as pd
import matplotlib.pyplot as plt import seaborn as sns
import missingno as ms import plotly.express as px import plotly.graph_objs as go import plotly.figure_factory as ff from plotly.subplots import make_subplots import plotly.offline as pyo pyo.init_notebook_mode() sns.set_style('darkgrid')
from sklearn.decomposition import PCA from imblearn.over_sampling import SMOTE from sklearn.model_selection import train_test_split,cross_val_score
from sklearn.ensemble import RandomForestClassifier,AdaBoostClassifier from sklearn.svm import SVC from sklearn.pipeline import Pipeline from sklearn.preprocessing import StandardScaler from sklearn.metrics import f1_score as f1 from sklearn.metrics import confusion_matrix
plt.rc('figure',figsize=(18,9))
import warnings warnings.filterwarnings("ignore") ```
数据基本信息
数据来自 LendingClub,它是美国一家个人对个人贷款公司,总部位于加利福尼亚州旧金山,号称是全球最大的个人对个人(p2p)借贷平台。
查看数据量、字段类型等:
缺失值处理
缺失值处理是本次数据处理的一项重要工作。由于存在字符型和数值型的变量,而且这两种类型下的数据都存在缺失值,所以在分开处理。
缺失值可视化
In [6]:
```
4、缺失值情况
df.isnull().sum().sort_values(ascending=False) ```
Out[6]:
id 105451
hardship_start_date 105451
member_id 105451
hardship_type 105451
hardship_reason 105451
...
open_acc_6m 0
tot_cur_bal 0
tot_coll_amt 0
acc_now_delinq 0
max_bal_bc 0
Length: 137, dtype: int64
In [7]:
``` ms.bar(df,color="blue")
plt.show() ```
如果取值是1,说明是完整的字段,没有缺失值;可以看到还是存在很多字段有缺失值。
删除全部缺失字段
1、部分字段是全部缺失的,将它们进行删除:
In [8]:
```
方法1:使用dropna的how参数
data.dropna(axis=1, how='all')
```
In [9]:
```
在这里我们使用下面的【方法2】
1、查看每个字段的缺失值比例
isnull_col_percent = df.isnull().sum(axis=0).sort_values(ascending=False) / float(len(df)) isnull_col_percent ```
Out[9]:
id 1.0
hardship_start_date 1.0
member_id 1.0
hardship_type 1.0
hardship_reason 1.0
...
open_acc_6m 0.0
tot_cur_bal 0.0
tot_coll_amt 0.0
acc_now_delinq 0.0
max_bal_bc 0.0
Length: 137, dtype: float64
In [10]:
isnull_col_percent[:20] # 前20个
Out[10]:
id 1.000000
hardship_start_date 1.000000
member_id 1.000000
hardship_type 1.000000
hardship_reason 1.000000
hardship_status 1.000000
deferral_term 1.000000
hardship_amount 1.000000
hardship_end_date 1.000000
url 1.000000
payment_plan_start_date 1.000000
hardship_length 1.000000
hardship_dpd 1.000000
hardship_loan_status 1.000000
orig_projected_additional_accrued_interest 1.000000
hardship_payoff_balance_amount 1.000000
desc 1.000000
hardship_last_payment_amount 1.000000
sec_app_mths_since_last_major_derog 0.977866
sec_app_revol_util 0.936188
dtype: float64
在上面的结果中,比例为1的字段就是全部缺失的(前面18个字段),对于建模无用,我们将其删除:
In [11]:
no_use_col = df.columns[df.isnull().all()].tolist()
no_use_col
Out[11]:
['id',
'member_id',
'url',
'desc',
'hardship_type',
'hardship_reason',
'hardship_status',
'deferral_term',
'hardship_amount',
'hardship_start_date',
'hardship_end_date',
'payment_plan_start_date',
'hardship_length',
'hardship_dpd',
'hardship_loan_status',
'orig_projected_additional_accrued_interest',
'hardship_payoff_balance_amount',
'hardship_last_payment_amount']
In [12]:
df.drop(no_use_col,axis=1,inplace=True)
In [13]:
df.shape # 137-18 = 119,成功删除18个属性
Out[13]:
(105451, 119)
删除缺失值在30%以上的字段
2、有些字段是部分缺失值;缺失量过大也会对建模造成影响。
在这里我们设置删除缺失值在30%(可以设定其他值)以上的字段(按照列的方向来统计)
In [14]:
```
最大的缺失值比例高达97.78%
df.isnull().sum(axis=0).sort_values(ascending=False) / float(len(df)) ```
Out[14]:
sec_app_mths_since_last_major_derog 0.977866
sec_app_revol_util 0.936188
revol_bal_joint 0.935458
sec_app_earliest_cr_line 0.935458
sec_app_inq_last_6mths 0.935458
...
total_rec_int 0.000000
total_rec_prncp 0.000000
total_pymnt_inv 0.000000
total_pymnt 0.000000
hardship_flag 0.000000
Length: 119, dtype: float64
In [15]:
``` thresh = len(df)*0.3 # 阀值(缺失值数量)
某列数据缺失的数量超过阀值就被删除
df.dropna(thresh=thresh, axis=1, inplace=True) ```
In [16]:
df.shape
Out[16]:
(105451, 102)
In [17]:
df.isnull().sum(axis=0).sort_values(ascending=False) / float(len(df))
Out[17]:
mths_since_recent_revol_delinq 0.648405
mths_since_last_delinq 0.484765
il_util 0.126884
mths_since_recent_inq 0.113313
emp_title 0.064314
...
total_pymnt_inv 0.000000
total_pymnt 0.000000
out_prncp_inv 0.000000
out_prncp 0.000000
hardship_flag 0.000000
Length: 102, dtype: float64
新数据(删除缺失值)
新数据缺失值可视化
In [18]:
``` ms.bar(df,color="blue")
plt.show() ```
和之前的对比,发现缺失值的字段少了很多
处理后的数据量:只剩下102个字段
In [19]:
df.shape
Out[19]:
(105451, 102)
字段类型统计
In [20]:
df.dtypes.value_counts()
Out[20]:
int64 54
float64 25
object 23
dtype: int64
唯一值字段
3、某些字段的取值是唯一的,比如全部是0,这样的字段对于建模也是无用的,我们要将这些字段进行删除。
首先找出这些字段:使用Pandas中的nunique函数来确定取值是否唯一。
In [21]:
nunique_data = df.apply(pd.Series.nunique) != 1 # 不唯一的字段
nunique_data
Out[21]:
loan_amnt True
funded_amnt True
funded_amnt_inv True
term True
int_rate True
...
tot_hi_cred_lim True
total_bal_ex_mort True
total_bc_limit True
total_il_high_credit_limit True
hardship_flag False
Length: 102, dtype: bool
In [22]:
```
df1:删除唯一值字段后的数据
df1 = df.loc[:, nunique_data] df1.shape ```
Out[22]:
(105451, 97)
字段从102变成了97,说明还是存在5个取值唯一的字段
In [23]:
```
再次查看字段类型
df1.dtypes.value_counts() ```
Out[23]:
int64 51
float64 25
object 21
dtype: int64
缺失值处理-分类型变量
针对分类型变量(取值为字符串类型)的缺失值处理,一般是采用类型编码、独热码、因子化等操作
In [24]:
object_df = df1.select_dtypes(include="object")
object_df.columns
Out[24]:
Index(['term', 'int_rate', 'grade', 'sub_grade', 'emp_title', 'emp_length',
'home_ownership', 'verification_status', 'issue_d', 'loan_status',
'purpose', 'title', 'zip_code', 'addr_state', 'earliest_cr_line',
'revol_util', 'initial_list_status', 'last_pymnt_d', 'next_pymnt_d',
'last_credit_pull_d', 'application_type'],
dtype='object')
比如字段grade的取值是真实的Object类型:
In [25]:
```
grade
df1["grade"].value_counts() ```
Out[25]:
C 36880
B 31301
A 17898
D 12015
E 4847
F 1725
G 785
Name: grade, dtype: int64
下面出现的字段虽然是object类型,但是实际上行它们的取值仍存在一定的大小关系
In [26]:
```
int_rate
df1["int_rate"].value_counts() ```
Out[26]:
16.02% 4956
5.32% 4365
15.05% 4195
14.08% 4168
12.74% 4155
...
30.75% 119
30.49% 113
30.74% 98
21.49% 89
6.00% 4
Name: int_rate, Length: 65, dtype: int64
In [27]:
```
revol_util
df1["revol_util"].value_counts() ```
Out[27]:
0% 468
60% 244
64% 230
50% 227
53% 220
...
116.20% 1
110.10% 1
106.10% 1
125% 1
113% 1
Name: revol_util, Length: 1076, dtype: int64
分类型变量转成数值
- 将百分比的数据转成浮点型:
In [28]:
```
将右侧的%去掉,同时强制转成float类型
df1["int_rate"] = df1["int_rate"].str.rstrip("%").astype("float") df1["revol_util"] = df1["revol_util"].str.rstrip("%").astype("float") ```
- 关于年份的处理:转成数值,并且10+直接用10代替,<1的部分直接用0代替:
In [29]:
```
emp_length
df1["emp_length"].value_counts() ```
Out[29]:
10+ years 35438
2 years 9914
< 1 year 9542
3 years 8495
1 year 7034
4 years 6453
5 years 6382
6 years 4526
7 years 3847
9 years 3828
8 years 3295
Name: emp_length, dtype: int64
In [30]:
df1["emp_length"].isnull().sum() # 存在缺失值
Out[30]:
6697
现将缺失值填充为<1 year
:
In [31]:
df1["emp_length"] = df1["emp_length"].fillna("< 1 year")
In [32]:
```
1、先将year或years去掉
df1["emp_length"] = df1["emp_length"].apply(lambda x: x.split("y")[0].rstrip(" ")) ```
In [33]:
df1["emp_length"].value_counts()
Out[33]:
10+ 35438
< 1 16239
2 9914
3 8495
1 7034
4 6453
5 6382
6 4526
7 3847
9 3828
8 3295
Name: emp_length, dtype: int64
In [34]:
```
2、转成数值型
df1["emp_length"] = df1["emp_length"].apply(lambda x: "10" if x == "10+" else x) df1["emp_length"] = df1["emp_length"].str.replace("< 1","0")
df1["emp_length"] = df1["emp_length"].astype("float") ```
In [35]:
df1["emp_length"].value_counts()
Out[35]:
python
10.0 35438
0.0 16239
2.0 9914
3.0 8495
1.0 7034
4.0 6453
5.0 6382
6.0 4526
7.0 3847
9.0 3828
8.0 3295
Name: emp_length, dtype: int64
分类型变量可视化
In [36]:
object_df = df1.select_dtypes(include="object")
object_df.columns
Out[36]:
Index(['term', 'grade', 'sub_grade', 'emp_title', 'home_ownership',
'verification_status', 'issue_d', 'loan_status', 'purpose', 'title',
'zip_code', 'addr_state', 'earliest_cr_line', 'initial_list_status',
'last_pymnt_d', 'next_pymnt_d', 'last_credit_pull_d',
'application_type'],
dtype='object')
In [37]:
``` ms.matrix(object_df)
plt.show() ```
主要是两个字段缺失值:emp_title、next_pymnt_d
缺失值填充
In [38]:
object_df.isnull().sum()
Out[38]:
term 0
grade 0
sub_grade 0
emp_title 6782
home_ownership 0
verification_status 0
issue_d 0
loan_status 0
purpose 0
title 0
zip_code 0
addr_state 0
earliest_cr_line 0
initial_list_status 0
last_pymnt_d 145
next_pymnt_d 3921
last_credit_pull_d 3
application_type 0
dtype: int64
在这里我们直接填充为“Unknown”:
In [39]:
object_df.fillna("Unknown",inplace=True)
再次查看发现已经没有缺失值:
In [40]:
缺失值处理——数值型变量
In [41]:
number_df = df1.select_dtypes(exclude="object")
number_df.columns
Out[41]:
Index(['loan_amnt', 'funded_amnt', 'funded_amnt_inv', 'int_rate',
'installment', 'emp_length', 'annual_inc', 'dti', 'delinq_2yrs',
'inq_last_6mths', 'mths_since_last_delinq', 'open_acc', 'pub_rec',
'revol_bal', 'revol_util', 'total_acc', 'out_prncp', 'out_prncp_inv',
'total_pymnt', 'total_pymnt_inv', 'total_rec_prncp', 'total_rec_int',
'total_rec_late_fee', 'last_pymnt_amnt', 'collections_12_mths_ex_med',
'acc_now_delinq', 'tot_coll_amt', 'tot_cur_bal', 'open_acc_6m',
'open_il_6m', 'open_il_12m', 'open_il_24m', 'mths_since_rcnt_il',
'total_bal_il', 'il_util', 'open_rv_12m', 'open_rv_24m', 'max_bal_bc',
'all_util', 'total_rev_hi_lim', 'inq_fi', 'total_cu_tl', 'inq_last_12m',
'acc_open_past_24mths', 'avg_cur_bal', 'bc_open_to_buy', 'bc_util',
'chargeoff_within_12_mths', 'delinq_amnt', 'mo_sin_old_il_acct',
'mo_sin_old_rev_tl_op', 'mo_sin_rcnt_rev_tl_op', 'mo_sin_rcnt_tl',
'mort_acc', 'mths_since_recent_bc', 'mths_since_recent_inq',
'mths_since_recent_revol_delinq', 'num_accts_ever_120_pd',
'num_actv_bc_tl', 'num_actv_rev_tl', 'num_bc_sats', 'num_bc_tl',
'num_il_tl', 'num_op_rev_tl', 'num_rev_accts', 'num_rev_tl_bal_gt_0',
'num_sats', 'num_tl_120dpd_2m', 'num_tl_30dpd', 'num_tl_90g_dpd_24m',
'num_tl_op_past_12m', 'pct_tl_nvr_dlq', 'percent_bc_gt_75',
'pub_rec_bankruptcies', 'tax_liens', 'tot_hi_cred_lim',
'total_bal_ex_mort', 'total_bc_limit', 'total_il_high_credit_limit'],
dtype='object')
In [42]:
number_df.shape
Out[42]:
(105451, 79)
缺失值可视化
In [43]:
ms.matrix(number_df)
plt.show()
如何判断某行是否全部为空
查看缺失值情况
In [48]:
number_df.isnull().sum().sort_values(ascending=False)
Out[48]:
mths_since_recent_revol_delinq 68375
mths_since_last_delinq 51119
il_util 13380
mths_since_recent_inq 11949
num_tl_120dpd_2m 5278
...
tot_cur_bal 0
tot_coll_amt 0
acc_now_delinq 0
collections_12_mths_ex_med 0
total_il_high_credit_limit 0
Length: 79, dtype: int64
找出存在缺失值的字段
In [49]:
```
存在缺失值的为True,否则为False
number_df.isnull().sum() > 0 ```
Out[49]:
loan_amnt False
funded_amnt False
funded_amnt_inv False
int_rate False
installment False
...
tax_liens False
tot_hi_cred_lim False
total_bal_ex_mort False
total_bc_limit False
total_il_high_credit_limit False
Length: 79, dtype: bool
In [50]:
number_df.columns[number_df.isnull().sum() > 0]
Out[50]:
Index(['dti', 'mths_since_last_delinq', 'revol_util', 'mths_since_rcnt_il',
'il_util', 'all_util', 'avg_cur_bal', 'bc_open_to_buy', 'bc_util',
'mo_sin_old_il_acct', 'mths_since_recent_bc', 'mths_since_recent_inq',
'mths_since_recent_revol_delinq', 'num_tl_120dpd_2m',
'percent_bc_gt_75'],
dtype='object')
缺失值填充
对于数值型变量的缺失值,我们采用每列的均值来填充
In [51]:
```
方法1
for col in number_df.columns[number_df.isnull().sum() > 0]: mean_val = number_df[col].mean() # 每列的均值 number_df[col].fillna(mean_val, inplace=True) # 均值填充 ```
In [52]:
```
方法2
老版本报错
from sklearn.preprocessing import Imputer
使用新版本
from sklearn.impute import SimpleImputer imputer = SimpleImputer(missing_values=np.nan, strategy='mean') ```
In [53]:
number_df.isnull().sum().sort_values(ascending=False)
Out[53]:
python
loan_amnt 0
mo_sin_old_rev_tl_op 0
num_accts_ever_120_pd 0
mths_since_recent_revol_delinq 0
mths_since_recent_inq 0
..
acc_now_delinq 0
collections_12_mths_ex_med 0
last_pymnt_amnt 0
total_rec_late_fee 0
total_il_high_credit_limit 0
Length: 79, dtype: int64
新建模数据new_data
手动过滤字段
有些字段对建模是无用的,即存在冗余的字段信息,我们需要手动删除。
In [54]:
object_df.isnull().sum()
Out[54]:
term 0
grade 0
sub_grade 0
emp_title 0
home_ownership 0
verification_status 0
issue_d 0
loan_status 0
purpose 0
title 0
zip_code 0
addr_state 0
earliest_cr_line 0
initial_list_status 0
last_pymnt_d 0
next_pymnt_d 0
last_credit_pull_d 0
application_type 0
dtype: int64
In [55]:
object_df["application_type"].value_counts()
Out[55]:
INDIVIDUAL 98619
JOINT 6813
DIRECT_PAY 19
Name: application_type, dtype: int64
- term:申请人的贷款偿还期数,通常是36或者60,对于建模没有指导意义,保留(1)
- grade和sub_grade:存在重复信息,选择删除字段sub_gracde,保留grade(12)
- emp_title:不能反映借款人的收入或者资产情况,可删除
- home_ownership:房屋所在状态,保留(3)
- verification_status:收入是否被LC验证、未验证或收入来源是否被验证,保留(4)
- issue_d:贷款发行时间,对于是否违规预测也没有指导意义,可删除
- loan_status:贷款的当前状态,保留(5)
- purpose:贷款目的,保留(6)
- title:和purpose重复,可删除
- zip_code:地址邮编,对于建模无效
- addr_state:申请人的地址所在州,建模无效
- earliest_cr_line:借款人最早公布的信用额度开通的月份,对于是否违规模型搭建无意义,考虑删除
- initial_list_status:贷款的初始上市状态,可谓W或者F,保留(7)
- last_pymnt_d、next_pymnt_d、last_credit_pull_d:贷款后的信息,对于是否违规预测为意义,可删除
- application_type:指示贷款是单独申请还是与两个共同借款人的联合申请,保留(8)
最终留下8个有用的字段信息:
In [56]:
``` object_df = object_df[["term","grade","home_ownership","verification_status","loan_status", "purpose","initial_list_status","application_type"]]
object_df ```
数据合并
将两个数据合并起来:
In [57]:
new_data = pd.concat([object_df,number_df],axis=1)
new_data.head()
基本信息
In [58]:
new_data.dtypes
Out[58]:
term object
grade object
home_ownership object
verification_status object
loan_status object
...
tax_liens int64
tot_hi_cred_lim int64
total_bal_ex_mort int64
total_bc_limit int64
total_il_high_credit_limit int64
Length: 87, dtype: object
In [59]:
new_data.shape
Out[59]:
(105451, 87)
描述统计信息
针对数值型字段的描述统计信息,查看最值,四分位数等:
In [60]:
new_data.describe()
特征工程
特征衍生
In [61]:
installment / (annual_inc / 12):表示每个月的还款金额占据月收入的比例,数值越大,还款压力越大
```python
installment:每月的还款金额
annual_inc:申请人年度总收入
新特征
new_data["installment_percent"] = new_data[["installment","annual_inc"]].apply(lambda x: x.installment / (x.annual_inc / 12), axis=1).replace([np.inf,0]) new_data.head() ```
Out[61]:
贷款状态编码与可视化
编码
In [62]:
new_data["loan_status"].value_counts()
Out[62]:
Current 99850
Fully Paid 3896
In Grace Period 932
Late (31-120 days) 436
Late (16-30 days) 312
Charged Off 25
Name: loan_status, dtype: int64
In [63]:
```
违约=1, 正常=0
new_data["loan_status"] = new_data["loan_status"].apply(lambda x: 0 if (x == "Fully Paid" or x == "Current") else 1) ```
In [64]:
new_data["loan_status"].value_counts()
Out[64]:
0 103746
1 1705
Name: loan_status, dtype: int64
可视化
In [65]:
```python
贷款状态柱状图统计
fig, axs = plt.subplots(1,2,figsize=(12,6)) sns.countplot(x='loan_status', data=new_data, ax=axs[0])
axs[0].set_title("Frequency of each Loan Status(Bar)")
饼图:统计每个类型的占比
new_data['loan_status'].value_counts().plot(x=None, y=None, kind='pie', ax=axs[1], autopct='%1.2f%%') axs[1].set_title("Percentage of each Loan status(Pie)") plt.show() ```
可以看到违规和没有违规的比例差别是很大的,后面会通过采样的方法来解决。
有序变量编码
部分字段的取值是存在一定的顺序关系。比如服装的尺码大小,"XS"、"S"、"M"、"L"等,它们的取值本身是有大小关系的。
在这里我们实施硬编码:
In [66]:
new_data.select_dtypes("object")
无序特征编码
采用的独热码,通过get_dummies函数来实现
In [68]:
df1 = new_data.select_dtypes("object") # 字符型
df2 = new_data.select_dtypes(exclude=["object"]) # 非字符型
df1.head()
Out[68]:
特征缩放:标准化
针对数值型特征(数据df2)的特征缩放,将数据规范到一定范围内,便于后期加快算法的收敛速度
In [70]:
```
目标变量load_status
Y = df2[["loan_status"]] Y.head() ```
Out[70]:
| | loan_status | | ---: | ----------: | | 0 | 0 | | 1 | 0 | | 2 | 0 | | 3 | 0 | | 4 | 0 |
In [71]:
```
df2中剩余的数值型变量构成df3
df3 = df2.drop("loan_status",axis=1) df3.head() ```
```python
对df3实施标准化处理
from sklearn.preprocessing import StandardScaler ss = StandardScaler() ss_data = ss.fit_transform(df3)
df4 = pd.DataFrame(ss_data, columns=df3.columns) df4.head() ```
SMOTE采样(重点)
可以看到违规和没有违规的比例差别是很大的,也就是说样本及其不均衡,常用的处理方式有两种:
- 过采样(oversampling),增加正样本使得正、负样本数目接近,然后再进行学习
- 欠采样(undersampling),去除一些负样本使得正、负样本数目接近,然后再进行学习。
下面通过欠采样方法来处理:
In [75]:
positive_data = new_df[new_df["loan_status"] == 1] # 违约
negetive_data = new_df[new_df["loan_status"] == 0] # 未违约
In [76]:
print("length of positive_data: ",len(positive_data))
print("length of negetive_data: ",len(negetive_data))
length of positive_data: 1705
length of negetive_data: 103746
In [77]:
``` selected_data = negetive_data.sample(len(positive_data))
selected_data.shape ```
Out[77]:
(1705, 104)
下面生成的new_data就是最终用于建模的数据:
In [78]:
new_data = pd.concat([positive_data,selected_data],axis=0)
new_data
建模
特征和目标分离
In [79]:
y = new_data[["loan_status"]]
X = new_data.drop("loan_status", axis=1)
训练集和测试集切分
In [80]:
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=4)
逻辑回归分类器
基于逻辑回归的分类器
In [81]:
``` from sklearn.linear_model import LogisticRegression clf = LogisticRegression() # 构建逻辑回归分类器
clf.fit(X_train, y_train) ```
Out[81]:
LogisticRegression()
In [82]:
```
进行预测
predict = clf.predict(X_test) predict[:5] ```
Out[82]:
array([1, 1, 0, 1, 1])
预测准确率
查看预测的准确率:
In [83]:
``` from sklearn.metrics import accuracy_score
accuracy_score(predict, y_test) ```
Out[83]:
0.7067448680351907
混淆矩阵的信息:
In [84]:
from sklearn.metrics import confusion_matrix
m = confusion_matrix(y_test, predict)
m
Out[84]:
array([[262, 87],
[113, 220]])
In [85]:
```
混淆矩阵可视化
plt.figure(figsize=(12,8)) sns.heatmap(m)
plt.show() ```
上面可视化的结果表示:颜色越深代表的人数越多,也就是真阳性的人数是最多的;而假阳性是最少的
roc曲线
In [86]:
``` from sklearn.metrics import roc_curve, auc false_positive_rate, true_positive_rate,thresholds = roc_curve(y_test, predict)
roc_auc = auc(false_positive_rate,true_positive_rate) roc_auc ```
Out[86]:
0.7056884965194421
In [87]:
``` import matplotlib.pyplot as plt plt.figure(figsize=(10,10)) plt.title("ROC") # Receiver Operating Characteristic plt.plot(false_positive_rate, true_positive_rate, color="red", label="AUC = %0.2f"%roc_auc )
plt.legend(loc="lower right") plt.plot([0,1],[0,1],linestyle="--") plt.axis("tight")
真阳性:预测类别为1的positive;预测正确True
plt.ylabel("True Positive Rate")
假阳性:预测类别为1的positive;预测错误False
plt.xlabel("False Positive Rate") ```
Out[87]:
Text(0.5, 0, 'False Positive Rate')
总结
整体方案的ROC值达到了71%,还是有一定的提升空间。后续可以优化的点:
- 特征属性过多:可以考虑降维或者特征的多重线性检验,找出更具有价值的特征
- 离散型变量的编码:目前是统一的标准化处理,没有编码工作;后续可以考虑加入编码工作,比如:因子化、特征分箱等
- 建模优化:尝试使用不同的分类模型,以及模型融合方法
- 参数调优:可以考虑做一个参数的调优,比如网格搜索、随机搜索等等
- 基于机器学习分类算法的钢材缺陷检测分类
- JSON数据,Python搞定!
- 逻辑回归:信贷违规预测!
- kaggle实战-肿瘤数据统计分析
- Pandas操作mysql数据库!
- 数学公式编辑神器-Mathpix Snipping Tool
- 精选20个Pandas统计函数
- 露一手,利用Python分析房价
- 德国信贷数据建模baseline!
- Python函数传参机制详解
- Python爬虫周游全国-兰州站
- 一道Pandas题:3种解法
- 机器学习实战:基于3大分类模型的中风病人预测
- 利用seaborn绘制柱状图
- 机器学习实战:基于MNIST数据集的二分类问题
- 基于深度学习Keras的深圳租房建模
- 机器学习高频使用代码片段
- Python入门:Python变量和赋值
- 深度学习框架Keras入门保姆教程
- kaggle实战:极度不均衡的信用卡数据分析