반응형
Kaggle EDA Start¶
데이터 분석 / 그래프 작성 / 통계 정보 등
Author: crazyj7@gmail.com
In [1]:
# 경고 무시 (쓸데없는 로그 출력금지)
import warnings
warnings.filterwarnings('ignore')
import numpy as np
import pandas as pd
# 그래프 관련
import matplotlib.pyplot as plt
import seaborn as sns
In [2]:
# plot 환경설정 기본값과 달라진 점
class DictDiffer(object):
"""
Calculate the difference between two dictionaries as:
(1) items added
(2) items removed
(3) keys same in both but changed values
(4) keys same in both and unchanged values
"""
def __init__(self, current_dict, past_dict):
self.current_dict, self.past_dict = current_dict, past_dict
self.set_current, self.set_past = set(current_dict.keys()), set(past_dict.keys())
self.intersect = self.set_current.intersection(self.set_past)
def added(self):
return self.set_current - self.intersect
def removed(self):
return self.set_past - self.intersect
def changed(self):
return set(o for o in self.intersect if self.past_dict[o] != self.current_dict[o])
def unchanged(self):
return set(o for o in self.intersect if self.past_dict[o] == self.current_dict[o])
In [3]:
# make default graph configure
# 그래프 설정값을 디폴트로 리셋해 준다.
# (가끔 앞의 그래프 설정 변경으로 잘 나오던 그래프가 이상하게 나올때 사용)
def pltconfig_default():
sns.reset_defaults()
%matplotlib inline
pltconfig_default()
In [4]:
def pltconfig_check():
d=DictDiffer(plt.rcParams, plt.rcParamsDefault)
for it in d.changed():
print(it, plt.rcParamsDefault[it], plt.rcParams[it])
pltconfig_check()
load data¶
In [5]:
inputdir='./'
outputdir='./'
df_train = pd.read_csv(inputdir+'train.csv')
df_test = pd.read_csv(inputdir+'test.csv')
데이터 탐색¶
head(n), describe(), info(), columns, index
value_counts()
data explore¶
In [6]:
# 데이터의 일부를 관찰. (파라미터가 없으면 디폴트로 5개)
df_train.head(3)
Out[6]:
In [7]:
# 데이터의 분포를 간략히 요약.
# 개수, 평균, 표준편차, 사분위수(최소, 최대) 등.
df_train.describe()
# 개수를 보면 어느 필드에 빠진 데이터들이 있는지 알 수 있음.
Out[7]:
In [8]:
# info는 필드들의 정보. 데이터타입. 개수 등
df_train.info()
In [9]:
df_test.head()
Out[9]:
NULL (Missing) 데이터 검사¶
In [10]:
df_train.isnull().sum()
Out[10]:
In [11]:
# 데이터 분포도
# 히스토그램으로 구간별 카운팅
# 박스플롯으로 어느 지점에 데이터가 밀집해 있는지 알 수 있다.
fig, axs = plt.subplots(1,2)
df_train.Fare.plot.hist(ax=axs[0])
df_train.boxplot(['Fare', 'Age', 'SibSp', 'Parch'], ax=axs[1]) # 파라미터 지정이 없으면, 주어진 dataframe의 모든 컬럼별 데이터 분포
Out[11]:
In [12]:
# 평균 , 표준편차
print('fare mean=', df_train.Fare.mean(), df_train.Fare.std())
# 표준 편차는 정규분포를 따를때, 평균에서 +- 1 표준편차는 전체의 65% 정도가 해당되고,
# # +-2표준편차는 95%, +-3표준편차는 99%정도로 본다. (1.96이 95%, 2.58이 99%)
# 사분위수
print('quantile = ', df_train.Fare.quantile(0), df_train.Fare.quantile(0.25), df_train.Fare.quantile(0.5), df_train.Fare.quantile(0.75),
df_train.Fare.quantile(0.99), df_train.Fare.quantile(1))
데이터 수정/병합¶
In [13]:
# df3 = pd.concat([df1 , df2], axis=0)
# df3 = df1.append(df2, ignore_index=True)
# df4.drop(columns='age', inplace=True)
df_train.head()
print(df_train.shape)
In [14]:
df_test.head()
df_test.shape
Out[14]:
In [15]:
# train, test 데이터가 survived를 제외하고 동일함. 합쳐서 전처리 작업을 할 수 도 있다.
# drop은 columns or rows를 삭제할 수 있다. (array로 여러개 지정 가능)
# concat은 병합. axis로 방향. 다른 방법으로는 df_train.append(df_test)을 리턴으로 받으면 된다.
# iloc는 array index로 filtering
# inplace는 자체 수정 여부. (False이면 자체수정없이 수정된것을 반환.)
# ignore_index=True 옵션을 주면, 인덱스를 0부터 새로 매긴다. False이면 인덱스 값이 중복되더라도 유지한다.
# df_all = pd.concat([df_train.iloc[:,2:], df_test.iloc[:,1:]], axis=0)
# or
df_all = pd.concat([df_train.drop(columns='Survived'), df_test], axis=0)
In [16]:
# passengerid는 의미없으므로 제거.
df_all.drop(columns='PassengerId', inplace=True)
In [17]:
df_all.head()
Out[17]:
In [18]:
# 컬럼 타입별로 구분. 숫자와 숫자 아닌 것. 위에 info()에 마지막에 dtypes 참고.
df_num = df_all.select_dtypes(include=['int64', 'float64'])
df_str = df_all.select_dtypes(include=['object'])
df_num.describe()
Out[18]:
In [19]:
# 스트링 컬럼으로 보면, 클래스 개수(unique참조), 전체 개수 파악(미싱제외)
df_str.describe()
Out[19]:
In [20]:
# 필드값별로 카운팅
df_train['Survived'].value_counts()
Out[20]:
In [21]:
# ## 스트링 필드를 분할하여 추가 컬럼들을 만들기
lstPath = ['img100_GENUINE.jpg', 'img101_FRAUD.jpg', 'img102_GENUINE.jpg', 'img103_FRAUD.jpg', 'img104_FRAUD.jpg', 'img105_GENUINE.jpg']
dfSample = pd.DataFrame({'path':lstPath})
dfSample
Out[21]:
In [22]:
# expand를 True로 하면 n개의 컬럼으로 리턴.
# expand를 False로 하면 1개의 컬럼내에 list로 리턴.
dfSplit = dfSample['path'].str.split('_', expand=False)
print(dfSplit[0][0], dfSplit[0][1])
print(dfSplit[1][0], dfSplit[1][1])
In [23]:
dfSplit = dfSample['path'].str.split('_', expand=True)
dfSample['name'] = dfSplit[0]
dfSample['tf'] = dfSplit[1].str.replace('.jpg', '')
dfSample
Out[23]:
Submission 데이터만들기¶
In [24]:
df_submit = pd.read_csv(inputdir+'gender_submission.csv')
print(df_submit.head())
print(df_submit.columns)
In [25]:
# 필드값 바꿔서 제출하기
# df_submit.describe()
print('record count=', df_submit.shape[0])
dfsubmit2 = df_submit.copy()
# 원하는 필드값을 변경한다.
dfsubmit2['Survived'] = np.zeros(df_submit.shape[0], dtype=int)
print(dfsubmit2.head())
# dfsubmit2.to_csv('result.csv')
In [26]:
# 샘플을 참고하지 않고 직접 만들어 제출하기
pids = df_submit['PassengerId'].values
surv = df_submit['Survived'].values
print(pids.shape)
print(surv.shape)
In [27]:
dfresult = pd.DataFrame({'PassengerId':pids, 'Survived':surv})
print('columns=', dfresult.columns)
print('index=', dfresult.index)
print(dfresult.head())
In [28]:
# 경우에 따라 인덱스를 특정 필드로 지정해줘야 되는 서미션도 있음. 제출형식을 확인해야 함.
dfresult.set_index('PassengerId', inplace=True)
print('columns=', dfresult.columns)
print('index=', dfresult.index)
print(dfresult.head())
matplotlib plot¶
matplotlib 그래프 좌표축의값 없애기¶
plt.axis('off')
axarr[uid].axis('off')
axarr[uid].set_xticks(p[])
plt.xticks([])
박스 제거¶
ax1 = plt.axes(frameon=False) # remove box
or
ax1 = plt.axes() ;
ax1.set_frame_on(False)
y축 뒤집기¶
plt.gca().invert_yaxis()
# or
ax=plt.gca()
ax.set_ylim(ax.get_lim()[::-1])
그래프간 간격 조정¶
plt.subplots_adjust(hspace=0.5, wspace=0.4)
가로/세로 비율 유지(좌표값을 절대적 기준)¶
ax.set_aspect('equal', 'box')
직선 그리기 (by 기울기)¶
def abline(slope, intercept):
axes = plt.gca()
x_vals = np.array( axes.get_xlim())
y_vals = intercept+slope*x_vals
plt.plot(x_vals, y_vals, 'r--')
plot 파라미터/함수¶
lw : 선 두께
c : 색깔
s : 사이즈
alpha : 투명도 (0일 수록 투명. 1일수록 불투명)
label : legend 출력시 표시
marker : 표시도형 o, x 등
'r--' : 빨간 점선
'g^' : green 세모
'ro' : 빨간 o
'bs' : 파란 네모
plt.title()
plt.xlabel()
plt.ylabel()
plt.xlim(0,10) : x 범위
plt.ylim(20,30) : y 범위
plt.grid() : 눈금 표시
plt.plot() : 꺽은선 그래프. 좌표들을 연결. lw, c, alpha, label
plt.scatter() : 산점도 그래프. 좌표에 점(마커)를 찍는다. marker, c, alpha, label, s
plt.legend() : 비고 박스, edgecolor='r' 로 박스라인 색깔지정 가능
plt.tight_layout() : 여백없앰
plt.scatter(x,y, linewidth=1, marker='o', facecolors='none', edgecolors='r') : 빈 원 그리기
plt.axhline(y, color='r') : 가로선
plt.axvline(x, color='b') : 세로선
plot 저장¶
plt.figure()
plt.plot...
plt.savefig('aaa.png') # 파일로 저장. 화면 출력여부는 아래코드
plt.show() # 이것을 생략하면 화면 출력 안됨.
plt.close()
ax 함수¶
ax.set_title()
ax.set_xlabel()
ax.set_ylabel()
ax.set_xlim()
ax.set_ylim()
개수 분포 그래프¶
- dataframe.value_counts().plot.bar() / plot.pie()
- sns.countplot()
In [29]:
# scatter 그래프
plt.figure()
# plt.grid('on')
plt.title('age and fare')
flagman=df_train['Sex']=='male'
plt.scatter( df_train.loc[flagman]['Age'], df_train.loc[flagman]['Fare'], c='blue', alpha=0.3, label='male')
flagfemale = ~flagman
plt.scatter( df_train.loc[flagfemale]['Age'], df_train.loc[flagfemale]['Fare'], marker='x', c='red', alpha=0.3, label='female')
plt.axhline(y=200)
plt.xlabel('Age')
plt.ylabel('Fare')
plt.legend(edgecolor='red') # 비고박스(legend) 외곽라인 색 지정 가능
plt.show()
plt.close()
In [30]:
# plot . x 라벨 지정 및 회전
x = [1, 2, 3, 4]
y = [1, 4, 9, 6]
labels = ['Frogs', 'Hogs', 'Bogs', 'Slogs']
plt.plot(x, y)
# You can specify a rotation for the tick labels in degrees or with keywords.
plt.xticks(x, labels, rotation='vertical')
# Pad margins so that markers don't get clipped by the axes
plt.margins(0.2)
# Tweak spacing to prevent clipping of tick-labels
plt.subplots_adjust(bottom=0.15)
plt.show()
plt.close()
In [31]:
# 개수 분포, 그래프
df_train['Survived'].value_counts().plot.bar()
Out[31]:
In [32]:
# 카테고리 분포
df_train['Embarked'].value_counts().plot.pie(autopct='%.2f %%')
plt.legend()
Out[32]:
In [33]:
# 카테고리 분포. 그룹별. stack bar
dfembarkedsurv = df_train.groupby(['Embarked', 'Survived'])['Survived'].count().unstack('Survived').fillna(0)
dfembarkedsurv.plot(kind='bar', stacked=True)
Out[33]:
In [34]:
# 여러 그래프를 한 번에 그리기.
# 두 가지 방법이 있다.
# plt.subplots 와 plt.subplot
# subplots는 리턴받아 사용. subplot은 리턴값 안받고 그때그때 사용.
#
# ex) subplot(행,열, 현재번호)
# plt.subplot(1,2,1)
# plot...
# plt.subplot(1,2,2)
# plot...
# ex) f,ax = subplots(행,열)
# plots... by ax[인덱스번호]
#
# 생존자 비율
# plt.figure()
f, ax = plt.subplots(1,2)
df_train['Survived'].value_counts().plot.pie(explode=[0, 0.1], autopct='%.2f%%', ax=ax[0], shadow=True)
ax[0].set_title('Survived ratio')
ax[0].set_ylabel('')
# Survived 컬럼 카운트 (dataframe plot보다 이쁨)
sns.countplot('Survived', data=df_train, ax=ax[1])
Out[34]:
In [35]:
# 위와 같은 그림을 다른 방식으로
plt.figure(figsize=(2*5,5))
plt.suptitle('Bit Title', fontsize='x-large')
plt.subplot(1,2,1)
plt.title('title1')
xs = df_train['Survived'].value_counts()
print(xs.values)
df_train['Survived'].value_counts().plot.pie(autopct='%.2f %%', labels=['Dead', 'Survived']) #autopct='%.2f %%'
plt.subplot(1,2,2)
plt.title('title2')
sns.countplot('Survived', data=df_train)
plt.show()
In [36]:
# 가로축에 값이 많은 경우, 글씨가 안보임. 글씨 회전
import random
# 랜덤 스트링 분포도
rs=[]
rs2=[]
for i in range(1000):
c = chr(np.random.randint(0, 26)+ord('A')) # 주의! random.randint(0,26) 이 아니다. np.random.randint와 사용방식이 다름!
rs.append(c)
c = chr(random.randint(0, 25)+ord('A')) # random.randint는 마지막값이 범위에 포함된다!!!
rs2.append(c)
# print(rs)
# print(rs2)
from collections import Counter
# +
counter1 = Counter(rs)
dfc1 = pd.DataFrame([ [x1,x2] for x1,x2 in counter1.items() ], columns=['Letter', 'Count'])
dfc1 = dfc1.sort_values('Count', ascending=False)
plt.figure()
# sns.barplot(dfc1['Letter'], dfc1['Count'], color='blue', label='LetterCount')
sns.barplot(dfc1['Letter'], dfc1['Count'], label='LetterCount') # 색상이 없으면 무지개색
plt.show()
In [37]:
# x 축을 일치시키고 y값 비교하기 / x축 회전 rotation
dfc1 = dfc1.sort_values('Letter', ascending=True)
counter2 = Counter(rs2)
dfc2 = pd.DataFrame([ [x1,x2] for x1,x2 in counter2.items() ], columns=['Letter', 'Count'])
dfc2 = dfc2.sort_values('Letter', ascending=True)
xvalue = dfc1['Letter']
plt.figure(figsize=(8, 6))
plt.title('Letter Count')
plt.xticks(rotation=90) # x 라벨 회전. (글자가 겹칠때 유용함)
sns.barplot(xvalue, dfc1['Count'], color='blue', alpha=0.5, label='by np')
sns.barplot(xvalue, dfc2['Count'], color='red', alpha=0.5, label='by random')
plt.legend()
plt.show()
# -
그룹별 카운팅¶
- dataframe.groupby() : array로 여러개 가능
- sns.countplot() : hue
- dataframe.crosstab() : 표생성. 세로필드, 가로필드. (세로필드를 array로 어러개 가능)
- sns.factorplot(x,y,hue) : y평균값 그래프. hue로 지정된 필드의 종류만큼 라인이 그려짐.
- sns.violinplot(x,y,hue) : y값의 범위와 분포를 알 수 있는 그래프.
In [38]:
# 성별과 생존 관계
df_train.groupby(['Sex', 'Survived'])['Survived'].count()
Out[38]:
In [39]:
sns.countplot('Sex', hue='Survived', data=df_train)
Out[39]:
In [40]:
sns.countplot('Embarked', hue='Sex', data=df_train)
Out[40]:
In [41]:
pltconfig_check()
In [42]:
# 두 개의 기준으로 groupby한 카운팅
pd.crosstab(df_train['Sex'], df_train['Survived'], margins=True).style.background_gradient(cmap='summer_r')
Out[42]:
In [43]:
## 피클래스와 생존 관계
pd.crosstab(df_train['Pclass'], df_train['Survived'], margins=True).style.background_gradient(cmap='summer_r')
Out[43]:
In [44]:
sns.countplot('Pclass', hue='Survived', data=df_train)
Out[44]:
In [45]:
## 성별과 피클래스에 따른 생존
In [46]:
pd.crosstab([df_train.Sex, df_train.Pclass], df_train.Survived, margins=True).style.background_gradient(cmap='summer_r')
Out[46]:
In [47]:
pd.crosstab([df_train.Sex, df_train.Survived], df_train.Pclass, margins=True).style.background_gradient(cmap='summer_r')
Out[47]:
In [48]:
## 평균 꺽은선 그래프
In [49]:
sns.factorplot('Pclass', 'Survived', hue='Sex', data=df_train)
Out[49]:
In [50]:
sns.factorplot('Pclass', 'Age', hue='Sex', data=df_train)
Out[50]:
In [51]:
sns.violinplot('Pclass', 'Age', hue='Survived', data=df_train, split=True)
Out[51]:
In [52]:
pltconfig_check()
히스토그램¶
- dataframe.plot.hist(bins=count, color='blue')
- sns.FaceGrid(data, hue), map, plt.hist : hue를 주면 hue로 지정된 필드의 종류별로 겹침.
In [53]:
# +
# df_train['Age'].value_counts()
# +
# 히스토그램. 두 개 비교.
# 연령대별 생존자 수, 사망자 수 2개 그래프 겹침
grid = sns.FacetGrid(df_train, hue='Survived', size=4)
# bins는 개수로 지정할 수 도 있지만, 구간을 입력할 수도 있다.
grid.map(plt.hist, 'Age', alpha=.6, rwidth=0.8, bins=[0,10,20,30,40,50,60,70,80,90,100])
# bins 구간에 맞추어 x tick을 지정해 준다.
xlist=list(range(0, 110, 10))
print(xlist)
plt.xticks(xlist)
grid.add_legend()
Out[53]:
In [54]:
# 위 히스토그램을 각각 그리기
grid = sns.FacetGrid(df_train, col='Survived', size=4, margin_titles=True)
grid.map(plt.hist, 'Age', bins=[0,10,20,30,40,50,60,70,80,90,100], color='green', histtype='step') # histtype 생략시(default='bar') 색칠한 일반 모양
# title을 value로 지정
# grid.set_titles(row_template='{row_name}', col_template='{col_name}') # 이것을 생략하면 제목은 알아서 column=value가 된다.
Out[54]:
In [55]:
# 히스토그램.
df_train[ df_train['Survived']==0 ].Age.plot.hist(bins=20, color='red', rwidth=0.9)
# rwidth (0~1)범위로 가로크기 비율을 정해 여백을 줄 수 있다.
xlist = list(range(0, 85, 5))
plt.xticks(xlist)
plt.margins(x=0) # 안쪽 x 마진 제거
plt.show()
In [56]:
# FacetGrid로 가로로 여러 그래프 그리기(그룹/컬럼별)
grid = sns.FacetGrid(df_train, col='Embarked', size = 3)
grid.map(sns.barplot, 'Sex', 'Survived', palette='deep', order=['female','male'])
# order가 없으면 male, female 순으로 나온다.
Out[56]:
상관계수¶
In [57]:
# Dataframe 상관계수 테이블 correlation
df_num.corr()
Out[57]:
In [58]:
# 상관계수 히트맵
sns.heatmap( df_train.drop('PassengerId', axis=1).corr(), annot=True)
Out[58]:
In [59]:
cols = ['Survived', 'SibSp', 'Parch', 'Fare']
cm = np.corrcoef(df_train[cols].values.T)
sns.set(font_scale=1.25)
hm = sns.heatmap(cm, cbar=True, annot=True, square=True,
fmt='.2f', annot_kws={'size':10} , yticklabels=cols, xticklabels=cols)
In [60]:
# 컬럼별 2차원 데이터 분포도. scatter, histogram.
sns.set()
cols=['Age', 'Survived', 'Fare']
sns.pairplot(df_train[cols], size=2.5)
plt.show()
pltconfig_check()
Evaluation¶
In [61]:
# confusion_matrix( real, predict ) : real vs predict 결과 비교. 대각선이 많을수록 맞춘것임.
from sklearn.metrics import confusion_matrix
y_real=[]
y_predict=[]
for i in range(1000):
v = np.random.randint(0, 10)
y_real.append(v)
if np.random.rand()<0.8:
y_predict.append( np.random.randint(0, 10))
else:
y_predict.append(v)
cm = confusion_matrix(y_real, y_predict) # row=real, column=predict
cm
Out[61]:
In [62]:
# draw confusion matrix with seaborn
df_cm = pd.DataFrame(cm, index=range(10),
columns=range(10))
# plt.figure(figsize = (10,7))
# sns.set(font_scale=1.4) # for label size. 변경시 다른 plot도 전부 영향을 받음.
sns.heatmap(df_cm, annot=True,annot_kws={"size": 10}) # font size
# sns.set(font_scale=1.0) # back to the default font size....
# 설정 변경시 이후 다른 plot 환경 변화로 문제가 발생.
Out[62]:
In [63]:
pltconfig_check()
In [64]:
pltconfig_default()
pltconfig_check()
In [65]:
import itertools
def plot_confusion_matrix(cm, classes,
normalize=False,
title='Confusion matrix',
cmap=plt.cm.Blues):
"""
This function prints and plots the confusion matrix.
Normalization can be applied by setting `normalize=True`.
"""
plt.figure()
plt.grid('off')
plt.imshow(cm, interpolation='nearest', cmap=cmap)
plt.title(title)
plt.colorbar()
tick_marks = np.arange(len(classes))
plt.xticks(tick_marks, classes, rotation=45)
plt.yticks(tick_marks, classes)
if normalize:
cm = cm.astype('float') / cm.sum(axis=1)[:, np.newaxis]
thresh = cm.max() / 2.
for i, j in itertools.product(range(cm.shape[0]), range(cm.shape[1])):
plt.text(j, i, cm[i, j],
horizontalalignment="center", verticalalignment="center",
color="white" if cm[i, j] > thresh else "black")
plt.tight_layout()
plt.ylabel('True label')
plt.xlabel('Predicted label')
In [66]:
plot_confusion_matrix(cm, classes=range(10))
plt.show()
plt.close()
In [67]:
pltconfig_check()
In [ ]:
In [ ]:
'AI(DeepLearning)' 카테고리의 다른 글
처음해본 kaggle 도전기 (1) | 2019.11.27 |
---|---|
Custom EarlyStopping (0) | 2019.11.11 |
Jupyter Lab/ TensorBoard 원격접속/방화벽 (1) | 2019.08.09 |
[keras] categorical_crossentropy vs sparse_categorical_crossentropy (0) | 2019.07.24 |
워드벡터를 사용하여 기사분류하기1 (0) | 2019.04.15 |