파이썬으로 하는 탐색적 데이터 분석
1. 탐색적 데이터 분석¶
여기에 사용한 코드는 모두 https://github.com/gedeck/practical-statistics-for-data-scientists 에서 가져왔습니다.
(c) 2019 Peter C. Bruce, Andrew Bruce, Peter Gedeck
탐색적 데이터 분석은 모든 데이터 과학 프로젝트의 첫걸음으로 1977년 통계학자 존 투키에 의해 정립된 개념입니다. 간단히 말해 데이터 분석전에 요약 통계량과 시각화를 통해 미리 데이터는 살펴보는 것을 의미합니다.
먼저 필요한 파이썬 패키지를 불러옵니다.
%matplotlib inline
from pathlib import Path
import pandas as pd
import numpy as np
from scipy.stats import trim_mean
from statsmodels import robust
import wquantiles
import seaborn as sns
import matplotlib.pylab as plt
try:
import common
DATA = common.dataDirectory()
except ImportError:
DATA = Path().resolve() / "data"
AIRLINE_STATS_CSV = DATA / "airline_stats.csv"
KC_TAX_CSV = DATA / "kc_tax.csv.gz"
LC_LOANS_CSV = DATA / "lc_loans.csv"
AIRPORT_DELAYS_CSV = DATA / "dfw_airline.csv"
SP500_DATA_CSV = DATA / "sp500_data.csv.gz"
SP500_SECTORS_CSV = DATA / "sp500_sectors.csv"
STATE_CSV = DATA / "state.csv"
state = pd.read_csv(STATE_CSV)
state.head(8)
파이썬을 사용해 평균, 절사평균, 중간값을 계산해 봅시다.
state = pd.read_csv(STATE_CSV)
print(state["Population"].mean())
print(trim_mean(state["Population"], 0.1))
print(state["Population"].median())
평균이 절사평균보다 크고, 절사평균은 중간값보다는 큽니다. 미국 전체의 평균적인 살인율을 구하려면 주마다 다른 인구를 고려해 가중평균과 가중 중간값을 사용해야 합니다. 가중 평균은 넘파이를 사용하면 되지만 가중 중간값은
wquantiles
(https://pypi.org/project/wquantiles/) 패키지를 사용해서 계산합니다.
print(np.average(state["Murder.Rate"], weights=state["Population"]))
print(wquantiles.median(state["Murder.Rate"], weights=state["Population"]))
3. 데이터 변이(Variability) 추정¶
변이는 데이터들이 어떻게 분포하는지를 나타내는 것으로 편차, 분산등이 있습니다.
앞서 살펴본 데이터를 가지고 데이터들의 변이를 추정해봅니다.
state.head(8)
3.1. 인구에 대한 표준 편차¶
print(state["Population"].std())
statsmodels 패키지를 사용해 계산한 중간값의 중위절대편차
print(robust.scale.mad(state["Population"]))
# print(abs(state['Population'] - state['Population'].median()).median() / 0.6744897501960817)
3.2. 백분위수와 상자그림¶
주별 살인유의 백분위수를 구해봅시다.
print(state["Murder.Rate"].quantile([0.05, 0.25, 0.5, 0.75, 0.95]))
좀더 보기 좋게 테이블로 만들어보면 다음과 같습니다.
# Table 1.4
percentages = [0.05, 0.25, 0.5, 0.75, 0.95]
df = pd.DataFrame(state["Murder.Rate"].quantile(percentages))
df.index = [f"{p * 100}%" for p in percentages]
print(df.transpose())
상자그림 시각화를 통해 보다 직관적으로 주별 인구를 확인할 수 있습니다.
ax = (state["Population"] / 1_000_000).plot.box(figsize=(3, 4))
ax.set_ylabel("Population (millions)")
plt.tight_layout()
plt.show()
3.3. 도수분포표와 히스토그램¶
도수분포표는 데이터를 동일한 크기의 구간으로 나누어 구간마다 몇 개의 데이터가 존재하는지 보여주기 위해 사용됩니다. 다음은 인구를 10개의 구간으로 나누었을때의 도수분포표입니다.
binnedPopulation = pd.cut(state["Population"], 10)
print(binnedPopulation.value_counts())
각각의 주가 어느 구간에 속하는지 좀 더 보기좋게 만들어봅니다.
# Table 1.5
binnedPopulation.name = "binnedPopulation"
df = pd.concat([state, binnedPopulation], axis=1)
df = df.sort_values(by="Population")
groups = []
for group, subset in df.groupby(by="binnedPopulation"):
groups.append(
{
"BinRange": group,
"Count": len(subset),
"States": ",".join(subset.Abbreviation),
}
)
print(pd.DataFrame(groups))
위의 결과를 통해 가장 인구가 많은 곳은 CA(캘리포니아)이고 8,9번째 구간에는 속한 주가 없다는 것을 알 수 있습니다. 이것은 다른 주에 비하여 캘리포니아에 인구가 매우 집중되어 있다는 것을 암시합니다.
이제 히스토그램을 그려서 시각화를 해보겠습니다.
ax = (state["Population"] / 1_000_000).plot.hist(figsize=(4, 4))
ax.set_xlabel("Population (millions)")
plt.tight_layout()
plt.show()
3.4. 데이터 밀도(Density) 추정¶
밀도 추정은 통계학에서 오래된 주제로 히스토그램과 유사하지만 y축의 단위가 비율이라는 차이가 있다. 다르게 말해 밀도 추정은 히스토그램을 좀 더 부드럽게 그려놓은 것이다.
주별 살인율에 대한 밀도 추정 시각화는 아래와 같다.
ax = state["Murder.Rate"].plot.hist(
density=True, xlim=[0, 12], bins=range(1, 12), figsize=(4, 4)
)
state["Murder.Rate"].plot.density(ax=ax)
ax.set_xlabel("Murder Rate (per 100,000)")
plt.tight_layout()
plt.show()
4. 이진 데이터와 범주형 데이터¶
예시로 2010년에 공항에서 항공기가 지연된 원인별 데이터를 살펴보자.
# Table 1-6
dfw = pd.read_csv(AIRPORT_DELAYS_CSV)
print(100 * dfw / dfw.values.sum())
막대 그래프를 그려 좀 더 직관적으로 살펴보자.
ax = dfw.transpose().plot.bar(figsize=(4, 4), legend=False)
ax.set_xlabel("Cause of delay")
ax.set_ylabel("Count")
plt.tight_layout()
plt.show()
항공기 이륙 지연의 대부분의 원인이 착륙하는 다른 비행기(inbound)라는 것을 쉽게 알 수 있다.
5. 상관 관계¶
다음은 미국주식시장에 상장된 ETF종목간에 상관관계를 시각화하는 방법입니다.
sp500_sym = pd.read_csv(SP500_SECTORS_CSV)
sp500_px = pd.read_csv(SP500_DATA_CSV, index_col=0)
etfs = sp500_px.loc[
sp500_px.index > "2012-07-01", sp500_sym[sp500_sym["sector"] == "etf"]["symbol"]
]
print(etfs.head())
fig, ax = plt.subplots(figsize=(5, 4))
ax = sns.heatmap(
etfs.corr(),
vmin=-1,
vmax=1,
cmap=sns.diverging_palette(20, 220, as_cmap=True),
ax=ax,
)
plt.tight_layout()
plt.show()
위의 결과를 통해 VXX는 다른 종목들과 반대로 움직인다는 것을 확인 할 수 있습니다.
5.1. 산점도¶
데이터 사이에서 두 변수간의 관계를 시각화하는 또 다른 방법에는 산점도가 있습니다. 아래 산점도의 버라이즌과 A&T 주식간의 관계를 나타낸 것으로 두 주식이 함께 오르거나 떨어지면 제 1사분면, 제 3사분면에 점이 많고, 서로 반대로 움직이는 경우(제 2사분면, 제 4사분면)는 드물다는 것을 알 수 있습니다.
ax = telecom.plot.scatter(x="T", y="VZ", figsize=(4, 4), marker="$\u25EF$", alpha=0.5)
# $\u25EF$는 속이 빈 원을 뜻한다.
ax.set_xlabel("ATT (T)")
ax.set_ylabel("Verizon (VZ)")
ax.axhline(0, color="grey", lw=1)
print(ax.axvline(0, color="grey", lw=1))
6. 다변량 분석¶
평균과 분산은 한 번에 하나의 변수를 다루는 일변량 분석이며, 앞서 살펴본 상관분석은 두 변수 사이를 비교하는 이변량 분석이다. 이번에는 셋 이상의 변수를 다루는 다변량 분석에 대하여 알아보자.
먼저 예시로 사용할 kc_tax
데이터셋을 불러온다. 이 데이터셋에는 주택에 대한 과세 평가 금액정보를 담고 있습니다. 너무 작거나 큰 주택에 대한 데이터는 제외하고 사용할 예정입니다.
kc_tax = pd.read_csv(KC_TAX_CSV)
kc_tax0 = kc_tax.loc[
(kc_tax.TaxAssessedValue < 750000)
& (kc_tax.SqFtTotLiving > 100)
& (kc_tax.SqFtTotLiving < 3500),
:,
]
print(kc_tax0.shape)
데이터의 개수가 수십만개가 넘으면 산점도로 시각화하면 알아보기가 어렵습니다. 그런경우에 육각형 구간과 등고선을 이용한 시각화가 사용됩니다.
6.1. 수치형 변수대 수치형 변수¶
먼저 육각형 구간 그림을 그려본다. 다음 시각화는 집의 크기와 과세 평가 금액의 관계를 나타냅니다.
ax = kc_tax0.plot.hexbin(
x="SqFtTotLiving", y="TaxAssessedValue", gridsize=30, sharex=False, figsize=(5, 4)
)
ax.set_xlabel("Finished Square Feet")
ax.set_ylabel("Tax Assessed Value")
plt.tight_layout()
plt.show()
위 시각화 결과를 통해 집의 크기와 과세 평가 금액이 양의 상관관계를 갖는 것을 쉽게 파악할 수 있습니다. 또한 집들이 그룹으로 나누어 져있다는 것도 알 수 있는데 예를 들어 가장 어둡고 아래쪽에 있는 집들보다 위쪽에 있는 집들은 같은 크기의 집이지만 더 높은 과세 평가액을 갖는다는 것입니다.
이번에는 등고선을 사용해 시각화를 해보겠습니다.
fig, ax = plt.subplots(figsize=(4, 4))
sns.kdeplot(data=kc_tax0.sample(10000), x="SqFtTotLiving", y="TaxAssessedValue", ax=ax)
ax.set_xlabel("Finished Square Feet")
ax.set_ylabel("Tax Assessed Value")
plt.tight_layout()
plt.show()
등고선은 두 변수로 이루어진 지형에서 밀도를 표현한 것으로 꼭대기로 갈수록 밀도가 높아집니다. 이 그림 역시 육각형 구간과 같은 결과를 보여주고 있습니다.
6.2. 범주형 변수대 범주형 변수¶
범주형 변수를 요약하는데 피벗테이블이 효과적입니다. 이번에는 예시로 lc_loans
데이터셋을 사용합니다. 이 데이터셋은 대출 등급과 상황에 대하여 담고 있습니다.
lc_loans = pd.read_csv(LC_LOANS_CSV)
df = crosstab.copy().loc["A":"G", :]
df.loc[:, "Charged Off":"Late"] = df.loc[:, "Charged Off":"Late"].div(df["All"], axis=0)
df["All"] = df["All"] / sum(df["All"])
perc_crosstab = df
print(perc_crosstab)
위 피벗테이블은 대출 결과에 대해 각 등급별 빈도와 비율을 나타냅니다.
6.3. 범주형 변수 대 수치형 변수¶
범주형 변수에 따라 분류된 수치형 변수는 상자그림을 통해 간단하게 시각화 할 수 있습니다. 예를 들어 항공사 별 비행기 지연 정도를 비교한다면 다음 그림과 같이 나타낼 수 있습니다.
airline_stats = pd.read_csv(AIRLINE_STATS_CSV)
airline_stats.head()
ax = airline_stats.boxplot(by="airline", column="pct_carrier_delay", figsize=(5, 5))
ax.set_xlabel("")
ax.set_ylabel("Daily % of Delayed Flights")
plt.suptitle("")
plt.tight_layout()
plt.show()
위 결과를 통해 알래스카 항공의 지연이 가장 젹다는 것을 알 수 있습니다. 상자그림과 유사한 바이올린 도표도 그려봅니다. 바이올린 도표는 상자그림 대비 데이터의 분포도 알 수 있다는 장점이 있습니다.
fig, ax = plt.subplots(figsize=(5, 5))
sns.violinplot(
data=airline_stats,
x="airline",
y="pct_carrier_delay",
ax=ax,
inner="quartile",
color="white",
)
ax.set_xlabel("")
ax.set_ylabel("Daily % of Delayed Flights")
plt.tight_layout()
plt.show()
항공사에 따른 비행기 지연 비율을 나타낸 바이올린 도표를 통해 알레스카와 델타항공이 거의 0근처에 집중되어 있다는 것을 알 수 있습니다.
6.4. 여러개의 변수를 한번에 시각화 하기¶
앞서 살펴보았던 주택 크기와 과세 평가 금액의 데이터셋을 좀 더 깊게 살펴보기 위해 우편번호 별로 그룹을 나누어 시각화합니다.
zip_codes = [98188, 98105, 98108, 98126]
kc_tax_zip = kc_tax0.loc[kc_tax0.ZipCode.isin(zip_codes), :]
kc_tax_zip
def hexbin(x, y, color, **kwargs):
cmap = sns.light_palette(color, as_cmap=True)
plt.hexbin(x, y, gridsize=25, cmap=cmap, **kwargs)
g = sns.FacetGrid(kc_tax_zip, col="ZipCode", col_wrap=2)
g.map(hexbin, "SqFtTotLiving", "TaxAssessedValue", extent=[0, 3500, 0, 700000])
g.set_axis_labels("Finished Square Feet", "Tax Assessed Value")
g.set_titles("Zip code {col_name:.0f}")
plt.tight_layout()
plt.show()
위 시각화 결과를 통해 우편번호 98105 지역의 주택이 다른 곳들보다 과세 평가 금액이 높다는 것을 알 수 있습니다. 이런 추가 정보는 데이터셋을 이해하고 유용한 결론을 도출하는데 도움이 됩니다.
7. 마치며¶
탐색적 데이터 분석의 핵심은 바로 데이터를 들여다보는 것이 다른 어떤 것보다 중요하는 것입니다. 이렇게 먼저 데이터를 요약하고 시각화하는 것을 통해 가치 있는 결론을 얻는 것이 모든 데이터 과학 프로젝트의 성공에 지대한 영향을 줍니다.