Pandas에서 CSV 데이터를 빠르게 읽기 (with. Apache Arrow, Parquet)
Pandas에서 CSV 데이터를 빠르게 읽는 법을 알아본다.
pandas는 기본적으로 single core를 사용한다. 데이터 크기가 커질수록 데이터 처리 속도도 문제지만 데이터를 읽거나 쓸 때 매우 느리다.
Apache Arrow ( Pyarrow )
Apache Arrow is a cross-language development platform for in-memory data.
출처 : https://arrow.apache.org
Apache Arrow의 핵심은 Columnar In-Memory 포맷과 pandas, spark 등 여러 시스템에서 같은 메모리 포맷을 공유한다는 점이다.
Arrow는 특히 Parquet 파일을 활용하는 것이 효과적이다.
Parquet 파일 설명 : Big Data File Formats
pandas에서도 Arrow의 메모리 포맷을 활용하면 데이터를 읽고 쓰는 데 도움을 받을 수 있다.
참고
Apache Arrow는 메모리 절약은 해결해주지는 못한다. 이 부분은 Spark, Dask 등을 고려해야 한다.
Apache Arrow 설치
Python에서는 pyarrow라는 이름으로 간단히 설치할 수 있다.
pip install pyarrow
CSV 데이터 읽기
기본적으로 Table이란 이름의 데이터타입을 사용한다. 타입은 null, int64, float64, timestamp[s], string, binary로 추론한다.
데이터 읽기가 빠른 이유 중 하나는 multi thread를 사용하기 때문이다.
from pyarrow import csv
pyarrow_table = csv.read_csv('data.csv')
# 메타데이터 간단하게 확인가능
pyarrow_table.schema
# Year: int64
# Month: int64
# ...
pyarrow_table.shape
# (21604865, 29)
Arrow의 Table을 Pandas 데이터프레임으로 변환해서 사용한다.
df = pyarrow_table.to_pandas()
# 또는 (한 번에)
df_from_pyarrow = csv.read_csv('data.csv').to_pandas()
데이터 타입을 지정해서 읽기
pandas는 데이터를 읽으면서 사용 메모리가 점점 증가하는 반면, Arrow는 짧은 순간 많은 메모리를 사용하기 때문에
데이터 크기가 클수록 데이터 타입을 지정해서 메모리 사용량을 줄이는 것이 필요하다.
데이터 타입은 대부분 호환이 잘 되고 특히, pandas의 category 타입은 arrow의 dictionary 타입과 호환된다.
import pyarrow as pa
from pyarrow import csv
# 데이터 타입에 ()을 항상 명시
convert_opts = csv.ConvertOptions(column_types={'st_cradle': pa.uint8(), 'st_id': pa.uint16()})
# header가 없는 경우, 컬럼명 지정 가능
read_opts = csv.ReadOptions(
column_names=['register_at', 'st_cradle','st_id'])
df_typed = csv.read_csv('bike_data.csv', convert_options=convert_opts,
read_options=read_opts).to_pandas()
추가 옵션
include_columns : 읽을 컬럼명만 지정
strings_can_be_null : True - Nan이 아닌 빈 데이터를 None으로 처리 (np.nan이 아님) / False(default) - 공백(‘ ‘)으로 처리
convert_opts = csv.ConvertOptions(
... ,
include_columns = ["st_cradle", "st_id"],
strings_can_be_null = True
)
추가 파라미터 관련 : pyarrow.csv.read_csv Parameter
데이터 타입 관련 : pandas <-> Arrow Data Type
Parquet 타입으로 읽고 쓰기
csv 데이터는 읽는 것보다 쓰는 데 매우 시간이 많이 걸린다.
arrow에서는 csv 포맷 쓰기를 지원하지는 않기 때문에 parquet 타입 파일을 활용해야 한다.
CSV를 바로 Parquet 파일로 저장
위에서 설명한 데이터 타입을 지정해서 활용하면 더 효과적이다.
import pyarrow.parquet as pq
from pyarrow import csv
pq.write_table(csv.read_csv('data.csv'), 'data.parquet')
데이터 프레임을 Parquet 파일로 저장
데이터프레임을 먼저 Table로 변환 후 Parquet로 저장한다.
### 속도는 비슷
# 1. pandas 함수
import pandas as pd
df.to_parquet('data3.parquet', engine='pyarrow', index=False)
# 2.
import pyarrow as pa
import pyarrow.parquet as pq
## index 컬럼을 제거할 경우, preserve_index=False를 활용한다.
table_from_pandas = pa.Table.from_pandas(df, preserve_index=False)
pq.write_table(table_from_pandas, 'data.parquet')
참고 : Pandas는 nanosecond를 지원하지만 Spark 같은 경우는 nanosecond를 지원하지 않기 때문에 관련 옵션이 있다.
Parquet 파일을 데이터프레임으로 읽기
읽는 속도가 빠르고 메타데이터로 설정한 데이터 타입이 유지되기 때문에 더 효과적이다.
참고 : read_pandas는 read_table 함수에 pandas의 index 컬럼 읽기가 추가된 함수이다.
### 속도는 비슷
# 1. pandas 함수
import pandas as pd
df = pd.read_parquet('data.parquet', engine='pyarrow')
# 2.
import pyarrow.parquet as pq
df = pq.read_pandas('data.parquet').to_pandas()
참고 : 속도 테스트
테스트 환경(노트북)
RAM : 16G PYTHON : 3.7.5 DATA : 2.1 GB
CPU : Intel® Core™ i5-8250U CPU @ 1.60GHz × 8
비교 | Pandas | Arrow |
---|---|---|
CSV 읽기 | 67.30 sec | 17.32 sec |
Parquet 읽기 | - | 3.58 sec |
CSV 저장 VS Parquet 저장 | 406.45 sec | 15.84 sec |
References
: