검색 전체 메뉴
PDF
맨 위로
OA 학술지
빅데이터 환경에서 사용자 거래 성향분석을 위한 머신러닝 응용 기법 The Application Method of Machine Learning for Analyzing User Transaction Tendency in Big Data environments
  • 비영리 CC BY-NC
  • 비영리 CC BY-NC
ABSTRACT
빅데이터 환경에서 사용자 거래 성향분석을 위한 머신러닝 응용 기법

Recently in the field of Big Data, there is a trend of collecting and reprocessing the existing data such as products having high interest of customers and past purchase details to be utilized for the analysis of transaction propensity of users(product recommendations, sales forecasts, etc). Studies related to the propensity of previous users has limitations on its range of subjects and investigation timing and difficult to make predictions on detailed products with lack of real-time thus there exists difficult disadvantages of introducing appropriate and quick sales strategy against the trend. This paper utilizes the machine learning algorithm application to analyze the transaction propensity of users. As a result of applying the machine learning algorithm, it has demonstrated that various indicators which can be deduced by detailed product were able to be extracted.

KEYWORD
빅데이터 , 머신 러닝 , 딥 러닝 , 성향 분석 , 데이터마이닝
  • Ⅰ. 서 론

    초고속 인터넷 도입 이후 2000년대 이후 급격한 인터넷 사용자 증가와 온라인 마켓 활성화에 따라 각 온라인 마켓 업체들은 효율적인 마케팅을 위해 사용자의 구매성향을 분석하려는 다양한 분서기법과 연구들이 제안되었다[1]. 기존 데이터마이닝(Data Mining) 분야에서는 성향 분석을 위한 상품 종류 및 품질, 웹 사이트 및 사용자의 특성, 성별이나 연령대, 서비스 만족도 등 특정 데이터를 추출하기 위해서 다양한 연구들이 제안되었지만 결론적으로 데이터 분석에 직접 큰 비용과 시간을 소비해야 했다[2].

    최근 모바일, 클라우드, 빅데이터 등 IT 환경 트렌드 변화에 따라 온라인 마켓에서는 상품추천을 할 수 있는 방법으로 인공지능의 한 영역인 기계학습이 재 주목받고 있다[3]. 기존 기계학습 분야는 IT 업계에서 스팸 필터(Spam Filter), 얼굴 인식, 일기 예보, 상품 추천, 장비고장 예측 등 서비스업, 제조업 등 특정 분야에서 활용되어 왔다[4].

    빅데이터 환경을 활용한 기계학습은 기존 분야에서 축척된 정형화된 데이터(구조적, 수치로 표현된 데이터)이외에 비정형 데이터까지 분석 범위를 확장하였고, 병렬처리 및 분산처리 파일 시스템의 장점으로 기존 기계학습 알고리즘의 연산 비효율성과 저장 공간의 문제를 해결하였다[5].

    본 논문에서는 빅데이터 환경에서 최근 활용되는 기계학습 알고리즘을 응용하여 기존의 분석과 판단이 어려웠던 사용자의 상품 거래에 대한 성향을 분석한다. 2장은 관련연구, 3장은 제안 기법, 4장은 성능 평가, 5장 결론으로 마친다.

    Ⅱ. 관련 연구

    기계학습이란 수집된 다양한 데이터 분석을 할 수 있는 기준(알고리즘)을 가지고 학습을 통해 주어진 일에 대한 해결책 제시를 자동화하는 것을 의미한다. 기존 정체되었던 기계학습과 관련된 연구들은 최근 등장한 빅데이터 기술 분야에서 점점 실현 가능성이 커지고 있다[6]. 본 관련연구에서는 본 논문에서 활용한 기계학습 알고리즘에 대하여 설명한다.

       2.1. Naive Bayes Algorithm

    나이브 베이스는 특정 단어에 대한 문서 분류와 횟수를 기록하는데 활용되며 베이스 정리의 일부분으로 두개의 분류항목간에 높은 확률을 가지는 항목을 선택하는 방법이다[7]. 베이스 규칙(Bayes’rule)에서는 조건부 확률(Conditional probability)로 데이터를 분류하기 위한 방법으로 다음과 같은 공식을 사용한다[7].

    image

    데이터 분류에 x를 입력 데이터, c를 분류 항목으로 정의했을 때 p(x|c)를 알고 있는 상태에서 p(c|x)를 알 수 있다. 조건부 확률로 분류하기 위해서는 다음과 같은 두 가지 확률을 찾을 수 있다. p1(x, y)→p2(x, y)이면 분류 항목 1, p1(x, y)→p2(x, y)이면 분류 항목 2에 속한다. 위 2가지 규칙은 다음과 같은 베이스 규칙으로 적용할 수 있다[8].

    image

    두 가지 규칙 p(c1|x,y)와 p(c2|x,y)를 비교하여 x, y로 확인된 데이터를 기준으로 분류항목 c1에 속할 확률을 구한다. 이 경우 p(c1|x,y)→p(c2|x,y)이면 c1, p(c1|x,y)←p(c2|x,y)분류 항목 c2에 속한다. 위와 같은 베이스 규칙을 사용하여 알려진 데이터 개수 i로부터 알려지지 않은 것을 계산할 수 있다.

       2.2. Decision Tree Algorithm

    의사결정 트리는 DB마케팅, CRM, 시장조사, 광고조사, 의학연구, 품질관리 등 분류 기술 중 가장 일반적으로 사용되는 방법으로 데이터 집합을 분류하는데 사용할 수 있다. 최초 부모 노드로부터 데이터 집합을 분류될 때 까지 재귀적인 분류절차를 반복하는 형태를 가지고 있다[9]. 데이터 분할을 결정하는 방법 중 양자화(Quantitative)방법을 적용하며, 정보이득(Information Gain)을 계산하여 각 노드별 속성에 대해 확인하여 분할을 진행한다. 다음은 분류항목이 선택될 확률 계산하기 위해 다음과 같은 공식을 사용한다[10].

    image

    여기서 p(xi)는 xi라는 분류 항목이 선택될 확률이다. 정보이득에 대한 정보 측정 방법은 다음과 같은 엔트로피(Entropie) 계산 공식을 사용한다[10].

    image

    분류된 데이터 항목 L의 확률(xi)을 이용하여 엔트로피 H를 계산하여 모두 더한다. 마지막으로 비교하기 전, 후 변화를 비교하여 가장 좋은 속성의 색인을 반환하고, 앞 과정을 반복하여 정보이득(엔트로피)이 가장 높은 속성에 대해서 데이터 분류한다.

       2.3. Knn(K-nearest neighbor) Algorithm

    K-최근접 이웃은 얼굴인식, 핑커프린트 등 패턴인식 분야에서 가장 잘 알려진 알고리즘으로 데이터 분류를 위해 기존의 모든 데이터(분류된 데이터 항목 필요)와 새로운 데이터를 비교하여 상위 k개의 가장 유사한 데이터와의 거리를 측정하여 데이터를 분류하는 방법이다[11]. 거리를 측정하는 방법은 유클리드 거리(Euclidean distance)를 사용하며 공식은 다음과 같은 공식을 사용한다[11].

    image

    두 가지 데이터 그룹 xAxB간의 속성 값을 가지고 거리를 계산할 수 있다. 각 속성 값의 거리를 구하기 위해서는 정수형 수치 값을 속성 값으로 사용하며 이를 위해 데이터의 정규화가 필요하다. 정규화는 0에서 1또는 –1에서 1 등 사용자가 정의할 수 있으며 다음과 같은 공식을 사용한다[12].

    image

    정규화 V는 집합 내 가장 작은 값 min V와 가장 큰 값 max V를 사용하여 정규화를 진행한다. 정규화 과정에서 사용된 최대/최소값은 가까운 거리를 판단하여 분류되지 않은 유형에 대한 거리를 예측하는데 사용할 수 있다.

       2.4. Apriori Algorithm

    Apriori 알고리즘은 연관규칙, 선호도, 정보여과 등 데이터 변수들에서 관찰 되는 주요한 관계를 가장 적합하게 설명할 수 있는 규칙을 찾는 알고리즘으로 높은 다차원이나 복잡한 관계를 가지는 데이터 간에 중요 연관성을 찾는데 사용될 수 있다[13].

    Apriori 알고리즘에서 관계는 빈발 아이템 집합(Frequent item sets) 또는 연관규칙(Association rules) 두 가지 형태로 표현한다. 빈발 아이템 집합은 함께 자주 발생하는 아이템들을 모은 것이며, 연관규칙은 아이템 간의 관계에 강도가 존재한다고 제안하는 것이다.

    특정 데이터 집합에서 위 두 가지 방법을 사용하여 아이템 집합에 대한 관계 여부를 판단할 수 있다. 특정 아이템 A에서 B에 대한 신뢰도를 지지도는 다음과 같은 공식을 사용한다[14].

    image

    지지도는 데이터 그룹에 특정 데이터가 포함된 데이터 집합의 비율 G와 신뢰도 S는 연관규칙으로 정의되어 연관성이 많은 데이터들을 그룹화 하는 군집화의 일종으로, 목적을 동시에 만족하는 가능성이 큰 데이터들을 찾는데 사용할 수 있다[14].

    Ⅲ. 제안 기법

    본 논문에서 사용한 기계학습 알고리즘은 Naïve Bayes, Decision Tree, Knn(K-nearest neighbor), Apriori를 상호 응용하였다.

       3.1. 목표 정의

    기계학습 알고리즘 응용 결과 목표는 다음과 같다.

       3.2. 데이터 수집 출처

    기계학습 알고리즘 적용에 앞서 학습에 필요한 데이터 그룹의 수집 출처는 표 1과 같다.

    [표 1.] 데이터 그룹 수집 출처

    label

    데이터 그룹 수집 출처

    수집된 데이터는 웹(Web)상에서 수집 가능한 거래 게시판 총 194,841개를 대상으로 데이터(구매, 판매)를 추출하였다.

       3.3. 데이터의 이해

    기계학습 알고리즘을 적용하는 단계 이전에 선행해야할 과정은 수집된 데이터를 일차적으로 가공해야 한다. 수집된 데이터는 최초에 각 알고리즘에 입력되는 변수들을 추출하는 과정이 실제로 전체과정(수집, 데이터준비, 알고리즘 적용, 결과추출, 결과분석)에서 60% 이상의 시간과 노력이 소모되었다. 또한 선별된 상품 거래 데이터에 대한 결과를 추출하기 위해서는 거래 상품 주제에 대한 높은 이해도가 요구되었다.

    본 논문에서 사용된 거래 데이터는 로드바이크 중고 거래 데이터를 수집하였다. 로드바이크 상품에 관련된 결과를 추론하기 위해서 추출된 항목은 종류, 부품명과 종류, 부품 별 상관관계 등이다. 표 2는 로드바이크 준비 데이터 항목을 나타낸다.

    [표 2.] 준비 데이터 항목

    label

    준비 데이터 항목

       3.4. 기계학습 알고리즘 응용

    본 논문에서 사용된 각 기계학습 알고리즘의 역할은 다음과 같다.

    3.4.1. Naive Bayes Algorithm

    수집 데이터에서 포함된 단어(제목, 본문의 긍정·부정 단어)의 빈도수와 통계치를 추출한다. 한글 단어 및 어휘는 형태소(국립국어원 표준국어대사전)에서 검색 결과로 나온 명사, 동사, 관형사·명사, 동사 등을 참고하여 긍정·부정 형태의 단어를 추출하였다. 다음은 단어의 긍정·부정을 판단하는 방법을 설명한다.

    3.4.2. Decision Tree Algorithm

    나이브 베이스에서 추출된 단어는 수집된 데이터(194841건)에서 수많은 변수에 대한 경우의 수를 고려했을 때 고차원의 데이터를 생성한다. 의사결정 트리를 적용할 경우 고차원 데이터로 인해 과접합 가능성이 매우 높다.

    본 논문에서는 3.1에서 정의한 목적을 기준으로 필요한 항목으로 데이터 분석을 진행한다. 이는 목적에 따라 알고리즘의 적용방법과 수집 데이터의 일차가공 등 수많은 변수가 존재(실제로 많은 변수들에 대한 예외처리 가능한 기계학습 알고리즘은 존재하지 않음)하기 때문에 범위를 제한하여 설정하였다.

    긍정·부정 분류 이후 카테고리 1부터 6의 키워드 인식하여 최상위 부모로 정의한다. 각 카테고리의 데이터는 판매/구매로 분류되어 있으며, 추출된 세부 분류 항목은 긍정·부정 별 세부 상품으로 분류된다. 그림 1은 긍정·부정 부품 종류를 분류하는 과정을 나타낸다.

    긍정·부정, 부품 종류가 추출되지 않은 데이터에 대해서는 준비 데이터에서 추가적으로 선택될 수 있는 다른 변수를 입력으로 새로운 의사결정 트리를 선택할 수 있다. 예로는 준비된 데이터 항목에 해당되지 않는 소모품명이나 가격, 무게 정보 등이다.

    3.4.3. Knn(K-nearest neighbor) Algorithm

    의사결정 트리 알고리즘으로 분류된 데이터 항목의 긍정, 부정, 세부 부품 단어의 발생 빈도수를 이용하여 거리를 측정한다. 유클리드 거리를 사용하여 계산하고, 추출된 값은 정규화 수행 이후, 거리가 가장 짧은 개수를 가지는 변수 정렬하고 연산을 반복 수행한다. 표 3은 긍정·부정, 부품 종류에서 나타난 브랜드를 기준으로 변수를 입력 예를 나타낸다.

    [표 3.] K-최근접 이웃 알고리즘 데이터 그룹

    label

    K-최근접 이웃 알고리즘 데이터 그룹

    위 예는 입력 변수의 종류와 결과 항목에 따라 추출되지 않은 물음표 항목(브랜드)에 대해 예측할 수 있다.

    3.4.4. Apriori Algorithm

    관계도출을 위한 연관분석은 앞에서 분류 알고리즘으로 추출된 분류 항목, 단어의 빈도수 및 확률 통계를 기반으로 Apriori와 응용한다. 연관 규칙에서 두 아이템간의 관계의 강도를 측정하기 위해서 지지도와 신뢰도를 추출한다. 신뢰도는 추출된 부품 키워드 간에 연관규칙에 대한 신뢰도를 나타낸다. 이는 거래데이터에서 특정 부품이 어느 부품과 관련성이 있는지 확인할 수 있다.

    Ⅳ. 성능분석

    실험환경은 데이터 처리/분석은 하둡(Hadoop)을 기반으로 파이썬(Python) 모듈을 이용하여 알고리즘을 수행한다. 각 기계학습 알고리즘은 연동되는 API나 프로그램이 없기 때문에 출력결과를 직접 계산하였다. 통계차트와 의사결정 트리의 데이터 시각화 부분은 D3(Data-Driven Documents)를 이용하였다.

       4.1. 입력 데이터 정의

    다음은 성능평가를 위해 입력되는 데이터 예를 나타낸다.

       4.2. 출력결과

    그림 2는 나이브 베이스에서 추출된 카테고리 별 긍정·부정 단어의 비율(방사형)을 나타낸다. 전체 카테고리에서 긍정·부정 성향 비율(평균 63%, 37%)은 긍정적인 것인 성향이 높았다. 카테고리 4의 경우 비율(49%, 51%)이 비슷하고, 카테고리 6의 경우 비율(63%)이 부정적인 성향이 높은 것으로 나타났다.

    그림 3, 4는 전체 카테고리에서 긍정·부정에 대한 비율을 나타낸 것이다.

    분석 예) 긍정적인 성향이 가장 높은 비율로 나타나는 카테고리 3의 경우 판매자는 판매 전략상 어떤 구동계 종류에 대한 구매 만족도가 높은지 분석할 필요가 있다.

    분석 예) 부정적인 성향이 높은 카테고리 6의 경우 사용자가 의류, 패션 아이템에 대한 제품의 만족도가 낮을 가능성이 크기 때문에 어떠한 상품 종류가 부정적인지 분석할 수 있다.

    위 두 분석 요구사항은 공통적으로 카테고리를 세부 분류하고 내용을 확인해야 한다. 그림 5는 생성된 긍정·부정 별 카테고리 데이터 그룹을 의사결정 트리로 표현한 것이다.

    카테고리 3을 예로 구매만족도 분석을 위한 항목은 구동계의 종류와 등급을 확인하는 것이다. 그림 6은 긍정 성향의 카테고리 3에서 세부 분류된 데이터 그룹을 나타낸다. 로드바이크 구동계는 일반적으로 3가지 종류로 분류되며 SHIMANO의 경우 7가지 등급으로 분류된다.

    생성된 의사결정 트리는 종류: SHIMANO, 등급: ULTEGRA의 분류 비율이 가장 높게 나타났다. 카테고리 3의 데이터 특징상 4가지 등급에 대한 키워드보다 부품에 대한 키워드가 데이터에 훨씬 많이 포함되었기 때문에 부품 키워드 인식을 선행한 후 이에 호환되는 등급과 부품 종류를 선택하도록 의사결정 트리를 작성하였다. 그림 6은 카테고리 3 데이터 그룹을 확장한 것이다.

    카테고리 3에서 등급이 분류되지 않은 데이터는 전체 3459건, 세부 종류에서 1782건으로 이는 준비된 데이터 항목의 분류 선택 기준(정의된 변수의 범위)이 부족하여 나타나는 결과이다.

    모든 데이터 변수를 고려할 수 없기 때문에 분류되지 않은 항목에 대해서는 Knn을 이용하여 거리를 측정하고, 거리 값에 가까운 등급에 대해 예측한다. 표 4는 카테고리 3의 긍정·부정 데이터를 포함하는 등급 데이터의 거리(평균)을 나타낸다.

    [표 4.] 데이터 거리(평균) ? 부품 종류

    label

    데이터 거리(평균) ? 부품 종류

    데이터 간의 거리측정은 긍정·부정을 포함하는 전체 데이터에서 등급 항목에 대한 거리를 측정하였다. 측정되는 거리 값은 전체 데이터에서 측정한 데이터 거리에서 가장 가까운 거리를 찾는 것이 효율적이다. 분석 결과 관련되지 않은 데이터 유형은 가장 거리가 짧은 등급 : SRAM 으로 예상할 수 있다. 각 항목에 대한 키워드 관심도 측정을 위해 Apriori 을 이용하여 신뢰도를 측정하였다. 표 5는 키워드 SRAM과 등급 별 키워드에 대한 관심도를 분석하였다.

    [표 5.] SRAM -> 등급 별 키워드(관심도)

    label

    SRAM -> 등급 별 키워드(관심도)

    표 6은 카테고리중 긍정적 성향이 가장 높게 나타난 키워드 SHIMANO과 등급 별 키워드에 대한 관심도를 분석하였다.

    [표 6.] SHIMANO -> 등급 별 키워드(관심도)

    label

    SHIMANO -> 등급 별 키워드(관심도)

    Condition 키워드에서 Result 키워드가 포함될 확률이 상대적으로 낮았기 때문에 지지도를 최소 0.01로 설정하고 최소 신뢰도를 0.5로 설정한 결과 SRAM의 경우 RED와 FORCE 등급에 대한 신뢰도가 가장 높게 나타났으며 SHIMANO의 경우 105, ULTEGRA 등급에 대한 신뢰도가 높은 순으로 나타났다. 앞의 예를 통합적으로 분석한 결론으로 카테고리 3에서 통계상 긍정성향이 높은 구동계 종류는 SHIMANO의 ULTEGRA 등급으로 나타났으며, 분류 데이터를 기준으로 관련이 없는 데이터를 예측했을 때 SHIMANO 다음으로 긍정적인 성향을 나타낸 구동계는 SRAM 구동계로 예측되었다. 이외 SRAM, SHIMANO 구동계 종류의 관심도 분석 결과 어떠한 등급에 사용자의 관심도(신뢰도)가 높다는 것을 확인할 수 있었다.

    Ⅴ. 결 론

    본 논문에서는 기계학습 알고리즘을 응용하여 사용자의 거래 성향을 분석 하였다. 성향 분석 결과 정의한 목적에 따라 다양한 결과를 추측할 수 있다는 것을 증명할 수 있었다.

    그러나 수집된 데이터의 초기 데이터 가공에 많은 시간과 비용을 소비해야 했다. 이는 데이터의 주제와 목적에 따라 많은 변수가 존재하였기 때문이다. 실질적으로 기계학습을 위해 필요한 학습 데이터는 오랜 기간 동안 축적되어야 할 필요가 있고, 대부분 많은 변수들을 각 알고리즘 별 직접 입력해야하는 어려움이 존재했다.

    기존 연구, 공개 및 상용 프로그램들은 데이터 수집에 대한 다양한 기능들을 제공하고 있다. 하지만 수집된 데이터를 입력데이터로 효율적으로 가공해주는 기능을 제공하는 데이터마이닝 연구 및 자동화 프로그램은 비교적 부족한 것으로 나타났다.

    향후 연구로는 이러한 문제를 해결하기 위해 특정 기계학습 알고리즘에 적절한 수집된 데이터를 일괄적으로 정형화된 데이터로 가공할 수 있는 연구가 필요할 것으로 예상한다.

참고문헌
  • 1. Jo Hyeon, Park Sangseon 2013 “Understanding Product Satisfaction in the Context of Online Trading” [Journal of the Korea Contents Association] Vol.13 P.436-442 google cross ref
  • 2. 2014 “Process Mining technology trends for Big Data analysis” google
  • 3. Choi Gyeyeong 2015 “Artificial Intelligence: Disruptive innovation and evolution of the Internet platform” google
  • 4. Banks Greg 2014 “More growth options up front ? Big data enables a new opening step in the growth decisionmaking process” google
  • 5. Im Sujong, Min Okgi 2012 “Machine Learning Technology Trends for Big Data Processing” google
  • 6. Lee Byoungyup, Lim Jongtae, Yoo Jaesoo 2013 “Utilization of Social Media Analysis using Big Data” [The Journal of the Korea Contents Association] Vol.13 P.211-219 google cross ref
  • 7. McCallum Andrew, Nigam Kamal 1998 “A comparison of event models for naive bayes text classification” [AAAI-98 workshop on learning for text categorization] google
  • 8. Winkler Robert L 1973 “Introduction to Bayesian inference and decision” Vol.15 P.938-939 google
  • 9. BARROS Rodrigo Coelho 2012 “A Survey of Evolutionary Algorithms for Decision-Tree Induction” [IEEE Transactions on Systems, Man and Cybernetics, Part C: Applications and Reviews, IEEE Transactions on] Vol.42 P.291-312 google
  • 10. Choi Jonghu 1999 “Application of Data Mning Decision Tree” [Journal of The Korean Official Statistics] Vol.4 P.61-83 google
  • 11. Altman Naomi S. 1992 “An introduction to kernel and nearest-neighbor nonparametric regression” [The American Statistician] Vol.46 P.175-185 google
  • 12. Hastie Trevor, Tibshirani Rolbert 1996 “Discriminant adaptive nearest neighbor classification” [Pattern Analysis and Machine Intelligence, IEEE Transactions on] Vol.18 P.607-616 google cross ref
  • 13. Agrawal Rakesh, Srikant Ramakrishnan 1994 “Fast algorithms for mining association rules” [Proc. 20th int. conf. very large data bases, VLDB] P.487-499 google
  • 14. Perego Raffaele, Orlando Salvatore, Palmerini P. 2001 “Enhancing the apriori algorithm for frequent set counting”, Data Warehousing and Knowledge Discovery P.71-82 google
OAK XML 통계
이미지 / 테이블
  • [ ] 
  • [ ] 
  • [ ] 
  • [ ] 
  • [ ] 
  • [ ] 
  • [ ] 
  • [ 표 1. ]  데이터 그룹 수집 출처
    데이터 그룹 수집 출처
  • [ 표 2. ]  준비 데이터 항목
    준비 데이터 항목
  • [ 그림 1. ]  의사결정 트리 과정(긍정·부정)
    의사결정 트리 과정(긍정·부정)
  • [ 표 3. ]  K-최근접 이웃 알고리즘 데이터 그룹
    K-최근접 이웃 알고리즘 데이터 그룹
  • [ 그림 2. ]  카테고리 별 긍정·부정 단어 비율 비교
    카테고리 별 긍정·부정 단어 비율 비교
  • [ 그림 3. ]  카테고리 별 긍정 단어 비율
    카테고리 별 긍정 단어 비율
  • [ 그림 4. ]  카테고리 별 부정 단어 비율
    카테고리 별 부정 단어 비율
  • [ 그림 5. ]  생성된 의사결정 트리(긍정·부정 및 카테고리 1-6)
    생성된 의사결정 트리(긍정·부정 및 카테고리 1-6)
  • [ 그림 6. ]  생성된 의사결정 트리(카테고리 3, 부품 종류와 등급)
    생성된 의사결정 트리(카테고리 3, 부품 종류와 등급)
  • [ 표 4. ]  데이터 거리(평균) ? 부품 종류
    데이터 거리(평균) ? 부품 종류
  • [ 표 5. ]  SRAM -> 등급 별 키워드(관심도)
    SRAM -> 등급 별 키워드(관심도)
  • [ 표 6. ]  SHIMANO -> 등급 별 키워드(관심도)
    SHIMANO -> 등급 별 키워드(관심도)
(우)06579 서울시 서초구 반포대로 201(반포동)
Tel. 02-537-6389 | Fax. 02-590-0571 | 문의 : oak2014@korea.kr
Copyright(c) National Library of Korea. All rights reserved.