A Study on Utilization of Korea Science Citation Database(KSCD) Based on Data Mining Techniques

  • cc icon
  • ABSTRACT

    Scholarly science citation data is typically of large volume and consists of a variety of data. Moreover, the volume of data is increasing more and more. Therefore, there are some requirements to store and manage the data efficiently and Korea Institute of Science and Technology Information (KISTI) develops Korea Science Citation Database (KSCD) which manage and serve very large-volume of korea science technique information including citation data. However, current services based on KSCD are not enough for various users. Thus, it is important issue to offer a variety of services using KSCD. For example, if a user searches articles described by a specific author, then a user may want to find not only the articles cited by a certain author but also those articles that study similar topics. However, it is not always easy to provide these services with citation data. Therefore, this paper surveys studies about services using citation data in order to find approaches for better utilizing KSCD. Especially, this paper considers data mining techniques, because data mining is one of the main techniques to extracting semantic information from big data. Therefore, this paper discusses methods for utilizing large volume of KSCD based on data mining technique.


    한국과학기술정보연구원(KISTI)에서는 대량의 학술 정보들을 분류하여 저장하고 관리하기 위한 한국과학기술 인용색인 데이터베이스(KSCD)를 구축한 바 있다. 그러나 학술인용색인데이터들은 그 특성상 단순히 저장만을 위한 자료가 아니다. 즉, 저장된 데이터를 기반으로 사용자들에게 어떠한 서비스를 어떻게 제공할 것인지는 KSCD의 활용 측면에서 매우 중요한 문제이다. 예를 들어 사용자는 단순히 특정 저자가 기술한 학술 자료들을 검색하기를 원할 수도 있지만, 필요에 따라 해당 저자와 유사한 연구를 수행하는 저자들을 검색하기를 원할 것이다. 그러나 단순히 저장된 데이터만으로 이러한 서비스를 제공하기는 어렵다. 그러므로 본 논문에서는 한국과학기술인용색인 데이터베이스(KSCD)를 향후 어떻게 활용할 수 있는가에 대한 해답을 찾기 위해서는 국내외에서 현재 어떠한 서비스들을 제공하고 있는지 살펴보고 이와 관련하여 어떤 방향으로 연구가 진행해야 하는지를 모색한다. 특별히 데이터마이닝 기술은 다양한 형태의 데이터로부터 데이터 속에 내포되어있는 특징(Feature)들을 추출하고 새로운 데이터 모델을 발견하여 의미 있는 정보를 추출해 내어 결국은 사용자의 의사 결정에 도움을 주는 것을 그 목적으로 한다. 즉 데이터에 숨겨진 패턴과 관계를 찾아내어 유용한 정보를 발견해 내는 것이다. 그러므로 본 논문에서는 이러한 데이터마이닝 기법을 학술인용색인데이터에 적용하여 제공할 수 있는 서비스들이 무엇이 있는지 논의한다.

  • KEYWORD

    Science Citation Data , KSCD , Data Mining , Index-Based Service

  • 1. 서 론

    과학기술 전반에 걸쳐 대량의 데이터가 존재하며 매일 수없이 많은 데이터들이 생산되고 있다. 또한 학술 데이터의 특성상 학술 데이터들은 인용 표현과 같이 상호간에 다양한 형태로 연관관계를 내포하고 있는 것이 현실이다. 그러므로 이러한 대용량의 데이터들을 기반으로 다양한 형태의 서비스를 제공하기 위해서 반드시 필요한 것이 종합 분석이 가능한 학술 데이터에 대한 대규모 인용 색인 데이터베이스이고 한국과학기술정보연구원(KISTI)에서는 2002년부터 대량의 국내 학술인용색인정보들을 분류하여 저장하고 관리하기 위하여 한국과학기술인용색인 데이터베이스(KSCD)를 구축하여 서비스하고 있다. KSCD의 수록범위 는 한국 741종의 주요 과학기술학술지에 출판된 논문을 그 대상으로 2002년부터 2010년까지 출판된 논문 32만 건과 참고문헌 600만 건이며 KJCR과 KSCI를 통해 JCR기준의 영향력지표, 인용수, 피인용수 등 관련지표들을 제공하고 있다. 그리고 국내 과학기술분야 학술지 인용지표 산출을 통해 학술지에 대한 정량적 평가도구로 활용하는 것과 국내의 과학기술논문의 유통 및 정보관리 활성화에 기여하는 것을 그 목적으로 하고 있으며 Lee(2011), Kim(2011)에서는 KSCD를 분석하고 활용하기 위한 몇몇 방법들을 제안하고 있다. 과학기술인용색인 데이터베이스의 목적은 단순히 학술 데이터를 보관하기 위한 것뿐만 아니라 이를 기반으로 사용자들에게 다양한 서비스를 제공하는 것이다. 예를 들어 특정 기관들 사이의 연구 활동 연계 지수에 대한 서비스, 분야별 연구 활동 지수에 대한 서비스, 또는 분야별 연구활동이 왕성한 연구자들을 검색하고 이들의 연구 방향을 제시하는 서비스 등 무수히 많은 서비스들이 존재한다. 이러한 서비스를 제공하기 위하여 현재 많은 연구들이 진행 중이며, 이미 몇몇 연구들은 안정된 서비스를 제공하고 있다. 이와 같은 서비스들을 제공하기 위해서는 다양한 정보처리 기술들이 존재해야 하며 데이터마이닝 역시 핵심 기술들 가운데 하나이다.

    <그림 1>은 정보처리 측면에서 원문 데이터를 처리하여 과학기술인용색인 데이터를 추출하고 이를 기반으로 데이터마이닝 기법을 활용

    하여 서비스를 제공하기 위한 처리 흐름을 보인다. 저장 관리 시스템은 원문 데이터로부터 과학기술인용색인 데이터베이스에 저장하기 위한 데이터를 추출하고 필요에 따라 원문 데이터와 정제된 데이터를 모두 저장한다. 정보처리의 관점에서 이러한 작업은 대부분 자연어 처리 기술에 의해서 수행될 수 있으나 신뢰도 여하에 따라 사람이 직접 개입하여 데이터를 정제할 필요도 있다. 또한 차후 간단한 데이터 검색을 위하여 데이터베이스의 특성과 데이터의 특성을 고려한 색인 작업과 메타데이터 등을 추출한 후 이를 함께 저장한다. 이러한 작업은 정제된 데이터의 신뢰도가 높다는 가정 하에 어렵지 않은 데이터 처리 기술로 수행이 가능하다. 서비스 관리 시스템은 저장된 학술 데이터들을 기반으로 사용자에게 서비스를 제공하기 위한 정보를 생성하는 역할을 담당한다. 학술 데이터베이스에 저장된 데이터들은 물리적으로 정제되기는 했지만 그 자체에 의미정보가 내포되어있다고 보기는 어렵다. 그러므로 사용자가 원하는 고급의 서비스를 제공해주기 위해서는 의미 정보를 반영한 데이터를 생성해야만 가능하다. 이를 위해 사용하는 정보 기술들 가운데 하나가 바로 데이터마이닝 기법이다.

    특정 기관들 사이의 연구 활동 연계 지수를 제공하는 서비스를 이용하여 데이터마이닝 기법을 활용하여 의미 정보를 반영한 서비스의 예를 들 수 있다. 사용자가 특정 기관들 사이의 연구 활동 연계 지수에 대한 서비스를 요청하면 서비스를 제공하기 위한 시스템은 먼저 학술 데이터베이스에 저장된 기관들의 정보와 이와 연관된 정보들을 얻을 것이다. 그러나 이렇게 추출된 데이터들만으로는 기관들의 연구 활동 연계 지수를 바로 알기는 어렵다. 즉, 전처리 과정이 필요하다. 전처리 과정에서 수행되는 작업 가운데 하나는 추가적인 정보들을 획득하는 것이다. 예를 들면, 기관들 사이의 연구 연계 지수를 얻기 위해서 기관들 사이의 지리적인 위치 정보나 규모 등을 전처리 과정에서 얻는 것이다. 즉, 지리적으로 근접하거나 유사한 규모의 연구기관들 사이에 연구 연계 지수가 높으므로 결국은 해당 연구기관들 사이의 연구 연계 지수를 얻기 위한 추가적인 정보로 활용될 수 있을 것이다. 또한 전처리 과정에서는 데이터의 정제와 같은 작업도 수행한다. 예를 들면, 기관의 명칭을 “한국과학기술정보연구원”이라고도 표현하거나 “KISTI”라고 기술하는 것이 일반적이다. 그러나 경우에 따라서 동일한 기관의 표현이 “한국과학기술정보연구원(KISTI)” 혹은 “KISTI: 한국과학기술정보연구원”이라고 표기되어 있는 경우도 존재하며 “과학기술 정보연구원”, “한국 과학 기술 정보연구원” 등을 비롯해 오타가 포함된 표기까지 다양한 형태로 기술되어 있는 것이 현실이다. 그러므로 데이터의 전처리 작업이 필요하며 이전처리 기술들은 매우 다양하다. 예를 들면 학술 데이터 저자의 이름을 보고 저자가 소속된 기관을 유추하거나 혹은 저자의 이메일 주소를 참조하여 저자의 소속을 유추하고 이를 기관의 명칭을 찾는데 활용할 수 있다. 물론 이러한 정보들을 반영한다 해서 완벽하게 기관 명칭을 알아낸다고 볼 수는 없다. 그러나 신뢰도를 높이기 위해서 충분히 활용 가능한 방법이며 이미 많은 연구들에 의해서 입증된 결과들이 존재한다. 이러한 전처리 작업들을 수행하는 것 역시 데이터마이닝 기법의 일부로 볼 수 있으며 규칙기반 분류 기법 등을 이용하여 이를 구체화할 수 있다. 또한 전처리 작업은 그 결과만으로도 의미가 있으며 다른 응용이나 서비스 제공을 위해서 활용이 가능한 정보이다. 추가적인 정보 획득과 데이터 일원화 같은 전처리 과정이 끝나면 비로소 기관들 사이의 연구 활동 연계 지수를 추론할 수 있는 배경 정보가 완성된 것으로 볼 수 있다. 서비스의 다음단계는 데이터마이닝 기법을 적용하여 사용자에게 제공할 의미 있는 정보를 추출해 내는 것이다. 예를 들면 각 기관들 사이의 연구 활동 연계 지수에 영향을 미치는 특징들이 무엇인지 그리고 각 특징들이 지수를 추정하기 위해서 얼마나 가중치를 가지고 있는지 등을 기반으로 각 기관들을 분류할 수 있으며 기관들 사이의 연관을 분석할 수 있다. 각 기관들 사이의 연구 활동 연계 지수 추정 서비스의 경우, 공동 저자들의 소속 분포, 참고문헌들의 정보 등을 통하여 이를 추정할 수 있을 것이다.

    기관들 사이의 연구 활동 연계 지수 서비스의 예와 같이 학술인용색인데이터를 기반으로 데이터마이닝 기술을 적용하여 사용자에게 제공할 수 있는 서비스들은 무궁무진하다. 그러나 아직까지 이러한 서비스를 구체화하여 서비스하는 기관들은 많지 않으며 일부 상용 업체나 데이터를 관리하는 기관에서 직접 연구 중에 있다. 그러므로 사용자가 어떠한 요구사항을 가지고 있는지, 어떠한 환경에 있는지 등을 고려한다면 학술인용색인데이터를 기반으로 데이터마이닝 기술을 적용하여 다양한 서비스를 제공할 수 있을 것으로 사료된다. 본 논문의 목적은 데이터마이닝 기법을 활용하여 학술인용색인데이터를 기반으로 사용자에게 서비스 할 수 있는 분야들을 파악하고 현재 국내외의 연구 동향을 파악하는 것이다. 또한 더 나아가 국내학술인용색인데이터를 활용할 수 있는 방안에 대해서 논의한다.

    2. 학술인용색인데이터 기반 서비스를 위한 연구 사례

    학술인용색인데이터를 기반으로 제공할 수 있는 서비스들은 무궁무진하다. 그러므로 몇몇 연구에서는 학술 데이터를 기반으로 사용자에게 어떻게 서비스를 할 것인가에 대하여 연구하고 있다. 특별히 최상희(2010)는 학술 데이터 기반 서비스를 학술 데이터 구성 요소 별 제공 및 멀티미디어 제공, 부가정보 검색, 개방형 학술정보 공유서비스, 그리고 모바일 서비스로 구분하여 향후 학술 데이터 기반 서비스의 방향을 4가지 영역으로 제시하고 있다. 그러나 이러한 서비스들을 구체화하기 위해서는 기술적으로 해결해야 할 문제들이 존재한다. 그 가운데 하나의 기술이 데이터마이닝 기법이며 몇몇 연구들은 이미 사용자의 만족도가 높은 서비스를 제공하기 위한 기반 기술로 사용되고 있는 실정이다. 본 논문에서는 학술인용색인데이터 기반 서비스를 위한 서비스 영역을 저자 식별, 공동 저자 관계, 특징 추출(메타데이터 추출), 인용 관계, 추론을 통한 의미 정보 획득, 학술데이터 평가, 시각화의 7가지로 정의하고 각 서비스를 위한 기존 연구들을 살펴보고 해당 영역에서 KSCD를 활용하여 서비스 할 수 있는 방향에 대하여 논의한다.

       2.1 저자 식별

    학술 데이터를 저술한 저자들은 다양한 표현으로 기술되어 있으며 때로는 부정확하게 기술된 경우도 존재한다. 그러므로 다양한 표현으로 기술된 저자들을 올바르게 식별하고 분류해야만 학술 데이터의 저자를 인지하고 이를 기반으로 다양한 지식 정보들을 발견할 수 있다. 더욱이 저자의 경우 동명이인이 존재하므로 저자식별의 문제를 더욱 어렵게 만든다. 물론 저자 식별의 문제가 비단 학술 데이터의 문제만은 아닐 것이다. 그러나 이 분야 역시 저자 식별 문제는 반드시 해결해야 할 문제이며 현재 많은 연구 중에 있다. 강인수(2011)에서는 서로 다른 두 연구가 이후 새로운 연구에 동시에 인용되는 동시 인용을 기반 데이터로 하여 데이터마이닝의 군집 분석 기법을 활용하여 저자 식별에 활용하는 방법을 제안하고 있다. 즉 <그림 2>와 같이 두 동명 저자명 개체 “홍길동 1”, “홍길동2”가 각각 작성한 두 논문 P1, P2에 대하여 P1, P2가 각각 이용하는 논문 P3과 P1, P2를 동시에 인용하는 두 논문 P0가 존재하는 상황을 이용하여 저자를 식별하기 위한 방법을 제안하고 있다.

    강인수(2009.11)는 저자 식별을 위한 대용량의 평가 셋을 구축하여 기존에 제안된 저자 식별 알고리즘들의 수행 결과를 정성적으로 평가할 수 있도록 하였으므로 저자 식별을 위한 다양한 알고리즘의 적용 및 검증을 위해 활용이 가능 할 것이다. 또한 강인수(2009.11)는 국내 저자를 위한 평가 셋이므로 국내 저자의 특수성을 고려한 방법을 평가하기 위해서 역시 활용 가능할 것이다. 강인수(2008.6), 강인수(2008.9), 강인수(2009.6) 역시 전자 메일이나 군집 분석 기술, 기계 학습법 등을 이용하여 저자 식별을 연구하고 있으나 아직까지는 어떤 방법이 가장 우수하다는 결론은 없는 상태이다. 앞선 연구들은 모두 국내 저자를 식별하기 위한 연구들이다. 물론 저자 식별을 위한 문제는 국내 저자나 해외 저자 모두 유사한 문제이다. 그러나 국내 저자는 한글과 영어를 병행해서 사용하거나 한글만을 사용하기 때문에 국외의 우수한 저자 식별 알고리즘들을 직접 적용하기에는 어려움이 따른다. KSCD에 저장된 데이터들 역시 국내 데이터들이므로 저자들 대부분이 국내 저자들이다. 그러므로 이러한 앞선 방법들을 고려해 저자를 식별한다면 완전하지는 못하더라도 저자 식별의 전처리 결과로 활용할 수 있을 것으로 사료된다.

       2.2 공동 저자 관계

    학술 데이터들은 상호간에 다양한 연관 관계를 갖는다. 그 가운데 학술 데이터들 사이의 연관 관계를 가장 확실하고 강하게 표현한 한 가지가 바로 저자들 사이의 관계이다. 그 가운데 공동 저자 관계는 학술 데이터들로부터 다양한 정보를 추론할 수 있도록 하는 정보이며 데이터마이닝기법을 통하여 이러한 지식을 도출해낼 수 있다. Zdenek(2011)은 학술 데이터들 사이의 주제와 연관 관계를 기반으로 공동 저자 관계를 분석하고 시각화(Visualization)하기 위한 온라인 분석 도구인 Forcoa.NET을 개발하여 DBLP의 데이터들 가운데 컴퓨터 과학 분야를 견본 데이터로 저자 네트워크를 구성하여 사용자가 저자들 사이의 연관 관계를 쉽게 파악할 수 있는 방법을 제안하고 있다. Wen-Yau(2012) 역시 데이터마이닝 기법을 이용하여 공동 저자 관계로부터 지식을 탐색하기 위한 방법으로, 논문의 공동 저자와 자기인용(Self-Citation)사이의 관계를 분석하여 공동 저자의 수가 많은 논문이 자기 참조 비율이 높으며 대부분의 자기 참조 연구들은 다른 연구들 보다 최근 출한판 연구 결과인 경우가 많다는 등의 연구 결과를 보이고 있다. 이러한 연구 결과는 학술 데이터로부터 데이터마이닝 기술을 통하여 새로운 지식을 얻을 수 있는 대표적인 예로 볼 수 있다. Kwon(2012)은 공동연구자들 사이의 소속 정보로부터 대학, 정부, 산업체 연구자들 사이에 상호 연관 관계의 구조적인 패턴을 찾아내고, 찾아낸 관계로부터 각 조직들 사이의 관계와 정부 정책이 연구 개발에 미치는 영향들을 분석하고 있다. 이러한 연구의 결과는 데이터마이닝 기법을 통해 획득한 새로운 지식을 기반으로 추가적인 정보를 반영하여 또 다른 지식을 획득하는 좋은 예로 보인다. Jiejia(2010)은 공동 저자들이 각자 출판한 연구 데이터들로부터 키워드 벡터를 생성하여 공동 저자들 사이의 연구 관심 분야를 추출하고 각 공동 저자들 사이의 연구 관심 분야들 사이의 관계를 밝히고 있다. 이와 같이 공동 저자라는 하나의 연관 관계만으로 무수히 다양한 지식을 얻을 수 있으며 추가적인 정보를 더한다면 학술 데이터 정보로부터 학술 분야 이외에 다양한 분야의 지식을 추출할 수도 있을 것이다. 특별히 저자들 사이의 연관 관계는 학술 데이터에서 핵심이 되는 정보로 현재 이 정보를 기반으로 다양한 지식을 탐색하기 위한 노력이 다양하지만 향후 더욱 활발하게 연구될 것으로 예측된다. KSCD의 경우, 다양한 분야의 학술 데이터를 대량으로 보유하고 있으므로 이를 활용한다면 우리나라 연구자들의 연구 방향이나 특성 그리고 대한민국의 정부 정책 등과 같은 다양한 지식 정보들을 추출해낼 수 있을 것으로 기대된다.

       2.3 특징 추출(Feature Extraction) (메타데이터 추출)

    정확하고 다양한 데이터마이닝 결과를 얻기위해서는 전처리 과정이 필수적이며 특징 추출은 전처리 과정 가운데에서도 매우 중요한 단계이다. 또한 특징 추출은 그 결과만으로도 의미 있는 정보이므로 이를 위한 다양한 연구들이 존재한다. 앞선 대부분의 연구들은 다양한 종류의 학술 데이터들로부터 학술 정보의 특징(메타데이터)을 추출하기 위한 다양한 알고리즘을 제안하고 있다. 그러나 그 정확도와 신뢰도가 아직까지는 실제 응용에서 직접 활용이 가능할 만큼 완전하지 않은 것이 현실이다. 물론 특정 응용에서는 완전하지는 않지만 자동으로 추출된 특징 정보들만으로 매우 유용한 결과를 생성할 수도 있을 것이며, 또 다른 응용에서는 일부 결과만을 자동으로 추출하고 추가적인 부분들은 사람이 수작업으로 추출하거나 입력할 수도 있다. 그러나 현실적으로 대부분의 응용에서 특징 추출 기법을 도입하여 실제 시스템에 적용하기에는 아직까지 그 결과가 완전하지 못하므로 좀 더 신뢰할 수 있는 결과를 얻기 위한 연구 단계에 있다. 이러한 전처리 과정은 마이닝을 위한 데이터의 특성에 의존적이기도 하지만, 어떤 서비스를 제공할 것인지에 의존적이다. 즉, 특징을 추출하기 위해서 서비스가 보다 명확하게 정의되어야 한다.

    Bolanle(2011)에서 제안하고 있는 <그림 3>은 학술 데이터의 인용 관계로부터 메타데이터를 추출하기 위한 trigram hidden Markov

    Model의 처리 흐름을 보인다. 그림에서 알 수 있듯이 메타데이터를 추출하기 위해서는 크게 두 가지 단계를 수행한다. 첫 번째 단계는 학습단계(Training Phase)로 데이터마이닝 이전에 데이터를 정제하고 패턴을 추출하는 단계이며, 두 번째 “Viterbi Algorithm”단계는 연구에서 제안한 새로운 비터비 알고리즘을 적용하여 특징들 사이의 연관 관계를 얻어내는 단계이다. 물론 논문에서는 메타데이터 추출을 위한 효과적인 알고리즘을 제안하는 것이 주 목적이지만 <그림 3>과 같은 처리 흐름은 메타데이터 추출을 위해 가장 일반적인 처리흐름이다. Eli(2009) 역시 이러한 처리 흐름을 기반으로 특징을 추출하고 트레이닝을 통해 상황이 반영된 특징(메타데이터)을 추출하기 위한 방법을 제안하고 있다. 그러나 이러한 접근 방법들은 다른 관련 연구들과 크게 다르지 않다. 다만 메타데이터 추출을 위해 사용되는 알고리즘들과 기술적인 접근 방법들이 조금씩 다를 뿐이다. KSCD의 경우 보유하고 있는 데이터의 질과 양이 매우 풍부하다. 이와 같은 데이터의 특성은 반대로 추출할 수 있는 특징이 매우 다양하다는 것을 의미한다. 그러므로 KSCD를 기반으로 제공하고자 하는 응용의 서비스만 명확하게 정의된다면, KSCD가 보유한 데이터만으로도 다양한 특성을 추출할 수 있으므로 보다 정확한 데이터마이닝 결과를 추출할 수 있을 것이며 이를 기반으로 해당 응용 서비스를 제공할 수 있을 것이다.

       2.4 인용 관계

    학술 데이터들 사이의 연관 관계를 추출하기 위해서 저자들 사이의 관계만큼 중요한 연관 관계가 바로 데이터들 사이의 인용 관계

    (Citation)이다. 앞서 언급한 것처럼 인용 관계를 기반으로 지식을 탐색하기 위해서는 먼저 인용 관계를 오류 없이 추출해야 하며 가능하면 이를 사람의 개입 없이 자동으로 추출하기를 원한다. Ying(1999)은 <그림 4>와 같은 토큰들을 사용하여 학술 데이터로부터 인용 정보를 자동으로 추출하기 위한 데이터마이닝 기법을 소개하고 있다. 토큰들은 시스템이 자동으로 인용 관계를 추출하기 위해 참조하는 기본 지식(규칙)으로 활용된다. 그러므로 토큰을 어떻게 정의하는지에 따라 그 결과가 다르게 나타난다. 현재까지도 이러한 토큰들을 활용하여 자동으로 인용 관계를 추출하기 위한 방법들이 많이 연구되고 있다.

    Muhammad(2010)은 TIERL(Template based Information Extraction using Rule based Learning)을 제안하여 학술 데이터에 기술된 인용 관계를 추출하고 해당 학술 데이터 원문을 실제로 얻을 수 있는 웹사이트를 자동으로 찾아주기 위한 방법을 제안하고 있다. 이를 위하여 규칙을 기반으로 학술 데이터를 발표한 사이트나 사용자의 홈페이지 등을 자동으로 검색하고 실제 학술데이터가 링크되어있는 위치를 탐색한다. 현재 KISTI를 비롯한 대부분의 국내 학술 정보 서비스를 제공하는 업체 대부분은 국내 학술 데이터의 원문을 모두 저장하여 서비스하고 있으므로 해당 직접 기술을 적용할 필요는 없으나, 해외 논문이나 표준 등과 같은 참고 자료 등을 찾기 위한 응용으로 참고 가능할 것이다. Shuming(2009)은 사용자가 질의한 결과의 질을 높이기 위한 방법으로 검색 엔진이 스스로 인용 관계를 활용하는 방법을 제안한다. 좀 더 구체적으로는 정보의 검색 시, 인용 관계를 분석하여 해당 학술 데이터 범주의 핵심 단어(Anchor Text)를 추출하고 이를 검색을 위한 추가 키워드로 활용하여 점차 연관 키워드를 확장하여 풍부한 검색 결과를 얻는 방법이다. 물론 기술적으로는 이러한 접근 방법을 구현하기 위하여 데이터마이닝 기법이 활용될 수도 있다. 이러한 핵심 단어 활용의 개념은 학술 데이터의 의미적인 분류 및 해당 분야의 핵심 학술 데이터를 제공하기 위한 서비스를 위해서 활용될 수 있을 것으로 보인다. Afzal(2009)은 데이터마이닝 기법을 통하여 인용 관계를 분석하고 이를 기반으로 지속적으로 생성되는 학술 데이터에 영향을 미치는 핵심 참조, 저자, 그리고 논문 등의 정보를 찾는 방법을 제안하고 있다. 또한 이렇게 추출된 정보를 통하여 “해마다 높은 인용 비율을 갖는 학술 데이터는 세월이 흘러도 여전히 지속적이고 안정적인 영향력을 갖는다.”는 등의 새로운 지식을 탐색해내고 있다. 이러한 연구 방향은 향후 학술인용색인 데이터를 기반으로 의미 있는 정보를 추출해내기 위해 참조 가능한 연구이며, KSCD의 데이터와 같이 현재 국내에서 보유하고 있는 학술 데이터만으로도 충분히 좋은 결과를 도출해낼 수 있을 것이다. 그 예로 Kim(2011)는 KSCD를 이용하여 국내 과학 기술자들이 해외 학술지를 어떻게 얼마나 인용하는 지등의 인용 형태를 분석하여 해외 전자저널 구독 전략 수립 등에 도움을 줄 수 있는 방안을 제안하고 있다.

       2.5 추론을 통한 의미 정보 획득

    학술 인용색인데이터를 기반으로 데이터마이닝을 수행하는 가장 큰 목적가운데 하나는 데이터를 기반으로 지식을 추출하고 이를 서비스에 활용하기 위함이다. 그러므로 이를 위한 다양한 연구들이 존재한다. 이정연(2007)은 학술 데이터로부터 연구자 네트워크를 구성하고 이를 기반으로 특정 연구자가 연구를 제안했을 경우 해당 연구의 타당성 등을 평가하기 위한 심사자를 추천해주기 위한 방법을 제안하고 있다. 이는 데이터마이닝의 군집 분석과 연관 분석 기법을 통하여 관련 분야를 군집화하고 연관 관계를 분석한 후 해당 그룹에서 배제할 심사자를 가지치기 해나가는 방법을 통해 심사자를 추천하는 방법을 사용한다. 해당 연구에서는 그 목적을 위하여 자연스럽게 그룹 구성이나 동명 이인의 문제와 같은 인용색인 데이터 처리를 위한 이슈들까지도 도출해 내고 있다. 이러한 연구 주제는 학술 데이터를 활용한 응용 서비스 분야에서 직접 활용하거나 새로운 서비스 생성을 위해서 활용 가능할 것으로 사료된다. 또한 위 연구에서는 새로운 지식을 도출해내기 위해서 온톨로지를 이용하고 있으므로 이를 활용하여 향후 다양한 지식의 표현이 가능하다는 것을 직접적으로 보이는 결과로 볼 수 있다. Erjia(2012)는 학술 데이터들 사이의 연관 관계를 분석하기 위해서 학술 데이터의 저자 연관 관계와 키워드 연관 관계를 추출하여 이를 기준으로 연구자들의 연구 공통성(Research Community)이 어떻게 형성되는 지와 각 커뮤니티 사이에 연구 토픽이 무엇인지를 추론하고 이를 기반으로 서비스를 제공하기 위한 방법을 제안하고 있다. 그러나 연구에서 제안하는 방법은 그 성능을 평가하고 결과를 검증하기 위해서 일부 제한된 학술 데이터만을 사용하고 있다. 그러므로 그 결과를 충분히 검증했다고 보기 어려우며 또한 다양한 데이터들을 반영했을 경우 새로운 문제점을 발견하고 해결책을 모색할 수도 있을 것이다.

    그러므로 KSCD에 저장된 국내의 학술인용색인데이터를 기반으로 이러한 방법들을 적용하여 평가한다면 그 유효성과 성능을 실제 데이터를 대상으로 평가하고 검증할 수 있으므로 매우 유용할 것이다. 또한 이러한 환경에서 지식 추론을 이용한 다양한 서비스 방법을 모색한다면 충분히 사용자들에게 만족할만한 서비스를 도출해 낼 수 있을 것으로 판단된다. Michael(2012)는 학술 데이터들의 특성을 분석하여 특정 도메인에 적합한 서비스가 무엇인지 찾고 이를 기반으로 서비스를 제공하기 위한 방법을 제안하고 있다. 예를 들면 컴퓨터 과학 분야는 다른 분야와는 달리 연구의 결과가 빠르게 출판되어야 하므로 학술대회나 워크샵 학술 데이터의 중요도가 다른 분야에 비해서 매우 높게 나타나는 것을 알 수 있다. 그러므로 학술대회에서 발표된 학술 데이터와 논문지에 출판된 학술 데이터들 사이의 연관성을 저자와 인용관계로부터 추론하고 각 특성을 분석하여 고객이 학술 데이터 검색을 요청했을 경우 이를 반영하여 결과를 생성한다. 물론 이러한 지식을 획득하기 위해서 필요한 기술들 가운데 하나는 바로 데이터마이닝이다. 그러나 앞선 연구들과 마찬가지로 Michael(2012)의 연구 역시 다양한 견본 데이터와 도메인을 기반으로 연구를 수행했으므로 국내 학술인용색인데이터베이스를 기반으로 이러한 연구를 수행한다면 다양한 연구 분야의 특성들을 획득할 수 있고 거기에 맞춤형 서비스를 제공할 수 있을 것으로 기대된다. 순수하게 데이터마이닝 기법만을 적용하여 지능형 서비스와 같은 높은 수준의 서비스를 제공하는 것은 매우 제한적일 뿐만 아니라 사용자가 그 결과를 활용하는 것 또한 한계가 있다. 그러므로 데이터마이닝의 결과를 기반으로 다양한 추론 기법 등을 접목한다면 위 연구들과 같이 사용자에게 좀 더 고급의 서비스를 제공해 줄 수 있을 것이다. 특별히 KSCD는 국내에서 출판된 다양한 학술인용색인 데이터를 유지관리하고 있으므로 이를 기반으로 데이터마이닝을 수행하고 의미정보를 추출한다면 보다 다양한 서비스들을 도출해낼 수 있을 것이다.

       2.6 학술 데이터 평가

    학술 데이터의 범위는 광범위하고 그 양 또한 막대하다. 학술지 데이터는 학술 데이터의 일부로 많은 경우 공공의 목적으로 공유하고 있다. 그러므로 학술지 데이터를 평가하는 방법은 결국 학술 데이터를 평가하는 방법의 부분이라 할 수 있으며 그 결과는 직결된다고 볼 수 있다. 학술지 데이터를 평가하기 위한 방법은 다양하다. 현재 국내외에서 학술지 데이터를 평가하기 위한 가장 대표적인 방법은 톰슨 로이터의 학술지 데이터 인용 지수(Impact Factor)이다. 그러나 이것이 학술지의 데이터를 평가하기 위해서 정량적으로나 정성적으로 완전하다고 보기에는 어려운 것이 현실이다. Tingcan(2012)은 톰슨 로이터의 학술지 데이터 인용 지수를 기반으로 학술지를 평가하는 문제점에 대해서 논의하고 있으며, 이를 보완하기 위해서 학술지 데이터 통합 인용지수(Journal’s Integrated Impact Index: JIII)를 제안하고 있다. 학술지 데이터통합 인용지수는 학술지 데이터마다 한 학술지의 평균 인용 횟수와 총 인용(Total Citation) 횟수 그리고 학술지데이터 당 모든 학술지의 평균 인용과 총 인용을 기반으로 한다. 이러한 방법은 인용 지수(Impact Factor)가 높지 않지만 좋은 통합 인용 지수(Integrated Impact)를 갖는 학술지 데이터를 찾기 쉽게 도와주며, 비교 학술지 데이터들로부터 특정 학술지 데이터의 상대적인 위치를 측정할 수 있는 방법을 제공한다. Alfonso(2011) 역시 학술지 데이터들 사이의 인용 관계, 인용 지수, H-Index 등 14가지의 다양한 학술지 통계(bibliometric) 인덱스들 사이의 연관 관계를 찾고 정의하기 위해서 데이터마이닝 기법들 가운데 하나인 Bayesian 방법을 활용하는 연구를 기술하고 있다. 이러한 연구의 결과는 특정 학술지 데이터를 인덱싱하기 위한 방법을 찾기 위해서 유용하게 활용될 수 있을 것이다. 또한 해당 연구는 현재 각 분야에서 유용하게 활용되는 14가지의 인덱스들을 그 대상으로 하고 있으므로 학술지 데이터를 위한 인덱싱 방법들의 특성을 알기 위해서 활용할 수도 있을 것으로 사료된다. 그러나 이러한 연구의 결과들이 우리나라 학술지 데이터에 적용했을 경우 국외의 사례처럼 효과적일 수 있을지는 의문이다. 예를 들면 KSCD가 보유하고 있는 우리나라 학술 데이터의 경우 약 700여종이며, 이들 가운데 SCI저널의 비율은 미국이나 영국 등 선진국의 비율과 현격한 차이를 보인다. 그러나 톰슨사의 인용지수나 앞선 외국의 연구 사례들이 우리나라 학술 데이터의 이러한 특성을 고려했다고 볼 수는 없으므로 이를 완전하게 신뢰하기는 어렵다. 그러므로 이러한 방법들을 참조하여 우리나라의 학술 데이터 특성을 반영한다면 국내 저널을 위한 데이터 평가 기준을 마련할 수 있으며 이를 기반으로 다양한 서비스를 제공할 수 있을 것이다. 남수현(2005)은 톰슨사의 인용지수가 양적인 평가 기준이라고 보고 이를 보완하기 위한 방법을 모색하고 있는 국내 연구이다. 그러나 이들 연구 역시 아직까지는 초기 단계에 있으며 실제 풍부한 국내 학술인용색인데이터를 반영한 연구결과를 도출해내지는 못한 실정이다. 그러므로 이러한 국내 연구자들을 중심으로 KSCD의 데이터를 평가하기 위한 기준을 마련하는 것이 향후 사용자에게 고품질의 다양한 서비스를 제공하기 위해서 매우 중요할 것이다.

       2.7 시각화

    다양하고 대용량으로 존재하는 학술 데이터들 사이의 물리적, 논리적 연관 관계를 사용자에게 어떻게 효과적으로 보여줄 것인지는 학술 데이터기반 서비스의 중요한 이슈이며 다양한 연구들이 존재한다. 물론 이러한 연구들이 데이터마이닝 기술과 직접적으로 연관되지 않을 수도 있다. 그러나 데이터마이닝의 결과를 사용자에게 효과적으로 전달하기 위해서 시각화는 반드시 필요한 연구이며 대부분의 데이터마이닝 도구들은 시각화 기능을 포함하고 있다. 마이닝 결과를 사용자에게 보여주기 위해서는 많은 어려움이 따른다. 예를 들면, 응용의 특성이 무엇인지, 사용자가 얻고자 하는 결과가 무엇이며 그와 연관되는 어떠한 정보를 어떻게 시각화 할 것인지 등을 고려해야만 사용자가 마이닝에 의해서 얻은 지식을 손쉽게 이해하며 활용할 수 있다. 그러므로 아직까지 이러한 연구는 계속 진행 중이며 향후에도 역시 계속 진행될 것이다.

    Jian(2010)은 학술 데이터들 사이의 연관 관계를 시각화하기 위한 도구인 FP-tree Visualizations 제안하고 있다. 이러한 기술은 KSCD에 저장된 학술 데이터들을 시각화하기 위해서 효과적으로 활용될 수 있을 것이다. 물론 연구에서 소개하고 있는 시각화 도구가 대용량의 한글 데이터를 직접 적용하였을 경우 한글 분석의 문제나 전처리 문제 등으로 만족할만한 결과를 얻지 못할 수도 있다, 그러나 이를 직접 이용하지 못한다 하더라도 향후 KSCD의 데이터를 시각화하기 위한 참고자료로 충분히 활용할 수 있을 것이다. Ying(2012)은 특별히 학술 데이터의 키워드로부터 상호 연관 관계를 분석하기 위해서 이미 제안된 많은 시각화 방법들을 개략적으로 소개하고 있으며, 이들 가운데 세가지 대표적인 시각화 방법을 선택하여 각 시각화 방법의 장점을 통합하여 하나의 시각화된 결과로 보이기 위한 방법을 제안하고 있다. 물론 이러한 방법들이 항상 어느 상황에서나 가장 좋은 시각화 방법일 수는 없다. 특별히 시각화는 응용이나 사용자의 특성 등에 따라 다양하게 요구되므로 사용자에게 어떠한 정보를 제공할 것인지, 사용자가 학술인용색인 데이터로부터 어떠한 정보를 얻고자 하는지 등의 선행 연구가 필요하며 이러한 요구사항을 충분히 반영하여 KSCD 데이터에 특화된 시각화 방법을 개발해야 할 것이다.

    3. 국내 학술인용색인 데이터활용 방안

    데이터마이닝을 이용하여 국내 학술인용색인데이터베이스(KSCD)를 활용하기 위한 방향에 대해서는 이미 앞선 장에서 각 서비스들을 소개하면서 간단히 제시한 바 있다. 물론 앞서 기술한 서비스 이외에도 무수히 많은 서비스들을 KSCD를 기반으로 제공할 수 있으며 이를 위해서 데이터마이닝 기술이 활용될 수 있을 것이다. 그러나 중요한 것은 데이터마이닝은 학술인용색인데이터 기반 서비스를 위해서 사용하는 한 가지 기술일 뿐이다. 즉, KSCD

    를 활용하기 위해서 중요한 것은 어떤 서비스를 사용자에게 제공할 것인지를 결정하는 것이고, 그 이후에 데이터마이닝의 다양한 기법들을 선택적으로 적용할 방안을 찾는 것이다. 특별히 오늘날 데이터를 기반으로 사용자들에게 제공할 수 있는 서비스는 <그림 5>와 같은 흐름으로 변해가는 추세이다. 즉, 색인 등을 이용하여 키워드 기반의 검색 서비스로부터 위치기반 서비스(LBS: Location Based Service)와 같은 정보 통합 서비스, 그리고 분석, 탐지, 모니터링과 같은 기술들을 기반으로 지식화된 서비스로 변해가며, 결국은 예측과 추론 기술들을 활용한 지능화된 서비스를 사용자에게 제공해주는 것이 현재 정보 기반 서비스의 궁극적인 목적일 것이다. 이를 위하여 핵심이 되는 기술들 가운데 하나가 데이터마이닝 기술이며, 데이터마이닝은 그 결과가 이미 지식화 서비스를 제공할 수 있는 정보이며 지능화 서비스를 위한 기반 정보이다.

    앞에서도 언급한 바 있듯이 데이터마이닝 기술을 실제 서비스에 적용하기 위해서는 전처리 작업,데이터마이닝 작업 그리고 후처리 작업의 세 가지 작업이 효과적으로 수행되어야 한다. 앞선 장에서 기술한 서비스 연구 사례 분석에서 역시 위 세 가지 작업들 모두 다루는 연구사례도 있지만 하나 또는 두 가지 작업만 다루는 연구들도 존재한다. 예를 들면 특징 추출은 전처리 작업에 속한다. 특징 추출은 학술데이터를 마이닝하기 위해서 어떤 특징을 어떻게 추출할 것인지를 결정하는 것이다. 그러나 특징 추출의 결과는 학술 데이터들의 마이닝 결과를 결정하고 마이닝의 수행 성능을 결정하는 중요한 역할을 한다. 이렇듯 전처리 작업은 데이터마이닝을 위해서 매우 중요하며 유기적으로 강하게 연결된 작업이다. 또한 Tomas(2010), Jakob(2007)과 같이 전처리 만을 효과적으로 수행하기 위한 방법을 모색하는 연구도 존재한다. 후처리 작업 또한 전처리 작업과 함께 효과적으로 데이터마이닝 결과를 서비스하기 위해서 반드시 필요하다. 대부분 후처리 작업은 마이닝 결과를 정제하고 다음 단계 사용을 위해 결과를 최적화하는 작업으로 앞서 언급한 시각화(Visualization)도 이 과정에 속한다. 특별히 시각화는 학술 데이터 분야뿐만 아니라 다양한 응용 분야에서 정보를 표현하기 위해서 많이 활용되고 있으며, 데이터마이닝 분야서는 그 결과를 효과적으로 사용자에게 제공하기 위해서 활용된다. 시각화는 마이닝 결과를 어떻게 사용자에게 효과적으로 전달하느냐에 가장 큰 목적이 있다. 그러므로 응용의 특성이나 사용자가 요구하는 요구사항을 충분히 고려해야 하며, 동일한 결과라도 어떻게 시각화하느냐에 따라 사용자의 만족도나 응용들의 활용도가 전혀 다르게 나타날 수도 있다. 특별히 학술 데이터는 그 양이 대용량이며 종류 또한 매우 다양하다. 그러므로 이러한 데이터를 마이닝 하는 것도 매우 어려운 일이지만 그 결과를 어떻게 사용자에게 전달할 것인가 또한 매우 중요한 일일 것이다. 데이터마이닝을 통해서 아무리 유용한 지식을 탐색했다 할지라도 이를 사용자에게 효과적으로 전달하지 못한다면 마이닝의 결과는 제대로 활용되지 못할 것이다. 특별히 대용량의 KSCD 데이터 역시 사용자에게 유용한 서비스를 제공하기 위해서는 시각화를 포함한 효과적인 데이터마이닝 후처리 작업을 모색해야 할 것이다.

    학술 데이터를 기반으로 사용자에게 응용서비스를 제공하기 위해서는 <그림 6>과 같이 “정보 수집”, “정보 처리”, “정보 서비스”의 세 단계의 작업을 수행해야 한다. 첫 번째 단계는 전제되지 않은 학술 데이터로부터 색인 데이터와 같이 정제된 데이터들을 추출하고 이를 저장, 관리하는 단계이다. 이 단계에서는 풍부하고 다양한 데이터의 확보와 올바른 데이터 추출 및 정제가 필요하다. 또한 효과적으로 대량의 이종 데이터들을 저장하기 위한 방법과 갱신 및 검색하기 위한 방법들 역시 반드시 필요하다. 두 번째 단계는 KSCD를 기반으로 의미있는 정보를 자동으로 추출하는 단계이다. 이 단계에서는 앞서 설명한 전처리 기술과 본 연구에서 다루고 있는 데이터마이닝 기술이 활용

    된다. 즉, 전 처리 작업을 통해 KSCD로부터 의미 정보를 추출하기 위한 학술 데이터들의 특징을 추출하고 정제하는 작업을 수행한다. 이때 어떤 마이닝 기법을 사용할 것이며 마이닝을 통해 궁극적으로 어떤 의미 있는 정보를 추출할 것인지에 따라 각 학술 데이터들의 추가적인 특징들을 다른 저장소로부터 획득하거나 KSCD로부터 특징을 추출하기 위해서 필요한 정보들을 다른 저장소를 통해 얻을 수 있다. 이렇게 추출된 학술 데이터의 특징들은 데이터마이닝을 통하여 학술 데이터들 사이의 군집이나 분류, 연관 관계, 패턴 등의 의미 정보를 추출하기 위해서 사용된다. 데이터마이닝을 통해 얻어진 결과는 사용자에게 서비스를 제공하기 위한 다양한 응용에서 활용된다. 즉, 어떤 응용에서는 마이닝의 결과를 그대로 사용자에게 서비스하는 경우도 있을 것이며, 어떤 응용에서는 이를 기반으로 추가적인 정보들과 함께 새로운 정보를 생성하고 이를 서비스 할 것이다. 두 가지 종류의 서비스 모두 의미 있고 유용한 서비스이지만 후자의 경우 종류가 더욱 다양하고 오늘날 지능형 서비스라는 이름으로 매우 활발하게 연구되고 있는 분야이다. 예를 들면, <그림 6>에 기술된 “연구 방향 설정 제안” 서비스가 학술 데이터를 기반으로 사용자에게 지능형 서비스를 제공하는 예일 것이다.

    <그림 6>을 기반으로 “연구자의 연구 방향 설정 제안” 서비스를 제공하기 위한 단계적 시나리오는 다음과 같다.

    1) 다양한 학술 데이터들을 수집하고 여기에서 저장, 관리하고자 하는 정보들을 추출하고 이를 데이터베이스에 저장하기 위해서 정제

    2) 정제된 학술 인용 색인 데이터를 KSCD에 저장

    3) 연구자의 연구 방향 설정을 제안하기 위해서 어떠한 마이닝 결과를 얻을 것인지 계획하고 이를 위해 필요한 학술 데이터들의 특징을 추출(Ex: 연구자의 이름, 소속, 이메일, 연구자의 학술 데이터 제목, 학술 데이터 출판 시 연구자의 역할, 학술 데이터 출판 일시, 각 학술 데이터의 인용 정보, 학술 데이터의 키워드 등)

    4) 필요에 따라 인터넷과 같은 공개된 공간이나 허락된 정보들 가운데 마이닝을 위해 필요한 특징들을 획득(웹 포털, SNS 등)(Ex: 연구자의 출신학교, 거주 지역, 성별 등)

    5) “연구자의 연구 방향 설정 제안” 서비스를 위해 어떤 마이닝 결과를 얻을 것인지 확정하고 마이닝 알고리즘을 적용하여 서비스를 구성하기 위해서 필요한 다양한 마이닝 결과를 생성(Ex: 연구자의 소속 분류, 연구 분야 분류, 타 연구 분야와의 연관성 분석, 시간에 따른 연구자의 연구 방향 분석, 지역에 따른 연구자의 분포 분석 등)

    6) “연구자의 연구 방향 설정 제안” 서비스를 위해 필요한 추가정보 수집(Ex: 정부 정책, 연구 지원 재도, 유사한 분야 연구자 정보 등)

    7) 지능형 서비스 제공을 위해 필요한 기술을 적용하여 사용자에게 “연구자의 연구 방향 설정 제안” 서비스 제공(Ex: 온톨로지, 사례기반 추론, 규칙기반 추론, 시각화 등)

    시나리오에서처럼 학술 데이터를 기반으로 사용자에게 지능형 서비스를 제공하기 위한 연구는 아직까지 국내외적으로 그리 많지는 않다. 그 이유는 기술적인 어려움도 있겠지만 응용 서비스 연구자들이 검증된 풍부한 학술 데이터들을 쉽게 접하지 못하거나 학술 데이터로부터 의미 정보를 추출하기 어려워서 이기도 하다. 그러나 KSCD는 풍부한 국내 학술 데이터들을 보유하고 있다. KSCD를 유지 관리하는 KISTI나 아니면 어떤 특정 업체에서 단독으로 학술 데이터를 기반으로 제공할 수 있는 모든 서비스를 지원한다는 것은 현실적으로 불가능하다. 그러므로 KISTI는 학술 데이터를 기반으로 제공할 수 있는 서비스들 가운데 <그림 6>과 같이 기반 기술이 되는 서비스들을 위주로 서비스를 제공하고, 나머지 서비스들은 다양한 응용들이 제공할 수 있도록 지원해야 할 것이다. 이를 위하여 필요에 따라 <그림 6>의 정보 수집 단계의 결과인 KSCD를 여러 응용들에게 활용할 수 있도록 하거나, 정보 처리의 단계의 결과인 의미 정보를 응용들에게 제공하고, 응용 서비스 연구자들이 이를 기반으로 다양한 분야에 서비스를 제공하기 위한 연구를 수행한다면 KSCD의 활용도 또한 매우 높아질 것으로 사료된다.

    4. 요약 및 결론

    데이터마이닝은 대량의 데이터를 분석하여 의미 있는 중요한 정보를 얻어내는 기술이다. 그러므로 이를 활용하는 응용분야는 다양하며 대량의 데이터를 보유하고 있는 KSCD를 활용하기 위해서 데이터마이닝 기술을 선택하는 것은 매우 자연스러운 접근 방법이다. 학술 데이터를 기반으로 제공할 수 있는 서비스는 무궁무진하며 데이터마이닝 기법은 그 핵심에 있는 기술들 가운데 하나이다. 아마도 앞서 기술한 많은 관련 연구들이 이를 반증하는 예라 할 수 있다. 그러나 이미 연구된 방법들 가운데 어떠한 방법도 그 방법이 최적의 해결책이라고 보고된바 없으며 그렇기 때문에 많은 연구들이 지금도 진행 중에 있는 것이다. 특별히 KSCD에서 저장하고 있는 데이터는 국내 학술인용색인 데이터이다. 그러나 아직까지 국내 데이터를 기반으로 지식을 추출하거나 서비스를 제공하기 위한 연구들은 그리 많지 않은 상황이고, 국내 연구자들은 국내 학술 데이터를 효과적으로 검색하고 추가적인 서비스를 제공받기를 원하는 것이 현실이다. KSCD에는 이미 다양하고 풍부한 국내 학술인용색인 데이터들이 저장되어 있고 효과적으로 관리되고 있다. 그러므로 이를 기반으로 각 데이터들의 특성을 파악하고 서비스를 위한 특화된 기술을 개발한다면 국내는 물론이고 세계적으로도 학술 데이터 관리 및 서비스 분야를 선도할 수 있을 것이다.

  • 1. 강 인수, 김 평, 이 승우, 정 한민, 류 범종 2009 저자 식별을 위한 대용량 평가셋 구축. [한국콘텐츠학회논문지] Vol.9 P.455-464 google
  • 2. 강 인수 2008 저자식별을 위한 전자메일의 추출 및 활용. [한국콘텐츠학회논문지] Vol.8 P.261-268 google
  • 3. 강 인수 2008 한글 저자명 중의성 해소를 위한 기계학습기법의 적용. [정보관리학회지] Vol.25 P.27-39 google
  • 4. 강 인수 2009 한글 저자명 군집화를 위한 계층적 기법 비교. [정보관리연구] Vol.40 P.95-115 google
  • 5. 강 인수 2011 동시인용정보를 이용한 동명이인 저자의 중의성 해소. [정보관리연구] Vol.42 P.167-186 google
  • 6. 남 수현, 김 홍기 2005 Knowledge Extraction from Academic Journals Using Data Mining Techniques. [디지털정책연구] Vol.3 google
  • 7. 이 정연, 이 재윤, 정 한민, 강 인수, 신 숙경 2007 확률적 온톨로지와 연구자 네트워크를 이용한 심사자 자동 추천에 관한 연구. [정보관리학회지] Vol.24 P.43-65 google
  • 8. 최 상희, 최 선희 2010 오픈엑세스 학술지의 차세대 서비스 모형에 관한 연구. [정보관리학회지] Vol.27 P.89-107 google
  • 9. Afzal M.T. 2009 Improving Citation Mining. [Proc. Networked Digital Technologies] google
  • 10. Ibanez Alfonso, Larranaga Pedro, Bielza Concha 2011 “Using Bayesian networks to discover relationships between bibliometric indices. A case study of computer science and artificial intelligence journals.” [Scientometrics] Vol.89 P.523-551 google
  • 11. Ojokoh Bolanle Adefowoke, Zhang Ming, Tang Jian 2011 “A trigram hidden Markov model for metadata extraction from heterogeneous references.” [Information Sciences] Vol.181 P.1538-1551 google
  • 12. Choi S.-H., Kim B.-K., Kang M.-Y., You B.-J., Lee J., Park J.-W. (2011) “A study of citing patterns of Korean scientists on Korean journals.” [Journal of the Korean Society for information Management] Vol.28 P.97-115 google
  • 13. Cortez Eli, da Silva Altigran Soares, Goncalves Marcos Andre, Mesquita Filipe de Sa, de Moura Edleno Silva 2009 “A flexible approach for extracting metadata from bibliographic citations.” [JASIST] Vol.60 P.1144-1158 google
  • 14. Yan Erjia, Ding Ying, Jacob Elin K. 2012 “Overlaying communities and topics: an analysis on publication networks.” [Scientometrics] Vol.90 P.499-513 google
  • 15. Jakob Elming, Nizar Habash 2007 Combination of Statistical Word Alignments Based on Multiple Preprocessing Schemes. [Proc. HLT-NAACL.] google
  • 16. Zhang Jian, Chen Chaomei, Li Jiexun 2009 “Visualizing the Intellectual Structure with Paper-Reference Matrices.” [IEEE Transactions on Visualization and Computer Graphics] Vol.15 P.1153-1160 google
  • 17. Lin Jiejia, Xu Yunhong, Cao Shujin 2010 Unraveling the Relationship between Co-Authorship and Research Interest. [Proc. PACIS] google
  • 18. Kim Byung-Kyu, Kang Mu-Yeong, Choi Seon-Heui 2011 “Citing Behavior of Korean Scientists on Foreign Journals in KSCD.” [Journal of the Korean society for information management] Vol.28 P.117-133 google
  • 19. Kwon Ki-Seok, Park Han-Woo P, So Min-Ho, Loet Leydesdorff 2012 “Has globalization strengthened South Korea's national research system? National and international dynamics of the Triple Helix of scientific co-authorship relationships in South Korea.” [Scientometrics] Vol.90 P.163-176 google
  • 20. Lee J.-W., Kim B.-K., You B.-J., Kang M.-Y. 2011 Design and application of process for creating and verifying Korean Journal Citation Report (KJCR). [Proc ICCC] google
  • 21. Eckmann Michael, Anderson Rocha, Jacques Wainer 2012 “Relationship between high-quality journals and conferences in computer vision.” [Scientometrics] Vol.90 P.617-630 google
  • 22. Afzal Muhammad Tanvir, Maurer Hermann A., Balke Wolf-Tilo, Kulathuramaiyer Narayanan 2010 “Rule based Autonomous Citation Mining with TIERL.” [Journal of Digital Information Management] Vol.Vol.8 P.196-204 google
  • 23. Shi Shuming, Xing Fei, Zhu Mingjie, Nie Zaiqing, WenOther Ji R. 2009 Anchor Text Extraction for Academic Search. [Proc. ACL-IJCNLP] google
  • 24. Ma Tingcan, Wang Gui-Fang, Dong Ke, Cao Mukun 2012 “The Journal's Integrated Impact Index: a new indicator for journal evaluation.” [Scientometrics] Vol.90 P.649-658 google
  • 25. Kuzar Tomas, Navrat Pavol 2010 Preprocessing of Slovak Blog Articles for Clustering. [Proc. Web Intelligence/IAT Workshops] google
  • 26. Cathy Lin Wen-Yau, Huang Mu-Hsuan 2012 “The relationship between co-authorship, currency of references and author self-citations.” [Scientometrics] Vol.90 P.343-360 google
  • 27. Ding Ying, Chowdhury Gobinda, Foo Schubert 1999 Template mining for the extraction of citation from digital documents. [Proc. ICADL.] google
  • 28. Yang Ying, Wu Mingzhi, Cui Lei 2012 “Integration of three visualization methods based on co-word analysis.” [Scientometrics] Vol.90 P.659-673 google
  • 29. Horak Zdenek, Kudelka Milos, Snasel Vaclav, Abraha Ajith, Rezankova Hana 2011 Forcoa.NET: An interactive tool for exploring the significance of authorship networks in DBLP data. [Proc. CASoN] P.261-266 google
  • [그림 1] 과학기술인용색인 데이터 기반 서비스 제공을 위한 처리 흐름
    과학기술인용색인 데이터 기반 서비스 제공을 위한 처리 흐름
  • [그림 2] 저자 식별과 인용의 형태 (화살표는 인용을 표현함)
    저자 식별과 인용의 형태 (화살표는 인용을 표현함)
  • [그림 3] 메타데이터를 추출하기 위한 trigram hidden Markov model
    메타데이터를 추출하기 위한 trigram hidden Markov model
  • [그림 4] 인용 관계를 분석하기 위한 토큰들
    인용 관계를 분석하기 위한 토큰들
  • [그림 5] 정보 기반 서비스의 흐름
    정보 기반 서비스의 흐름
  • [그림 6] KSCD 기반 서비스
    KSCD 기반 서비스