Performance Evaluation of University by the Lens of University-Industry Research Cooperation

산학공동연구를 통한 대학평가 방안에 대한 연구*

  • cc icon
  • ABSTRACT

    While the role of universities in the modern society has long been a key agenda of discussion, Korean universities have recently tried to get good results in league tables, mostly published by major media. Although the criteria of evaluation are developed through benchmarking and thoughtful discussion, they are still in the process of development and fragile to the question whether they really suggest the future direction of universities. The study seeks to find whether the number of UIC(university industry co-authored articles), as suggested by a few scholars, is meaningful and feasible as an alternative or complement to current performance indices of universities. The adoption of UIC implicitly means that a key role of university should be developing and diffusing knowledge to the society by working with industry participants. We found limited evidence that the index of UIC has meaningful discrepancy with current indices for research, which opens up a new discussion.


    빠르게 변화하는 글로벌 경쟁 환경에서 대학의 역할은 무엇인가 하는 질문이 계속되고 있다. 현재 국내의 대학들은 산업에서의 요구보다는 언론 및 여러 평가기관에서 실시하는 대학 평가 기준에 더 많은 관심을 기울인다. 대학 평가 지표가 비록 널리 인정받는 기준임에는 틀림없지만 효용성에 대한 논란도 항상 공존해 왔다. 따라서 평가 기준에 초점을 맞춘 대학의 발전이 실질적인 대학 본연의 역할에 부합하는지 검토되어야 한다. 본 연구에서는 대학과 기업의 공동 연구를 통해 대학 연구의 산업 파급 효과를 측정하고자 시도한 해외 연구를 국내에 적용시켜 보고, 국내의 대학 평가 기준이 현재의 지표로 충분한 지에 대해 검토하였다. 이 같은 연구는 대학이 단지 연구의 주체가 아니라 창업을 비롯한 다양한 지식확산의 주체가 될 수 있는지 시사점을 제공한다 하겠다. 본 연구는 해외에 발표된 연구 결과만을 분석의 대상으로 삼았다는 한계를 가지고 있으며, 향후 연구에서는 국내에 발표된 연구 결과를 함께 분석해야 할 것이다.

  • KEYWORD

    university rankings , research performances , co-authored research publications , venture creation

  • Ⅰ. 서 론

    지난 2006년 이후, 정부는 국가 연구・개발(R&D) 투자의 효율성을 높이고자 연구성과의 관리・활용에 대한 사업을 추진하고 있다(교육과학기술부, 2010; 특허청, 2009). 이 사업의 목표는 OECD 국가 중 중위권에 머물고 있는 우리나라의 지식창출 수준을 끌어올리는데 있다. 사업 내용에는 대학 내 TLO(Technology Licensing Office, 기술이전전담조직) 인력의 질을 높이고, 성과 확산이 우수한 기관을 발굴하겠다는 목표가 포함되어 있다. 이는 고도화 된 지식기반 경쟁 시대에서 대학의 지식 창출과 산업으로의 확산 역할이 국가 경쟁력을 키우는데 있어 중요한 역할을 수행 할 것이라는 정부의 기대를 나타내는 것이다.

    이러한 사회적 요구에 맞춰 대학이 제 역할을 수행 할 수 있도록 가이드를 제공하는 것이 대학평가이다. 현재 대학평가를 위한 지표가 다양하게 개발되어 사용되고 있지만, 산업으로의 확산에 대한 관심이 고조되고 있는 최근의 추세를 반영하기에는 충분하지 못한 것이 현실이다(신정철・정지선・김명진・박환보, 2007; Dill & Soo, 2005; Marginson & Van der Wende, 2007; Tijssen, Van Leeuwen & Van Wijk, 2009).

    기술료 수입과 같은 연구의 ‘결과’를 측정하기 위한 방안이 있지만 실질적으로 의미있는 평가를 하기에는 국내 대학의 기술료 수입 수준이 미미한 상태이다(박영규, 2010; 지식경제부, 2009).

    따라서 본 연구에서는 산학공동연구(UICs: University-industry co-authored research publications)를 통해 대학 연구 결과의 사회 파급 효과를 측정해 본 Tijssen et al.(2009)의 연구를 바탕으로 UICs 지표가 국내 대학의 연구 성과를 측정하는 지표로서 활용 될 수 있는지 검증해 보고자 한다.

    이에 본 연구는 국내 대학평가에서 상위에 랭크되어 있는 대학들을 대상으로, SCI, SSCI, A&HCI 논문 중 산업계와의 공동 논문 비율을 통해 순위를 산정하여 기존의 국내 대학평가 결과와 비교하였다.

    Ⅱ. 선행 연구

    국내외 연구는 지속적으로 대학평가의 기준과 측정의 방법에 대해 진행되어 왔다. 특히 해외에서는 현재의 평가는 다양한 환경의 국가와 대학의 경쟁력을 적절히 반영하지 못하고 있고 새로운 기준이 필요하다는 주장이 존재한다(Dill & Soo, 2005; Marginson & Van der Wende, 2007; Tijssen et al., 2009; Williams & Van Dyke, 2007). 국내 연구에서는 세계 경쟁 환경에서 대학이 세계 수준의 경쟁력을 갖추기 위해서는 많은 노력이 필요하며(신정철 외, 2007; 오영훈·김영순, 2007; 이영학, 2010)대학이 사회적 요구에 부응하기 위해서는 대학 전략수립의 기준이라는 측면에서 대학평가의 기준이 보다 풍부해질 필요가 있다고 제안되고 있다(이현청, 2006; 장준호, 2009).

    기존 선행연구들은 다음과 같이 정리될 수 있다.

       2.1 대학의 역할과 대학평가

    전통적으로 대학은 교육, 연구, 사회봉사의 역할을 가지고 있으며, 대학은 국가 경제의 원동력으로서 이에 필요한 인력, 시설, 장비 등을 모두 보유하고 있다(노시평, 1997; Hahn, Lowry, Lynch, Shulenberger & Vaughn, 2009). 국내에서도 대학의 역할에 대한 중요성을 인식하고 있으며, 이러한 사회적 책무를 수행하는데 불편함이 없도록 학문연구와 인재양성의 자유를 인정하고 있다(김호진, 2001; 박종렬·배호순·이영호, 2009; 주삼환, 2006).

    이러한 환경 속에서 대학평가는 대학이 주어진 역할을 다 할 수 있기 위한 장치이자 가이드로써 활용된다는데 그 의의가 있다(강성원, 2001; 박종렬 외, 2009; 이현청, 2006; 한국대학교육협의회, 2001).

    대학평가는 대학에 요구되는 역할을 기준으로 각 대학의 경쟁력을 평가하고, 그 결과는 대학의 소비자인 학생과 기업에 중요한 자료로 인식된다(김순우·조병량·한상필, 2010). 따라서 대학은 경쟁에서 살아남기 위해 평가를 적극적으로 수용하고 활용하려고 한다(박종렬 외, 2009). 이는 대학평가의 중요한 기능으로서 대학의 역량은 평가 기준에 맞춰지게 되고, 자연스럽게 사회의 요구에 부합하게 되는 것이다.

    하지만 국내에서는 대학평가의 부작용으로 지나친 서열화가 나타나고 있다. 국내에서는 대학이 명성에 따라 서열화 되어 있으며, 서열을 결정짓는 요소에서 특히 지원자의 입학성적이 큰 부분을 차지하고 있다(박거용, 2005; 신정철 외, 2007).

    이러한 과도한 서열화는 대학의 경쟁력을 평가하거나 발전을 유도하는 것이 아니라 오히려 대학의 발전을 저해한다는 주장도 존재한다(박거용, 2005, 정진상·김영석·이두휴·황갑진·최태룡·이전·이종래·김경근, 2004).

    이처럼 평가가 대학의 다양성을 충분히 반영하지 못하는 한계가 존재하지만, 대학평가를 계기로 대학이 경쟁력을 갖고 질적으로 우수해지기 위해 노력한다는 사실에는 변함이 없다. 따라서 적절하고 다양한 평가 기준이 제시된다면 국내 박사급 인력의 67.5%를 보유하고 있는 대학이 국가가 발전하는 원동력으로서의 역할을 수행할 수 있도록 도울 수 있을 것이다(교육과학기술부・한국과학기술기획평가원, 2009).

       2.2 대학평가 지표

    대학은 다양한 역할과 기능을 가지고 있지만 현재 활용되고 있는 대학평가 지표가 각 대학의 특성을 제대로 평가하고 있는지에 대한 논의는 계속되고 있다(박종렬 외, 2009). 특히 강성원(2001), 김호진(2001) 등의 연구에서는 대학 내의 연구 결과가 사회로 파급되는 정도에 대한 측정과 평가가 현재의 지표로는 부족하다고 주장한다.

    해외에서는 ‘The Times', '상하이 교통대학’, ‘News Week', 'US News & World Report' 와 같은 기관에서 전 세계의 대학을 대상으로 평가를 실시하여 그 결과를 발표하고 있고 이는 세계적으로 대학의 경쟁력을 보여주는 결과로 인정받고 있다(박종렬 외, 2009).

    하지만 <표 1>에 나타난 바와 같이 해외 기관의 평가는 ‘동료교수 평가’, ‘전문가 서베이 결과’ 등 산출 결과보다는 명성에 영향을 받는 지표를 다수 포함하고 있다(박종렬 외, 2009).

    또한 이러한 평가는 환경이 다른 국가 간의 평가에 적합하지 않다는 주장도 존재한다. 정진상 외(2004)에 따르면 대학의 경쟁력이란 사회적으로 효용가치가 높은 연구성과를 많이 내고, 양질의 인력을 많이 배출하는 것을 뜻한다. 하지만 해외에서 발표되는 세계 대학의 순위에서 영어를 모국어로 사용하는 국가의 대학의 순위가 대체로 높게 나타나고, ‘해외 유명 저널 게재 수’, ‘노벨상, 필즈상 수상자 수’ 등의 지표가 큰 비중을 차지하고 있는 평가에서 과연 비영어권 국가의 대학 경쟁력을 제대로 평가할 수 있는가에 대한 논란이 존재한다(신정철 외, 2007; Dill & Soo, 2005; Marginson & Van der Wende, 2007; Tijssen et al., 2009; Williams & Van Dyke, 2007).

    국내에서는 ‘중앙일보’, ‘조선일보’, ‘경향신문’ 등의 기관에서 대학 평가를 실시하고 있다. 국내 대학평가의 경우 해외에 비해 비교적 다양한 지표를 개발하여 활용하고 있는 것으로 나타났다(<표 2> 참조). 또한 기관별로 자체적으로 다양한 지표를 개발하여 평가에 활용하고 있으나, 대체적으로 유사한 항목 간 비중이 비슷하게 나타나고 있어 평가 기준에 큰 차이가 없는 것으로 나타났다. 다만 경향신문의 경우 학생의 만족도를 주요 평가 지표로 활용하고 있었다.

    국내 기관의 평가에서는 해외 기관에 비해 연구 성과에 대한 비중을 높게 측정하고 있는 것으로 나타났다. 그 중 논문 게재와 피인용 빈도를 통한 연구 성과의 학문적 기여도는 적절히 평가가 되고 있는 것으로 볼 수 있다. 하지만 특허와 연구비, 기술료 등으로 측정되고 있는 사회로의 파급 효과는, 특허의 경우 실제로 산업에서 활용되고 있는지를 반영할 수 없기 때문에(특허청, 2009), 연구비, 기술료 등의 지표의 경우 그 수준이 미미한 상태이기 때문에 목적에 맞는 실질적인 평가가 이루어지고 있다고 보기는 어렵다(지식경제부, 2009).

    대학의 특성이 다양하고, 국가 간, 기관 별 환경의 차이가 존재하기 때문에, 현재 활용되고 있는 지표 외에도 대학의 경쟁력과 성과를 공정하게 측정 할 수 있는 지표가 지속적으로 고안되어야 할 필요가 있다. 이러한 이유로 Tijssen et al.(2009)은 산학공동연구의 성과를 측정하여 대학 평가에 반영해야 한다고 주장하였다. 산학공동 연구의 비율은 대학의 연구가 산업에 확산되고, 사회적인 기여를 얼마나 했는지에 대한 지표가 될 수 있다. 실제로 Tijssen et al.(2009)의 연구에서는 비 영어권 국가나 IT 우수 기업이 많은 국가에 속해 있는 대학들의 상위권 도약 등 기존의 대학 평가와는 다른 결과가 도출되었다.

    본 연구는 Tijssen et al.(2009)의 연구를 바탕으로 국내 대학들의 산학공동연구 논문을 분석하고자 한다.

    III. 실증 분석을 위한 자료 수집

       3.1 산학공동연구 성과의 측정

    Tijssen et al.(2009)과 본 연구의 대학 논문에 대한 통계적 데이터는 톰슨 로이터의 Web of Science DB를 통해 추출되었다. 이 밖에도 대학 순위와 관련된 다양한 연구에서 활용되었던 Web of Science는 14,000여 개의 SCI, SSCI, A&HCI 급의 저명한 학술지의 논문 정보를 포함하고 있다(Calero-Medina, Lopez-Illescas, Visser & Moed, 2008; Kivinen & Hedman, 2008; Van Raan, 2005).

    Web of Science DB에는 각 논문의 저자와 소속 기관에 대한 정보를 담고 있어 각 대학별 논문을 추출하여 공동 저자의 소속 기관에 따라 분류할 수 있다. 또한 여러 학문 분야에 걸친 광범위한 데이터가 존재하기 때문에 실증 분석을 실시하여 통계적으로 유의한 결과를 얻을 수 있다(Sun, Negaishi & Nisizawa, 2007; Tijssen & Van Leeuwen, 2005).

    산학공동연구를 측정하는 과정에서 다음과 같은 문제점이 발생할 수 있다(Katz & Martin, 1997;Tijssen et al., 2009).

    이러한 데이터 소스의 한계에도 불구하고 Tijssen et al.(2009)은 산학공동연구 성과를 측정하는 것이 연구의 성과가 확산되어 국가와 세계 과학의 발전에 어느 정도 기여했는지에 대한 측정을 대신 할 수 있다고 주장한다.

       3.2 표본 대학의 구성

    Tijssen et al.(2009)은 톰슨 로이터를 통해 주요 350개 세계 대학 순위를 조사하여, 각 대학이 5년간(2002년부터 2006년까지) 산학공동연구 논문을 얼마나 발표했는지를 조사하였다. 이 결과 기존의 대학평가와는 차이가 있는 순위를 발표하였다. 하지만 국내 대학의 경우 전체 350개 대학에 포함되어 있는 대학의 수가 8개 밖에 되지 않아 국내 환경에서 산학공동연구를 통한 대학평가가 기존의 평가와 어떠한 차이가 있는지는 검증하기 어렵다. 따라서 본 연구에서는 중앙일보, 경향신문, 조선일보에서 발표하는 국내 대학 종합 순위와 현행 지표 중 산학공동연구 지표와 가장 유사하다고 생각되는 중앙일보의 교수연구 순위, 경향신문의 연구부문 순위 상위 30위에 올라 있는 대학을 대상으로 산학공동논문을 조사하여 기존의 순위와 비교하려 한다.

    IV. 실증분석 및 결과

       4.1 표본의 기술통계량

    실증분석을 위해 국내 대학평가 순위표에서 상위 30위에 올라 있는 43개의 대학을 대상으로 Web of Science DB에서 논문 수를 조사하였다. 2005년부터 2009년까지 5년간 SCI, SSCI, A&HCI 논문의 수를 조사하였다. 본 연구에서는 5년간 발표된 논문 수가 1,000편 이하인 13개 대학을 제외하고 30개 대학을 표본으로 사용하였다(<표 3>, <표 4> 참조).

    국내 대학의 총 논문 수는 세계 우수 대학의 절반 수준에 그치고 있지만 산학공동연구 비율의 평균은 4배를 넘어선다. Tijssen et al.(2009)의 연구에서는 국내 대학이 산학공동연구 지표를 적용할 경우 순위가 놀라울 정도로 상승한다고 특별히 언급하고 있으며, 이는 국내에 우수한 IT기업이 있기 때문일 것이라고 분석하고 있다(<표 5> 참조).

       4.2 평가 순위 간 상관성 분석

    국내 30개 대학의 산학공동연구 순위가 기존 국내 대학평가의 순위와 연관성이 있는지 알아보기 위해 스피어만 서열상관분석을 실시하였다.

    산학공동연구 순위와 기존에 국내에서 대학평가에 사용되고 있는 순위들 간의 상관관계를 살펴보면 <표 6>, <표 7>과 같다. 기존에 국내에서 사용되고 있는 순위 지표들은 전반적으로 모두 강한 양(+)의 상관관계를 보이고 있으나, 산학공동연구 지표와 기존 연구분야 지표 간에는 음(-)의 상관관계를 보이고 있음을 알 수 있다.1)

    현재 국내에서 사용되고 있는 대학평가 지표의 세부내용은 각 기관별, 기관 내 평가 분야별로 서로 유사하다. 상관분석 결과 또한 서로 유사한 것으로 나타나 결과적으로는 같은 내용을 중복하여 평가하고 있는 것으로 볼 수 있다. 혹은 이러한 분석결과를, 국내 대학이 대학평가 지표와 관련 된 부분에 역량을 집중하고 있다고 해석할 수도 있다.

    또한 산학공동연구 지표를 통한 순위가 기존 대학 평가의 결과와 크게 다른 것으로 나타나 현재의 연구성과 지표가 산학 협력이나 연구 결과의 사회적 파급과는 상당한 괴리가 있을 개연성을 나타낸다. 이러한 결과는 연구 성과가 높은 대학들이 연구를 통해 학문적 기여는 하고 있으나 사회적 파급 효과에 대한 관심은 부족할 가능성을 시사한다.

    결과를 통해 국내 대학의 경쟁력을 높이고, 연구의 결과를 사회로 확산시키기 위해서는 현행 대학평가 지표와 함께 대학 연구의 산업 파급 효과를 측정할 수 있는 대학 평가로 지표가 개선되어 대학이 연구 결과의 사회적 파급 효과에 대한 고민을 할 수 있는 환경을 마련해야 할 것이다. 그 이유는 연구 성과가 높은 대학만큼이나 사회적 파급 성과가 높은 대학도 경쟁력이 있다고 볼 수 있기 때문이다.

    이러한 측면에서 산학공동연구 지표는 기존의 평가 결과와는 다른, 성과 확산의 주요 측정 변수로서 가치가 있을 것이다.

    1)경향신문의 연구 지표와는 통계적으로 유의성(p=0.032)을 나타내며 기타의 지표와는 통계적으로 유의하지는 않다.

    Ⅴ. 결 론

    새롭게 변화하는 글로벌 경쟁 환경에서 대학은 국제적 경쟁력을 갖추고 산업이 요구하는 인재를 배출해야할 의무가 있다. 하지만 국내의 대부분 대학들은 국제적으로 경쟁력을 인정받지 못하며, 배출하는 인재와 산업에서 요구하는 인재의 차이도 크다(강성원, 2001; 김호진, 2001).

    대부분의 국내 대학은 대학평가에 의존해 역량을 배치하고 자금을 투자한다. 이는 대학평가의 방법과 기준이 국내 대학의 경쟁력을 높일 수 있는 좋은 도구가 될 수 있다는 의미로 해석할 수 있다.

    대학평가가 대학의 개선과 발전에 많은 영향을 미친다는 것을 많은 연구자가 인정하고 있으며, 동시에 현재의 평가 기준이 부족하다는 것 또한 인정한다. Tijssen et al.(2009)의 연구는 최근 성과 확산 측면에서 대학의 산학 연구를 중요하게 평가하려는 시도 중 하나로서 대학과 산업의 공동 연구의 결과를 통해 새로운 평가 기준을 제시하였다. 국내에서도 대학의 특성화를 이끌어 내어 국제적으로 경쟁력을 갖추게 하기 위한 노력들이 진행되고 있다. 배종렬 외(2009)는 교육인적자원부(현 교육과학기술부)가 대학구조개혁을 실시하고, 연구중심 대학 육성을 위해 두뇌한국21(BK21) 사업을 진행하는 등 국내 대학의 다양화를 위한 많은 노력이 있지만 정작 대학평가의 기준은 변화하지 않고 있음을 지적한다.

    이처럼 세계의 흐름과 차이가 있는 국내의 대학평가 기준에 새로운 기준을 제시하고 국내에 적용시키는 것은 그 자체로서 의미를 갖는다. 또한 실제로 적용 결과 국내의 대학들 간의 순위도 기존의 평가 결과와 많은 차이를 보였다.

    따라서 현재 주요 선진국에 비해 기술이전 실적이 저조한 국내 대학(박영규, 2010)의 성과를 높일 수 있는 지표로서 활용될 수 있을 것이다.

    또한 산학공동연구를 촉진함으로써 대학이 보유한 우수한 연구 인력이 실험실 연구에서 벗어나 산업을 학습하는 효과를 누릴 수 있다. 나아가 이러한 경험을 바탕으로 우수한 연구가 실험실을 벗어나 산업으로 파급되는 통로로써 벤처창업이 대학 내에서 활발해지는 요인이 될 수 있다.

    하지만 이러한 지표가 제대로 대학을 평가하는 지표로서 활용되기 위해서는 고려되어야 할 몇 가지 문제점이 존재한다.

    첫째, 해외에서 발표 된 논문 외에도 국내에서 발표 된 논문의 산학공동연구 비율을 측정하여 평가할 수 있는 DB 구축이 요구된다.

    둘째, 국내 대학의 영문 표기가 개인에 따라 상이한 경우가 존재해 해외 발표 논문에 대한 정확한 측정이 어렵다.

    셋째, 해외의 대학들은 특화된 분야를 통해 평가를 받아 왔으나 국내 대학은 대부분 성격이 유사해 해외의 연구를 그대로 반영하기에는 무리가 있다.

  • 1. 강 성원 (2001)
  • 2. 김 순우, 조 병량, 한 상필 (2010) [『언론과학연구』] Vol.10 P.139-178
  • 3. 김 호진 (2001)
  • 4. 노 시평 (1997) [『한국사회와 행정연구』] Vol.8 P.147-164
  • 5. 박 거용 (2005)
  • 6. 박 영규 (2010)
  • 7. 박 종렬, 배 호순, 이 영호 (2009)
  • 8. 신 정철, 정 지선, 김 명진, 박 환보 (2007)
  • 9. 오 영훈, 김 영순 (2007) [『교육문화연구』] Vol.13 P.85-111
  • 10. 이 영학 (2010) [『한국교육논단』] Vol.9 P.1-22
  • 11. 이 현청 (2006)
  • 12. 장 준호 (2009) [『정보과학회지』] Vol.27 P.21-29
  • 13. 정 진상, 김 영석, 이 두휴, 황 갑진, 최 태룡, 이 전, 이 종래, 김 경근 (2004)
  • 14. 주 삼환 (2006)
  • 15. (2010)
  • 16. (2009)
  • 17. (2009)
  • 18. (2009)
  • 19. www.academyinfo.go.kr google
  • 20. www.sustainability.kr google
  • 21. www.jedi.re.kr google
  • 22. www.thomsonreuters.com google
  • 23. www.isiwebofknowledge.com google
  • 24. www.kcue.or.kr google
  • 25. Calero-Medina C., Lopez-Illescas C., Visser M. S., Moed H. F. (2008) “Important factors when interpreting bibliometric rankings of world universities: an example from oncology” [Research Evaluation] Vol.17 P.71-81 google doi
  • 26. Dill D., Soo M. (2005) “Academic quality, league tables, and public policy: a cross-national analysis of university ranking systems” [Higher Education] Vol.49 P.495-533 google doi
  • 27. Hahn K., Lowry C., Shulenberger D., Vaughn J. (2009) “The university's role in the dissemination of research and scholarship―A call to action” google
  • 28. Katz J. S., Martin B. R. (1997) “What is research collaboration?” [Research Policy] Vol.26 P.1-18 google doi
  • 29. Kivinen O., Hedman J. (2008) “World-wide university rankings: a Scandinavian approach” [Scientometrics] Vol.74 P.391-408 google doi
  • 30. Marginson S., Van der Wende M. (2007) “To rank or to be ranked: the impact of global rankings in higher education” [Journal of Studies in International Education] Vol.11 P.306-329 google doi
  • 31. Sun Y., Negaishi M., Nisizawa M. (2007) “Co-authorship linkages between universities and industry in Japan” [Research Evaluation] Vol.16 P.299-309 google doi
  • 32. Tijssen R. J. W., Van Leeuwen T. N. (2005) “Measuring impacts of academic science on industrial research: a citation-based approach” [Scientometrics] Vol.66 P.55-69 google doi
  • 33. Tijssen R. J. W., Van Leeuwen T. N., Van Wijk E. (2009) “Benchmarking university-industry research cooperation worldwide: performance measurements and indicators based on co-authorship data for the world's largest universities” [Research Evaluation] Vol.18 P.13-24 google doi
  • 34. Van Raan A. F. J. (2005) “Fatal attraction: conceptual and methodological problems in the ranking of universities by bibliometric methods” [Scientometrics] Vol.62 P.133-143 google doi
  • 35. Williams R., Van Dyke N. (2007) “Measuring the international standing of universities with an application to Australian universities” [Higher Education] Vol.53 P.819-841 google doi
  • 36. www.topuniversities.com google
  • [표 1] 해외 기관의 대학평가 기준
    해외 기관의 대학평가 기준
  • [표 2] 국내 기관의 대학평가 기준
    국내 기관의 대학평가 기준
  • [표 3] 국내 대학 산학공동연구 현황
    국내 대학 산학공동연구 현황
  • [표 4] 국내 30위 대학의 기술통계량(2005-2009)
    국내 30위 대학의 기술통계량(2005-2009)
  • [표 5] 세계 350위 대학의 기술통계량(2002-2006)
    세계 350위 대학의 기술통계량(2002-2006)
  • [표 6] 평가 지표별 대학 순위
    평가 지표별 대학 순위
  • [표 7] 상관분석 결과
    상관분석 결과