Home > 전체기사
DGIST, 신개념 데이터 분할 통한 고성능 데이터 처리 기술 개발
  |  입력 : 2019-05-22 10:30
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기
업계 최고 기술인 아파치 스파크 SQL보다 4.2배 빠른 처리 성능

[보안뉴스 박미영 기자] 방대한 데이터를 더 효율적이고 더 빠르게 처리할 수 있는 원천기술이 DGIST에서 개발됐다. 빅데이터와 같이 커져가는 데이터를 처리할 수 있는 효율적인 기술로써 향후 그 활용이 매우 기대된다.

DGIST는 정보통신융합전공 김민수 교수팀이 관계형 데이터 처리 기술인 ‘GPT(Graph-based Partitioning Table) 기술’을 개발했다. 최고의 처리속도를 자랑하는 기존의 처리 방식보다도 평균 4배가량 더 우수한 처리 성능을 보여 향후 관련 분야에서 활용될 수 있을 것으로 기대된다.

‘관계형 데이터’는 여러 산업 분야에서 가장 많이 사용하는 데이터 형태로, 오늘날 그 규모가 커져 여러 대의 컴퓨터에 분산 저장·처리하는 기술들이 널리 사용된다. 현재 관계형 데이터를 분산 처리하는 가장 뛰어난 기술은 ‘아파치(Apache)’의 ‘스파크(Spark) SQL’로, 그 외에도 여러 처리 기술들이 많이 개발돼 왔다. 하지만 이들 기술들 모두 데이터 처리를 위해선 네트워크상에서 연결된 여러 대의 컴퓨터 사이의 많은 양의 네트워크 통신이 필요한 단점을 갖고 있다.

이에 김민수 교수팀은 관계형 데이터를 여러 대의 컴퓨터들에 기존과 다른 방식으로 저장하고 처리하는 방식을 고민했다. 그 결과 컴퓨터들 간의 네트워크 통신을 거의 발생시키지 않고도 데이터 분산 처리가 가능한 GPT 기술을 개발, 기존의 데이터 저장 및 처리 기술들이 갖던 문제의 근본적 해결에 성공했다.

처리속도가 빨리진 이유는 데이터를 그래프 위 점과 선의 관계로 모델링했기 때문이다. 관계형 데이터를 구성하는 각 데이터 테이블을 정점(vertex)으로, 테이블들 간의 조인(join) 관계를 선(edge)으로 설정한 일종의 그래프 데이터로 모델링하고 허브(hub) 역할을 하는 데이터 테이블을 기준으로 나머지 데이터 테이블들을 수평 분할해 각 컴퓨터에 나눠 저장했다. 이를 통해 분산 처리에도 네트워크 통신이 거의 발생하지 않는 장점을 확보했다.

이번에 개발된 김민수 교수팀의 GPT 기술은 업계 표준 벤치마크 방식인 ‘TPC-DS’를 이용한 데이터 처리성능 비교에서 아파치 스파크 SQL보다 평균 4.2배 더 빠른 처리속도를 보였다. 또한 단순한 이론적 단계를 넘어 실제 산업용 데이터 처리에 짧은 시일 내 상용화가 가능한 수준의 완성도까지 갖췄다.

DGIST 정보통신융합전공 김민수 교수는 “2010년대 초반, 빅데이터에 흥미를 갖고 시작한 연구가 방대한 양의 데이터를 처리하는 기술 연구로 이어지게 됐다”며, “이번 연구로 확보한 관계형 데이터 처리 기술은 향후 커져가고 있는 데이터의 양과 그 복잡성을 고려해 볼 때, 매우 유용하게 활용될 것으로 기대하고 있다”고 말했다.

한편 이번 연구 결과는 DGIST 정보통신융합전공 남윤민 박사과정생이 제1저자로 참여했으며, 정보과학 분야에서 권위 있는 국제학술지 ‘인포메이션 사이언스(Information Sciences)’ 4월호에 게재됐다.
[박미영 기자(mypark@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기


  •  SNS에서도 보안뉴스를 받아보세요!! 
모니터랩 파워비즈 6개월 2020년6월22~12월 22일 까지넷앤드 파워비즈 진행 2020년1월8일 시작~2021년 1월8일까지위즈디엔에스 2018파워비즈배너 시작 11월6일 20181105-20200131
설문조사
최근 잇따른 기밀 유출 사건으로 인해 종이유출차단방지(출력물) 보안 솔루션의 도입 필요성이 높아지고 있는데요. 해당 솔루션 도입을 위한 비용은 어느 정도가 적정하다고 보시나요?
2천만원 이하
5천만원 이하
1억원 이하
1~2억원 이내
2억원 이상