Background Image
조회 수 1357 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 댓글로 가기 인쇄
가끔 퇴근길에 서점에 들르곤 한다. 직업이 직업이라 그런진 몰라도 항상 IT코너에 머물러 어떤 새로운 책들이 출간되었나 보게 된다. 
그러다보면 최근 유행하는 컨셉이나 아키텍쳐, 프로그래밍 언어나 개발방법론 등에 대해 트렌드가 뭔지 관찰하려고 안해도 자연히 접하게 되는 것 같다. 
그 중 최근 유행처럼 사람들 입에 오르내리기도 하고 책으로 소개되기도 하는 개념들 중 MSA(Micro Service Architecture)라는 것이 있다.
뭔가 하고 들여다보니 MSA 개념에서 다루고 있는 '독립적으로 수행되는 최소단위의 서비스' 그리고 그 서비스들의 집합으로서의 시스템과 시스템의 분할에 관한 관점 및 해석은 십수년전 주목받던 SOA(Service Oriented Architecture)가 지향하는 서비스를 구성하는 기능별 시스템의 분할과 크게 다르지 않다. 

이 글은 MSA와 SOA가 얼마나 비슷한 사상으로 소개된 개념인지를 이야기하고자 함이 아니다. 예전에도 의미있게 다뤄졌고 지금도 의미있게 받아들여지는 이러한 개념들이 시스템의 관점에서 더 좁게는 DBMS라는 시스템 소프트웨어적 관점에서 어떻게 해석될 수 있는가를 간단하게 짚어보고자 함이다. 

MSA의 개념이 제대로 구현되기 위해서는 시스템이 제공하는 서비스들간 그리고 서비스와 서비스의 수요자간의 추상화된 관계가 명확하게 정의되어야 하며 이는 분산시스템의 확장성측면에서 매우 중요한 고려사항이 된다. 매우 중요한 고려사항이 된다는 이야기는 해당 분산 시스템의 아키텍쳐를 결정하는 요소가 된다는 의미이다.

서두가 길었지만 '확장성'말고도 분산시스템의 아키텍쳐를 결정하는데 영향을 미치는 요소는 '성능(performance)', '사용성(usability)', '편의성(user convenience)', '모니터링의 용이성(monitoring)', '기능성(functionality)', '가용성(availability)' 등 여러가지가 있다.

예를들어 흔히 이중화라고 하는 replication의 경우 HA(High Availability)를 충족시키기 위한 아키텍쳐이다. RAID라는 용어를 들어보았을 것이다. data redundancy를 제공해 media(disk) 차원에서의 MTTF를 최소화하려는 아주 오래된 컨셉이다. HA라는 것은 시스템이 제공하는 서비스 총체적인 차원에서의 MTTF를 최소화하려는 redundant한 시스템 아키텍쳐이다. 
이러한 목적으로 구현된 replication은 그 구현을 위한 기술요소가 분산인 것이지 분산시스템으로서 갖고 있는 목적 자체는 HA인 것이다. 시스템 소프트웨어 개발자들이 흔히 하는 실수는 HA를 목적으로 만들어진 replication을 갖고 다른 분산시스템 예를 들어 흔히 생각해볼 수 있는 cluster(active-active가 되는)도 만들고 cdc(changed data capture)도 만들고 sharding(단순한 table partitioning이 아니라  볼륨의 증감에 따라 re-sharding이 되는 sharding을 말한다)도 만들고 그럼 된다고 생각하는 것이다. 
하지만 그런 안일한 생각이 수개월 혹은 수년의 개발기간을 거쳐 만든 분산 기능자체를 버그 덩어리 내지는 수년간 repository에서 숙성기간을 거치면서 수많은 개발자들에 의해 더럽혀지다가 결국엔 제대로 써보지도 못한채 방치되거나 버려지는 몹쓸 코드덩어리를 만들어낸다.

모두 분산을 위한 기술요소를 갖고 있음에는 틀림이 없다. 하지만 아키텍쳐는 해당 시스템의 목적에 따라 달라져야 한다. 그리고 가능한 기존 시스템에 안좋은 영향을 주지않도록 설계되어야 한다. 위에 열거한 모든 요소들을 하나의 시스템 소프트웨어에서 만족시키는 아키텍쳐를 구현하기란 쉽지 않은 일이다. 

그래서 최근의 시스템 아키텍팅의 트렌드는 단일 목적에 특화된 여러 시스템들의 정합성을 고려하여 커다란 시스템으로 엮는 것이다. 그리고 그러한 트렌드에 맞춰 손쉽게 오케스트레이션을 할 수 있도록 해주는 쿠버네티스같은 플랫폼들이 인기를 끌고 있다.  

하지만 하나의 시스템이 만약 해당 서비스에 필요한 대부분의 요소들을 모두 제공한다면? 굳이 여러 시스템을 엮어 쓸 이유가 없다. 여러 시스템을 엮는다는 것은 그만큼의 비용(데이터 처리 비용)이 증가한다. 데이터가 시스템에 들어와 사용자에게 전달될 때까지 지나치는 경로가 길어질수록 비용은 증가한다. cpu core를 예로 들어보자. data와 instruction이 전달되는 경로를 bus라고 한다. 그 bus의 길이를 보다 짧게 하려고 cache도 두고 locality를 증가시키기 위한 무수한 노력을 한다. 그러다가 하나로 안되니 두개를 붙이고 4개를 붙이고 6개를 붙이고 core수를 늘리다가 결국 특수 목적의 연산유닛이었던 GPU도 붙이고 그런다. GPU를 그냥 옆에 쓸수있게 붙여놓기만 했던 시절에는 GPU에서 처리한 데이터를 다시 cpu에서 받아 처리하는데 필요한 데이터 복제 (메모리간)비용이 상당했고 그걸 처리하기 위한 고민과 기술들이 필요했다. 그러나 지금은 하나의 칩에서 대부분의 작업을 거뜬히 해낼 수 있게 되었다. 

분산시스템도 마찬가지다. 10년전만 해도 하둡하둡하면서 하둡만이 살길인양 분산시스템을 구축하는 프로젝트에서는 너도나도 하둡개발자를 찾았지만 이젠 하둡도 쓸까말까를 고민한다. 

하나의 시스템 혹은 플랫폼이 등장할 때마다 그것을 이용한 보다 나은 조합들이 나오고 정말 최고의 조합이어서든 자본에 의해서든 적어도 2~3년은 이쪽 업계 사람들의 입에 오르내릴만한 조합들이 나오곤 한다. 그러나 분산 시스템을 이해하는 개발자 관점에서 아쉽게 느껴지는 것들이 참 많다. 그중 하나는 브랜드파워 내지는 거대자본의 투입(대대적인 글로벌 컨퍼런스의 개최라든지 프로모션과 같은 것들)이 가능한 시장의 leading company에 의해 그들이 제공하는 조합 내지는 그들의 플랫폼, 그들의 제품을 사용하지 않으면 뒤떨어질 것 같은 인식이 확산되는 경향이 최근들어 빈번하게 발생하고 있다는 것이다. 한번 이러한 인식이 형성되기 시작하면 다른 조합은 이미 고려대상이 아니게 될 뿐 아니라 서비스 차원에서 시스템을 아키텍팅하는 엔지니어들 조차 소위 '대세' 시스템 아키텍쳐를 공부하고 모방하며 뒤질세라 자신의 세미나를 발표하면서 시스템의 획일화에 기여한다. 

그러나 사실은 아니 진실은 '누구나 그렇게 해야만 할 것같은 그런 분위기'가 아니다. 위에 열거한 서로 다른 요소들이 어떤 우선순위와 가중치를 갖고 시스템에서 제공되어야 하는가에 대한 고려가 우선되어야 한다. 조합 가능한 서로 다른 시스템들의 가짓수가 늘어날수록 솔루션으로서의 분산시스템 아키텍쳐 구성의 가짓수또한 증가한다. 

그런 와중에도 대부분의 분산 아키텍쳐에 중요한 고려사항으로써 항상 포함되는 건 데이터베이스이고 데이터베이스를 관리하는 시스템이다. 스트림처리를 통해 저장할 필요없이 사용 후 바로 제거되어도 되는 데이터들을 제외한 모든 데이터들은 데이터베이스를 한번씩은 거치기 마련이기 때문이다. 

DBMS는 이러한 데이터베이스를 관리하기 위한 시스템이고 많은 진화를 거듭하면서 보다 완전한 시스템이 되어가는 중이다. 아직도 가야할 길이 많지만 적어도 30년전 oracle을 생각하면 지금의 oracle은 거의 천상계가 아닌가.

혹자는 '빅데이터 시대'가 도래하고 부터는 DBMS는 퇴물이고 이제 곧 그 자리를 다른 시스템들이 대체하게 될거라는 말들을 하곤 한다. 미안한 말이지만 당신 앞에서 이런 이야기를 던지는 사람이 시스템 컨설턴트라면 그들이 제안하는 시스템 아키텍쳐를 신뢰하지 말라고 충고하고 싶다.

'빅데이터'는 이를 처리하는 단일 시스템에 보다 효율적인 처리를 위해 새로운 처리방식 혹은 새로운 데이터 모델링을 요구하거나 해당 시스템의 처리량을 넘어선 데이터 공급량으로 인해 보다 효율적인 처리방식을 고려하도록 하는 변화된 데이터환경 자체를 비즈니스적으로 표현한 말이고 시스템적 관점에서 '사실상의 대용량(때때로 실시간의 처리가 요구되는)'을 달리 표현한 말에 지나지 않는다. ('빅데이터'라는 용어가 확산되기 시작했던 2010년대 초반 필자가 국내학회지에 기고했던 글을 참조해보면 이 문장의 의미가 더 잘 이해해될 수도 있다. 참조 문서: 데이터 환경의 변화와 분산 데이터베이스 시스템)

그러나 사실 DBMS는 사실상의 대용량 데이터를 처리하기 위한 시스템이다.
DBMS가 오래전부터 맞닥드린 데이터 환경이 바로 '대용량'이고 이 '대용량'의 기준은 점점 높아져 왔을 뿐이다. 따라서 DBMS의 고민은 다름이 아니라 애초부터 대용량이었다. 1970년대 등장한 RDBMS의 시조새격인 ingres 도 이 대용량(당시의)을 처리하기 위해 만들어졌다. 

대용량 데이터의 처리는 DBMS의 숙명과도 같은 것이다. 

'대용량'이라는 키워드와 더불어 DBMS가 항상 안고 가는 숙제가 하나 있다. 바로 '실시간'이다.
'실시간'은 시스템, 즉 DBMS의 성능과 밀접한 관련이 있다. 뭘 실시간으로 제공하느냐에 따라 아키텍쳐는 달라진다. 저장관점에서의 쓰기연산이 실시간으로 이루어져야 하는지, 아니면 검색관점에서의 읽기연산이 실시간으로 이루어져야 하는지, 아니면 읽고쓰는 대부분의 연산에서 실시간이 보장되어야 하는지, 서비스에 따라 실시간의 허용범위는 어느정도인지 등 서비스 환경에 따라 다양하다.
DBMS는 이러한 저장 데이터베이스에 대해 수행되는 읽고쓰기 연산의 결과를 상위 시스템 혹은 클라이언트로 전달하는 주체로써 실시간성을 중요하게 고려한다. 

이렇듯 DBMS는 실시간과 이전에 설명한 대용량에 대한 처리를 고민하면서 분산 DBMS로 발전한다. 

하나의 통합 서비스에서 처리해야 하는 데이터의 양이 DBMS가 처리할 수 있는 수준범위 내에 있다면 다른 시스템은 필요가 없다. 그저 데이터를 받아 DBMS로 전달하는 일만 하면 된다. 그러나 그 데이터들을 DBMS가 다 처리를 못한다. 그래서 중간에 여러 DBMS들에 실시간으로 데이터들을 분산시켜 던져주는 미들웨어 시스템을 두고 DBMS마다 처리하는 속도가 달라 처리된 시점에 필요한 놈이 가져가게 하기 위한 message queue를 둔다. message큐가 처리할 수 있는 용량에도 한계가 있고 가용 저장장치에도 한계가 있기 때문에 저장용 cache를 따로 둔다. 그리고 데이터를 소비한 후 visualization을 따로 해줘야 하는 경우 처리를 위한 시스템을 별도로 엮기도 한다. 이건 하나의 예에 불과하다. 

결국 쉽게 말하면 DBMS가 못따라가는 데이터처리를 다른 시스템들을 붙여 어떻게든 그래도 효율적으로 처리해보려는 것이다. 

그래서 DBMS는 나날이 커져만 가는 대용량에 대응할 수 있는 시스템으로 진화해야 한다. '나날이 커져만가는 대용량에 대응'하기 위한 요소가 바로 '확장성'이다. 하나의 처리 노드에서 감당할 수준을 넘어선 데이터량 때문이다. 이러한 확장성을 갖춘 DBMS는 분산 feature를 장착한 분산 DBMS라고 할 수 있다. 하지만 아직 다양한 서비스 환경에서 실시간 처리에 대한 요구를 만족시켜주는 단일 분산 DBMS는 찾아보기 힘들다. 분산 DBMS로 가야할 길은 아직 멀고 험하다. 어쩌면 일개 시스템소프트웨어 개발자에게는 영원히 끝이 보이지 않는 길일 확률이 아주 높다. 그럼에도 불구하고 DBMS의 숙명과도 같은 '대용량의 데이터를 실시간으로 처리'하기 위해 DBMS는 진화하고 또 진화해간다. 

시스템 소프트웨어 불모지인 대한민국의 국산 DBMS로서 이미 그 효용성을 입증한 큐브리드가 그렇게 진화해가길 진심으로 바란다.


  1. 이노베이션 아카데미와 CUBRID의 산학협력

    이노베이션 아카데미 (42서울) 42SEOUL(42서울)은 아키텍트급 소프트웨어 인재를 양성하는 것을 목적으로 하는 교육 과정이며, 프랑스에서 시작된 에꼴42의 교육 방식 및 인프라를 수입하여 운영하는 형태를 띈다. 에꼴42(Ecole 42)는 프랑스의 대형 통신사 CEO이기도 한 자비에 니엘(Xavier Niel)이라는 억만장자가 프랑스에서 2013년에 설립했다. 설립 당시에도 자기주도 학습 및 동료 평가를 내세운 무료 소프트웨어 교육 기관이라는 점으로 주목받았다. 현재는 브라질, 미국, 일본 등 세계 여러 곳에도 42 캠퍼스가 있다. 2019년에 대한민국 서울에도 42 서울 캠퍼스가 들어왔다. 42의 특징 중 하나로, 자기주도적 학습을 지향하기에 교재나 교수가 따로 없고 모든 것은 스스로 인터넷 또는 각종 도서 등을 통하거나 동료들과의 협업 및 교류를 통해 학습을 하게끔 유도한다. 교육생들 스스로 방법을 찾아 나아가라는 의도이며, 정해진 교재 및 교수가 없기 때문에 필연적으로 많은 삽질과 불분명한 요구사항을 맞닥뜨리게 된다. 심지어 문제를 풀어야 하는데, 뭘 배우고 공부해야 하는지 조차도 제대로 알려주지 않는다. 이는 소프트웨어 현장을 그대로 모방하여 실전 경...
    Date2022.02.22 Category알려요~ By민준 Views291 Votes0
    Read More
  2. Scouter를 통한 CUBRID 모니터링

    Scouter를 통한 CUBRID 모니터링 Scouter 확장을 통해 CUBRID에 항목을 모니터링할 수 있습니다. CUBRID 11.0 버전을 기준으로 개발되었으며, CUBRID 10.2.1 버전부터는 전체 기능을 사용할 수 있습니다. Scouter(Server, Client)는 2.15.0 버전부터 기능 사용이 가능하며, 추후에도 Scouter Github에 참여하여 버그 수정 및 기능이 추가됩니다. 현재(2022-01-10) 2.15.0 버전이 최신 버전이며, Multi Agent 지원 및 버그 수정 내용이 PR 되어 있는 상태입니다. 1. Scouter 란? Scouter는 Open Source APM(Application Performance Management) 이며, 어플리케이션 및 OS 자원등에 대한 모니터링 기능을 제공합니다. Scouter 기본 구성 Scouter 제공 정보 ​- WAS 기본 정보 각 요청의 응답속도 / 프로파일링 정보, 서버 요청 수 / 응답 수, 처리 중인 요청 수, 응답속도의 평균, JVM 메모리 사용량 / GC 시간 , CPU 사용량 - 프로파일링 정보 서버 간 요청의 흐름, 각 SQL 쿼리의 수행 시간 / 통계, API 호출 수행 시간, request header 정보, 메소드 호출 시 수행 시간 대표적인 Agent 목록 - Tomcat Agent (Java Agent) : JVM 과 Tomcat WAS 성능 수집 - Host Agent (OS Agen...
    Date2022.01.10 Category제품 여행 Byhwanyseo Views1774 Votes0
    Read More
  3. [CUBRID] QUERY CACHE에 대해

    QUERY CACHE에 대해 큐브리드 11.0 버전이 출시되면서 QUERY CACHE 힌트를 지원하게 되었습니다. 이 글에서는 QUERY CACHE에 대해 알아보는 시간을 가져보겠습니다. 1. QUERY CACHE란? Query Cache는 SELECT 쿼리문을 이용하여 조회한 값을 저장하고 있다가, 같은 쿼리 문을 요청하였을 때 미리 캐싱된 값을 반환하는 DBMS 기능입니다. 자주 변경되지 않는 테이블이 있고 동일한 쿼리를 많이 받는 환경에서 매우 유용하게 사용될 수 있습니다. QUERY_CACHE 힌트를 사용한 쿼리는 전용 메모리 영역에 캐시되고 그 결과도 별도의 디스크 공간에 캐시됩니다. 쿼리 캐시 특징 1. QUERY_CACHE 힌트는 SELECT 쿼리에만 적용됩니다. 2. 테이블에 변화(INSERT,UPDATE,DELETE)가 일어나게 되면 해당테이블과 관련된 Query Cache내의 정보들은 초기화 됩니다. 3. DB를 내리면 Query Cache는 초기화 됩니다. 4. max_query_cache_entries와 query_cache_size_in_pages 설정 값을 통해 캐시될 크기를 조절할 수 있습니다. (default 값은 모두 0 입니다.) max_query_cache_entries는 최대 캐시할 수 있는 질의 개수에 대한 설정 값으로 1이상으로 설정되면 설정된 수 만큼의 질의가 캐시됩니...
    Date2021.10.29 Category제품 여행 By김민종 Views1593 Votes1
    Read More
  4. [CUBRID inside] HASH SCAN Method

    - HASH SCAN Hash Scan은 hash join을 하기 위한 스캔 방법입니다. view 혹은 계층형 질의에서 Hash Scan이 적용되고 있습니다. view와 같은 부질의가 inner로써 조인될 경우 인덱스 스캔을 사용할 수 없는데, 이 경우 많은 데이터를 반복 조회 하게 되면서 성능 저하가 발생됩니다. 이때 Hash Scan이 사용됩니다. 위 그림은 인덱스가 없는 상황에서의 Nested Loop join과 Hash Scan의 차이를 보여줍니다. NL join의 경우 OUTER의 Row수만큼 INNER의 전체 데이터를 스캔합니다. 이에 반해 Hash Scan은 해시 자료구조 빌드 시 INNER 데이터를 한번 스캔하고, 조회시 OUTER를 한번 스캔합니다. 그렇기 때문에 상대적으로 매우 빠르게 원하는 데이터를 조회할 수 있습니다. 여기서는 Hash Scan의 내부 구조를 프로그램 개발 진행 과정의 흐름으로 작성하였습니다. - IN-MEMORY HASH SCAN CUBRID의 Hash Scan은 데이터양에 따라서 in-memory, hybrid, file hash의 자료 구조를 사용하고 있습니다. 먼저 in-memory 구조부터 살펴보겠습니다. memory의 장점은 random access시 성능 저하가 없다는 점입니다. 하지만 단점은 메모리 크기가 한정되어 있다는 것입니다. 단점 때문에 모든...
    Date2021.10.25 Category제품 여행 By박세훈 Views547 Votes2
    Read More
  5. CUBRID TDE(Transparent Data Encryption)

    CUBRID 11버전에 "TDE(Transparent Data Encryption)"가 추가되었습니다! 2021년 1월 출시된 CUBRID11에 TDE가 생김으로써 보안이 한층 강화되었는데요, TDE란 무엇일까요?! Transparent Data Encryption(이하: TDE) 의 약자로 사용자의 관점에서 투명하게 데이터를 암호화하는 것을 의미합니다. 이를 통해 사용자는 애플리케이션의 변경을 거의 하지 않고 디스크에 저장되는 데이터를 암호화할 수 있습니다. 어떤 해커가 한 조직을 해킹했을 때, 훔쳐가고 싶은 것 1위는 당연히 데이터베이스 내에 있는 중요한 데이터일 것입니다. 또는 회사 내부의 악의적인 의도를 가진 직원이 데이터베이스에 로그인하고 USB와 같은 저장매체에 모든 데이터를 옮겨가는 상황이 있을 수도 있습니다. 이러한 상황들에서 데이터를 보호할 수 있는 가장 쉬운 방법은 데이터베이스를 암호화하는 것인데요, 암호화 기술 중 데이터베이스 파일 자체를 암호화하는 기술인 TDE가 좋은 선택이 되겠죠?! 암호화된 데이터베이스는 키가 없으면 접근할 수 없기 때문에, 이 키 파일을 함께 가지고 있지 않다면 도난당한 파일은 쓸모없는 더미 파일이 될테니까요. TDE 암호화 기능은 대칭키 알고리즘을 사...
    Date2021.05.20 Category제품 여행 By김지원 Views1431 Votes1
    Read More
  6. CUBRID의 개발 문화: CUBRID DBMS는 어떻게 개발되고 있을까?

    시작하며 안녕하세요, 유형규 선임연구원입니다. 이번 포스트에서는 먼저 큐브리드 프로젝트의 개발 프로세스를 소개하고, 프로세스를 개선하기 위한 노력과 개발 문화를 소개하려고 합니다. 큐브리드에 입사한 지 벌써 거의 2년 반이 흘렀습니다. 처음 입사했을 때 하나의 팀이었던 개발 조직도 어느새 대단한 동료 개발자분들이 많이 입사하면서 세 개발팀과 QA팀까지 규모가 제법 커지면서 새로 합류한 신입 동료 개발자분들도 많아졌습니다. 입사 후 첫 메이저 버전 릴리즈를 경험하면서 릴리즈 과정을 돌아보며 동료 개발자들과 큐브리드의 개발 프로세스를 조금 더 개선하게 되었습니다. 오픈소스 데이터베이스 프로젝트, CUBRID의 개발 프로세스 큐브리드는 오픈소스 프로젝트 입니다. 큐브리드는 참여, 개방, 공유의 가치를 지향하며 이를 실현하기 위해 정보의 공유와 프로세스의 투명성은 큐브리드의 개발 프로세스와 문화에 녹아있습니다. 큐브리드에 기여하는 모든 개발자는 오픈소스 프로젝트 개발 프로세스를 기반으로 개발을 진행합니다. 이 의미는 큐브리드 사내의 개발자든 큐브리드에 외부 기여자 (컨트리뷰터) 모두 동일한 과정으로 개발을 진행한다는 것입...
    Date2021.04.29 Category오픈소스 이야기 By유형규 Views1479 Votes1
    Read More
  7. CUBRID를 이용한 스니핑 방지 - 패킷암호화

    보안의 필요성 현대인들은 일상생활에 깊숙이 파고든 PC와 스마트폰으로 웹 서핑을 즐깁니다. 그러다 보니 인터넷상에 전송 중인 데이터를 악의적인 의도로 데이터를 엿볼 수도 있습니다. 즉, 누군가가 전송 중인 데이터를 엿볼 수 있는 것을 스니핑(sniffing)이라고 합니다. 대표적으로 계정의 id, pw를 가로채 타인의 개인 정보를 이용하여 물리적인 손해 입히는 사례가 있습니다. 이에 대해 CUBRID는 사용자 데이터를 보호하기 위해서 패킷 암호화를 제공합니다. 패킷 암호화를 적용하면 전송할 데이터에 대해 패킷이 암호화되어 전송됨으로써 누군가 스니핑(sniffing) 하더라도 데이터를 해석할 수 없게 구현할 수 있습니다. CUBRID 패킷암호화 CUBRID는 클라이언트와 서버 간에 전송되는 데이터를 암호화하기 위해 SSL/TLS 프로토콜을 사용합니다. SSL은 대칭형(symmetric)키를 이용하여 송수신 데이터를 암호화합니다. (클라이언트와 서버가 같은 세션키를 공유하여 암복호함). 클라이언트가 서버에 연결할 때마다 새롭게 생성되는 세션키 생성에 필요한 정보를 암호화한 형태로 교환하기 위해서 비 대칭 (asymmetric) 암호화 알고리즘을 사용하며, 이를 위해서 서버의 ...
    Date2021.04.28 Category제품 여행 By황영진 Views2435 Votes1
    Read More
  8. ANTLR, StringTemplate를 사용해서 PL/SQL을 CUBRID Java SP로 변환하기

    ANTLR, StringTemplate를 사용해서 PL/SQL을 CUBRID Java SP로 변환하기 CUBRID DBMS(이하 'CUBRID')는 PL/SQL을 지원하지 않습니다. PL/SQL 문법으로 함수나 서브 프로그램을 만들어서 해왔던 작업들을 CUBRID에서 하려면 Java Stored Function/Procedure(이하 'Java SP')으로 변환해야 합니다. 데이터베이스 개발자나 관리자, 엔지니어는 PL/SQL 문법에는 친숙하지만 프로그래밍 언어에는 친숙하지 않은 경우가 대부분입니다. 또한 어플리케이션 개발은 사용하는 DBMS에 따라 달라지는 부분이 거의 없지만 PL/SQL을 Java SP로 변환하는 것은 새로운 시스템을 개발하는 느낌을 받아서 어려움을 느끼는 것 같습니다. 그래서 PL/SQL 을 Java SP 쉽게 변환하는 방법에 대해서 찾아보던 중 ANTLR에 대해서 알게 되었습니다. ANTLR는 파서를 만드는 도구입니다. 전세계에 있는 컨트리뷰터들로부터 도움을 받아서 다양한 프로그래밍 언어들의 파싱할 수 있도록 문법 파일들을 지원하고 있습니다. 공식 홈페이지에서는 ANTLR에 대해서 아래와 같이 소개하고 있습니다. "ANTLR (ANother Tool for Language Recognition)은 구조화 된 텍스트 또는 이진 파일을 읽고, 처...
    Date2020.12.31 Category오픈소스 이야기 By주영진 Views2868 Votes2
    Read More
  9. [CUBRID inside] Query Process란?

    CUBRID는 open source DBMS입니다. 소스 코드가 공개되어 있어 언제든지 확인하고 기여할 수 있습니다. 많은 사람이 CUBRID의 contributor가 되길 바라봅니다. Query Process란? Query Process는 DBMS의 입력값인 SQL을 낮은 수준의 명령으로 변환하고 그것을 실행하는 전체 작업을 말합니다. SQL에서 가장 먼저 진행되어야 하는 것은 TEXT로 작성된 SQL을 parse tree 구조로 만드는 것입니다. 이 작업은 PARSER에서 진행되는데, CUBRID는 PT_NODE 구조체를 반복적으로 사용하여 SQL을 parse tree로 변환합니다. 이 단계에서 syntax check가 진행되고 오타나 잘못된 예약어 등을 체크합니다. 그리고 SEMANTIC CHECK를 진행하는데, 여기서 작성된 테이블명이나 칼럼명 등이 존재하는 것인지 체크합니다. 다음으로 OPTIMIZER가 parse tree를 최적화하고 PLAN을 생성합니다. parse tree를 최적화하는 것을 QUERY REWRITE 혹은 TRANSFORMATION이라고 합니다. 좋은 성능을 위해 SQL을 다시 작성한다고 생각하면 됩니다. 동일한 데이터를 조회하는 SQL은 다양한 형태로 작성될 수 있습니다. 그렇기 때문에 가장 효과적인 방안으로 변환을 하는 것입니다. 여러 재작성 방법이 있는데 ...
    Date2020.12.24 Category제품 여행 By박세훈 Views1148 Votes1
    Read More
  10. 파일이 정상인가 ?

    기술 지원 시 파일 변조 또는 손상 되어 골치 아픈 경우가 간혹 발생 합니다. - 고객사 지원을 위해 파일을 반입하는 경우 CD 손상으로 인한 파일 손상 - 보안 프로그램(DRM,EFS)에 의한 파일 변조 - 네트워크를 통한 파일 전송 시 파일 손상 파일 변조 또는 손상이 발생하면, 파일 크기가 크게 변하지 않으며 정합성 여부를 명확하게 확인 할 수 없습니다. 이로 인해 기술 지원 시 뭐가 문제인지 당황스러울 때가 있는데요. 이와 같은 상황에서 불필요한 시간 발생을 최소화 할 수 있는 방법에 대해 기술 하였습니다. 무결성 검사 파일이 변조 되어 있지 않다는 검사를 하기 위해 여러가지 방법들이 있습니다만, 가장 효율적이고 쉬운 방법을 소개하겠습니다. md5 (MD5 128비트 해쉬 암호화 함수)툴은 Windows, Linux, OS X 등 많은 시스템에서 기본적으로 설치 되어 있습니다. 참고 자료 MD5-위키백과 : https://ko.wikipedia.org/wiki/MD5 암호화 해쉬 함수-위키백과 : https://ko.wikipedia.org/wiki/%EC%95%94%ED%98%B8%ED%99%94_%ED%95%B4%EC%8B%9C_%ED%95%A8%EC%88%98 사용 방법 Windows * 실행 > cmd certutil -hashfile <filename> <hash functuin> * ex cmd> certut...
    Date2020.08.29 Category제품 여행 By윤준수 Views2415 Votes1
    Read More
Board Pagination Prev 1 2 3 4 5 6 7 8 9 10 ... 16 Next
/ 16

Contact Cubrid

대표전화 070-4077-2110 / 기술문의 070-4077-2113 / 영업문의 070-4077-2112 / Email. contact_at_cubrid.com
Contact Sales